Descripción
Analista de Bases de Datos BigQuery Google Cloud - CEAP (Becario)
En Mexican People HR, buscamos un Analista de Bases de Datos BigQuery Google Cloud - CEAP que participe en un programa de prácticas con una duración de 6 meses. Este rol está diseñado para estudiantes o recién egresados interesados en desarrollar sus habilidades en la gestión, análisis y optimización de bases de datos en la nube, específicamente en Google Cloud Platform (GCP) utilizando BigQuery.
El becario trabajará en colaboración con el equipo de tecnología y análisis para diseñar soluciones de datos escalables, realizar consultas complejas, y optimizar procesos de carga y transformación de datos.
Objetivo del Programa:
Fomentar el desarrollo de habilidades en el uso de herramientas de análisis de datos en la nube y capacitar al becario en el diseño, gestión y explotación de bases de datos BigQuery, contribuyendo a la mejora de la infraestructura de datos de la empresa.
Responsabilidades:
- Diseñar y gestionar datasets en BigQuery para soportar las necesidades analíticas de la empresa.
- Realizar consultas avanzadas en SQL para la extracción y análisis de datos.
- Colaborar en la optimización de procesos ETL (Extracción, Transformación y Carga).
- Implementar soluciones escalables en Google Cloud Platform.
- Identificar y solucionar problemas relacionados con la calidad de los datos.
- Generar reportes automatizados para distintas áreas de la empresa.
Plan de Trabajo (6 Meses)
Mes 1: Inducción y Capacitación Inicial
Objetivos:
- Comprender la infraestructura de datos de Mexican People HR.
- Familiarizarse con el entorno de trabajo en Google Cloud Platform y BigQuery.
Actividades:
- Inducción a la infraestructura tecnológica y al uso de GCP.
- Configuración del entorno personal en GCP (permisos, herramientas, etc.).
- Capacitación en conceptos básicos y avanzados de BigQuery y SQL.
- Revisión de datasets y pipelines existentes.
- Introducción a herramientas de integración como Dataflow y Pub/Sub.
Mes 2: Creación y Gestión de Bases de Datos
Objetivos:
- Diseñar y estructurar bases de datos para el almacenamiento eficiente de datos.
Actividades:
- Creación de datasets y tablas en BigQuery.
- Diseño de esquemas de bases de datos optimizados para consultas analíticas.
- Implementación de políticas de acceso y seguridad en GCP.
- Documentación de estructuras de datos y pipelines creados.
Mes 3: Procesos ETL y Optimización
Objetivos:
- Implementar y optimizar procesos ETL para la transformación de datos.
Actividades:
- Desarrollar y ejecutar procesos ETL utilizando herramientas como Dataflow o Apache Beam.
- Integración de datos provenientes de diversas fuentes (APIs, hojas de cálculo, etc.).
- Optimización de consultas en BigQuery mediante técnicas como particionamiento y clustering.
- Documentación y monitoreo de los procesos ETL implementados.
Mes 4: Generación de Reportes Automatizados y Visualización de Datos
Objetivos:
- Crear reportes dinámicos y automatizados para el análisis de datos.
Actividades:
- Conexión de BigQuery con herramientas de visualización como Google Data Studio o Tableau.
- Diseño y automatización de dashboards interactivos.
- Generación de reportes personalizados para equipos específicos de la empresa.
- Implementación de alertas automáticas para anomalías en los datos.
Mes 5: Seguridad, Monitoreo y Escalabilidad
Objetivos:
- Garantizar la seguridad y eficiencia de los sistemas de datos en la nube.
Actividades:
- Configuración de políticas de seguridad avanzadas para bases de datos en BigQuery.
- Implementación de herramientas de monitoreo en GCP (Cloud Monitoring, Cloud Logging).
- Validación de los procesos frente a pruebas de carga y rendimiento.
- Mejora de la escalabilidad de las soluciones implementadas.
Mes 6: Evaluación Final y Entrega de Resultados
Objetivos:
- Analizar y presentar los resultados obtenidos durante las prácticas.
Actividades:
- Evaluación del impacto de los procesos desarrollados en la operación de datos.
- Revisión de métricas de rendimiento y calidad de los datos.
- Presentación de resultados al equipo técnico y directivo.
- Documentación final de aprendizajes y propuestas de mejora.
- Recepción de retroalimentación y evaluación del desempeño.
Requisitos Técnicos y Habilidades:
- Bases de datos: Conocimientos básicos de SQL y diseño de esquemas.
- BigQuery: Familiaridad con consultas avanzadas y optimización de datos en la nube.
- Google Cloud Platform: Manejo básico de herramientas como Dataflow, Pub/Sub y Cloud Storage.
- ETL: Comprensión de procesos de Extracción, Transformación y Carga.
- Visualización de datos: Uso de herramientas como Google Data Studio, Power BI o Tableau.
- Seguridad: Conocimiento de políticas de acceso y permisos en entornos de datos.
- Resolución de problemas: Capacidad analítica para identificar y solucionar problemas de datos.
- Inglés técnico: Para entender documentación y colaborar en herramientas en inglés.
Duración: 6 meses
Modalidad: Mixta (remota y presencial según las necesidades del proyecto).
Horario: Flexible, ajustado a compromisos académicos.