Diseñar, desarrollar y mantener pipelines de datos escalables y eficientes utilizando *databricks* sobre plataformas cloud como *aws, azure o gcp*, contribuyendo a proyectos de analítica avanzada, machine learning y transformación digital para nuestros clientes.
*responsabilidades principales*
- diseñar y desarrollar workflows de ingesta, transformación y modelado de datos utilizando databricks y apache spark.
- implementar soluciones de etl/elt en ambientes cloud integrados con databricks.
- colaborar con analistas de datos, científicos de datos y arquitectos para optimizar pipelines y mejorar la calidad y disponibilidad de los datos.
- monitorear y mejorar el rendimiento de notebooks y clusters en databricks.
- integrar databricks con herramientas como delta lake, mlflow, unity catalog, entre otras.
- participar en el diseño de soluciones seguras, auditables y alineadas a las mejores prácticas de dataops.
- documentar procesos y participar en revisiones de código y sesiones de planificación ágil.
*requisitos técnicos*
- experiência mínima de 2 años trabajando con databricks (notebooks, clusters, jobs).
- dominio de apache spark (especialmente pyspark).
- experiência con sql para exploración y transformación de datos.
- conocimientos en arquitecturas cloud: azure data lake, aws s3 o google cloud storage.
- familiaridad con delta lake y formatos de almacenamiento como parquet.
- buen manejo de git, integración continua (ci/cd) y procesos de versionado.
- deseable: experiência con mlflow, dbt, airflow y herramientas de orquestación.
*habilidades y competencias*
- capacidad para trabajar en entornos colaborativos y metodologías ágiles.
- mentalidad analítica y orientada a la optimización.
- alta atención al detalle en el manejo y transformación de datos.
- deseo de aprender tecnologías emergentes en el ecosistema de datos.
*formación académica*
- licenciatura en ingeniería en sistemas, computación, ciencias de datos o campo relacionado.
*deseables (plus)*
- certificación de databricks o experiência con databricks lakehouse platform.
- conocimientos básicos de machine learning aplicado sobre pipelines.
- experiência previa en sectores como retail, banca, salud o telecomunicaciones.
tipo de puesto: tiempo completo
sueldo: $70,* - $80,* al mes
beneficios:
- aumentos salariales
- días de maternidad superiores a los de la ley
- días de paternidad superiores a los de la ley
- días por enfermedad
- horarios flexibles
- opción a contrato indefinido
- trabajo desde casa
- vacaciones adicionales o permisos con goce de sueldo
tipo de jornada:
- turno de 8 horas
experiência:
- cloud (aws, gcp, azure): 3 años (obligatorio)
- databricks: 3 años (obligatorio)
- sql: 3 años (obligatorio)
lugar de trabajo: remoto híbrido en *, ciudad de méxico