Diseñar, desarrollar y mantener pipelines de datos escalables y eficientes utilizando *databricks* sobre plataformas cloud como *aws, azure o gcp*, contribuyendo a proyectos de analítica avanzada, machine learning y transformación digital para nuestros clientes.
*responsabilidades principales*- diseñar y desarrollar workflows de ingesta, transformación y modelado de datos utilizando databricks y apache spark.- implementar soluciones de etl/elt en ambientes cloud integrados con databricks.- colaborar con analistas de datos, científicos de datos y arquitectos para optimizar pipelines y mejorar la calidad y disponibilidad de los datos.- monitorear y mejorar el rendimiento de notebooks y clusters en databricks.- integrar databricks con herramientas como delta lake, mlflow, unity catalog, entre otras.- participar en el diseño de soluciones seguras, auditables y alineadas a las mejores prácticas de dataops.- documentar procesos y participar en revisiones de código y sesiones de planificación ágil.
*requisitos técnicos*- experiência mínima de 2 años trabajando con databricks (notebooks, clusters, jobs).- dominio de apache spark (especialmente pyspark).- experiência con sql para exploración y transformación de datos.- conocimientos en arquitecturas cloud: azure data lake, aws s3 o google cloud storage.- familiaridad con delta lake y formatos de almacenamiento como parquet.- buen manejo de git, integración continua (ci/cd) y procesos de versionado.- deseable: experiência con mlflow, dbt, airflow y herramientas de orquestación.
*habilidades y competencias*- capacidad para trabajar en entornos colaborativos y metodologías ágiles.- mentalidad analítica y orientada a la optimización.- alta atención al detalle en el manejo y transformación de datos.- deseo de aprender tecnologías emergentes en el ecosistema de datos.
*formación académica*- licenciatura en ingeniería en sistemas, computación, ciencias de datos o campo relacionado.
*deseables (plus)*- certificación de databricks o experiência con databricks lakehouse platform.- conocimientos básicos de machine learning aplicado sobre pipelines.- experiência previa en sectores como retail, banca, salud o telecomunicaciones.tipo de puesto: tiempo completosueldo: $70,000.00 - $80,000.00 al mesbeneficios:- aumentos salariales- días de maternidad superiores a los de la ley- días de paternidad superiores a los de la ley- días por enfermedad- horarios flexibles- opción a contrato indefinido- trabajo desde casa- vacaciones adicionales o permisos con goce de sueldotipo de jornada:- turno de 8 horasexperiência:- cloud (aws, gcp, azure): 3 años (obligatorio)- databricks: 3 años (obligatorio)- sql: 3 años (obligatorio)lugar de trabajo: remoto híbrido en 06600, ciudad de méxico