Buen dìa
uno de nuestros más importantes clientes, nos piden incorporar el siguiente perfil:
es importante tener inglés avanzado.
descripción del perfil:
* rol principal: diseñar, desarrollar y optimizar flujos de datos escalables en databricks, asegurando calidad, gobernanza y eficiencia.
* funciones clave:
* crear y mantener pipelines de datos (etl/elt) en databricks.
* programar en python y pyspark para transformar, limpiar y analizar datos.
* integrar datos de diversas fuentes (estructurados, semiestructurados y no estructurados).
* usar delta lake para versionado, gobernanza y optimización de datos.
* colaborar con científicos de datos, analistas y stakeholders para entregar soluciones confiables.
* optimizar consultas sql y manejar bases de datos relacionales.
* trabajar en entornos de nube (azure, aws, gcp) para almacenamiento y procesamiento.
* requisitos técnicos:
* +3 años de experiencia en databricks.
* programación sólida en python y pyspark.
* experiencia en procesamiento de datos a gran escala y delta lake.
* conocimiento en sql y cloud data lakes (azure data lake, aws s3, gcp).
* inglés avanzado (oral y escrito).
* deseables (plus):
* experiencia en ci/cd y devops aplicado a data engineering.
* conocimiento de machine learning pipelines en databricks.
* manejo de herramientas de bi (power bi, tableau, looker).
* conocimiento en data governance y compliance.
* habilidades blandas:
* trabajo en equipo y comunicación efectiva.
* resolución de problemas y análisis crítico.
* autonomía y capacidad de manejar múltiples prioridades.
job type: full-time
pay: from $50,000.00 per month
work location: remote