* desarrollar las capas de integración de datos (recopilación, limpieza y transformación)
* automatización de procesos para la recopilación, transformación y análisis de datos de forma regular
* diseñar la forma en que se extraerán los datos de sistemas de origen como crm, erp, etc
* gestión de la calidad de los datos, definición de métricas e implementación de controles de calidad
* optimización del rendimiento, indexación, particionamiento y optimización de consultas
* documentación técnica y de usuario finales
* mantenimiento, monitoreo y mejora continua de los procesos de ingeniería.
* diseñar y mantener pipelines de datos (etl/elt) para transformar información de diversas fuentes en estructuras accesibles para analistas y científicos de datos.
* automatizar procesos de ingesta.
* colaborar estrechamente con analistas, científicos de datos y áreas de negocio para asegurar la disponibilidad y confiabilidad de la información.
educación y formación: ingeniero en sistemas, ciencias de la computación.
experiencia: mínimo 2 a 4 años en diseño e implementación de pipelines de datos, bases de datos o arquitecturas analíticas.
habilidades interpersonales: pensamiento estructurado y capacidad de resolución de problemas complejos.
atención al detalle y alto sentido de responsabilidad técnica. Colaboración efectiva en equipos multidisciplinarios. Capacidad de documentar y comunicar soluciones técnicas de manera clara.
competencias técnicas del puesto : lenguajes de programación (python, sql, scala o java). Bases de datos relacionales (sql server) y nosql (mongodb, cassandra). Plataformas cloud (azure data factory, aws glue, google dataflow, bigquery, snowflake). Conocimientos en modelado de datos, performance tuning y versionamiento de scripts (git).
conocimientos específicos: fundamentos de arquitectura de datos y diseño de data lakes/data warehouses. Procesamiento de datos en batch y en tiempo real. Seguridad, cifrado y manejo ético de datos personales. Deseable: conocimientos básicos de ciencia de datos y bi.