Profesional con amplia experiencia en el diseño, desarrollo e implementación de sistemas etl para la ingestión, transformación y carga de datos desde múltiples fuentes, incluyendo athena y postgres. Especialista en la creación de pipelines de datos eficientes y escalables utilizando herramientas como apache airflow, apache kafka, apache spark y python. Orientado a la construcción de arquitecturas de datos organizadas (capa bronce) y al aseguramiento de la calidad e integridad de la información. Cuenta con experiencia en el consumo y procesamiento de jerarquías de artículos en tiempo real mediante kafka, así como en el análisis y mapeo de vistas complejas (como zcds view).
requisitos:
* experiencia comprobable en el desarrollo de procesos etl/elt.
* conocimiento avanzado en python.
* manejo de herramientas de orquestación como apache airflow.
* experiencia con tecnologías de streaming, especialmente apache kafka.
* conocimientos en apache spark para procesamiento distribuido.
* manejo de bases de datos como athena, postgres u otras relacionales.
* experiencia en la construcción de pipelines y modelos de datos (capa bronce).
* conocimientos en análisis y mapeo de vistas complejas (e.g., zcds)