Responsabilidades
diseñar y mantener pipelines de datos eficientes, optimizar el rendimiento de las bases de datos y sistemas de almacenamiento.
garantizar la calidad de los datos, trabajando en colaboración con científicos de datos, analistas, ingenieros de software y equipos de negocios para comprender y satisfacer las necesidades de datos de la organización.
debe de comprender algoritmos de aprendizaje automático y big data
requisitos
implementación y administración de soluciones big data (principalmente cloudera, opcional o alternativo azure, aws o gcp) - mínimo 5 años
lenguaje de programación python o scala - mínimo 5 años
implementación de arquitectura lambda - mínimo 4 años
implementación en modelos dimensionales - mínimo 3 años
manejo de herramientas de orquestación (airflow, jenkins, oozie) - mínimo 2 años
desarrollo en spark - mínimo 4 años
manejo e implementación de dockers o kubernetes - mínimo 2 años
implementación arquitectura kappa - mínimo 3 años
esquema de trabajo hibrido, mayormente home office
100% nómina, prestaciones de ley