Cdmx¿cuál será tu misión? Serás el responsable de construir y mantener las "tuberías" de nuestra información. Tu objetivo es garantizar que la plataforma cuente con una arquitectura operativa óptima para que los datos fluyan, se transformen y estén listos para ser explotados por el negocio. ¿qué harás con nosotros? Construir el flujo: diseñarás y desarrollarás pipelines de datos (etl/elt) usando spark para integrar, centralizar y proteger nuestra información. Definir la estructura: te encargarás de definir los tipos de datos y sus metadatos, asegurando que todo esté bien etiquetado desde el origen. Maestro de las reglas: implementarás modelos y políticas de gestión de datos, integrando reglas a través de herramientas de master data management (mdm). Elegir las herramientas: evaluarás y definirás las mejores tecnologías de almacenamiento para que nuestra infraestructura siempre sea de vanguardia. Colaboración total: participarás en comités de gobierno de datos para facilitar accesos y asegurar que las normativas de seguridad se cumplan en cada modelo que crees. ¿qué esperamos de ti? El camino: entre 3 y 6 años de experiencia como dba (oracle, sql) o en modelado de datos. Ecosistema big data: experiencia sólida (1 a 3 años) manejando hadoop (hdfs), nosql y/o spark. Nube aws: conocimiento intermedio en arquitecturas de datos sobre aws. Dev stack: dominio de python (pyspark/scala) y un nivel avanzado de sql. Mindset: alguien proactivo, con gran capacidad para solucionar problemas y que nunca deje de aprender. ¿te ves aquí? ¡postula ahora!