Cdmx ¿cuál será tu misión?Serás el responsable de construir y mantener las "tuberías" de nuestra información. Tu objetivo es garantizar que la plataforma cuente con una arquitectura operativa óptima para que los datos fluyan, se transformen y estén listos para ser explotados por el negocio.¿qué harás con nosotros?Construir el flujo: diseñarás y desarrollarás pipelines de datos (etl/elt) usando spark para integrar, centralizar y proteger nuestra información.definir la estructura: te encargarás de definir los tipos de datos y sus metadatos, asegurando que todo esté bien etiquetado desde el origen.maestro de las reglas: implementarás modelos y políticas de gestión de datos, integrando reglas a través de herramientas de master data management (mdm).elegir las herramientas: evaluarás y definirás las mejores tecnologías de almacenamiento para que nuestra infraestructura siempre sea de vanguardia.colaboración total: participarás en comités de gobierno de datos para facilitar accesos y asegurar que las normativas de seguridad se cumplan en cada modelo que crees.¿qué esperamos de ti?El camino: entre 3 y 6 años de experiencia como dba (oracle, sql) o en modelado de datos.ecosistema big data: experiencia sólida (1 a 3 años) manejando hadoop (hdfs), no sql y/o spark.nube aws: conocimiento intermedio en arquitecturas de datos sobre aws.dev stack: dominio de python (py spark/scala) y un nivel avanzado de sql.mindset: alguien proactivo, con gran capacidad para solucionar problemas y que nunca deje de aprender.¿te ves aquí? ¡postula ahora!