Objetivo del puesto
profesional full-stack de datos responsable de diseñar, desarrollar, implementar y mantener soluciones integrales de datos que soporten la toma de decisiones operativas y estratégicas. Asegura la calidad, disponibilidad y gobernanza de los datos, integra fuentes heterogéneas (on-premise y cloud), desarrolla tuberías etl/elt, modelos analíticos y despliega servicios de datos y machine learning en producción, cumpliendo con estándares de seguridad y normativos aplicables.
Responsabilidades principales
diseñar y construir pipelines de ingestión, transformación y distribución de datos (etl/elt) utilizando arquitecturas batch y streaming.
Implementar y mantener plataformas de datos en entornos cloud e híbridos (almacenamiento, data lake, data warehouse, catálogos y lakehouse).
Desarrollar soluciones back-end para apis de datos y microservicios que exponen datasets y modelos a consumidores internos y externos.
Diseñar, entrenar, validar y poner en producción modelos de machine learning, asegurando su monitoreo, retraining y explicabilidad.
Optimizar consultas, modelos dimensionales y estructuras de datos para rendimiento, coste y escalabilidad.
Garantizar la calidad, integridad y linaje de los datos mediante pruebas, validaciones y herramientas de data observability.
Definir e implementar políticas de seguridad, control de accesos y cumplimiento de normativas (privacidad de datos, encriptación, retención).
Colaborar con equipos multidisciplinarios (producción, operaciones, it, bi, analítica, producto) para entender requerimientos y entregar soluciones operativas.
Automatizar despliegues e infraestructura mediante iac (infrastructure as code) y pipelines ci/cd para datos y modelos.
Documentar arquitecturas, procesos, apis, contratos de datos y manuales operativos; participar en revisiones técnicas y auditorías.
Capacitar y apoyar a usuarios y equipos en el uso de plataformas de datos, buenas prácticas y gobernanza; promover cultura de datos en la organización.
Perfil requerido
escolaridad: ingeniería en computación, sistemas, telecomunicaciones, matemáticas, estadística, ciencia de datos o afín.
Experiencia:
mínimo 8 años de experiencia profesional en ingeniería de datos, ciencia de datos o roles full-stack de datos en entornos productivos.
Experiencia comprobable implementando soluciones en cloud (aws, azure o gcp) y con prácticas de mlops/devops.
Conocimientos técnicos clave:
lenguajes: python, sql; conocimientos en java/scala o go serán un plus.
Herramientas y frameworks: spark, kafka, airflow, dbt, terraform, kubernetes, docker.
Plataformas cloud: bigquery, redshift, synapse, s3/blob storage, dataflow/dataproc o equivalentes.
Modelado de datos: data warehouse, data lake, esquemas dimensionales y lakehouse.
Machine learning: scikit-learn, tensorflow/pytorch, evaluación de modelos, deployment y monitoreo.
Buenas prácticas de ingeniería: pruebas automatizadas, ci/cd, iac, observabilidad y logging.
Seguridad y gobernanza de datos: iam, cifrado, políticas de retención, catalogación y linaje.
Competencias:
capacidad para resolver problemas complejos y tomar decisiones bajo presión.
Comunicación efectiva y trabajo colaborativo con equipos técnicos y de negocio.
Orientación a resultados, organización y atención al detalle.
Proactividad en mejora continua y adopción de nuevas tecnologías.
Condiciones del puesto
posición presencial de acuerdo necesidades de proyectos.
Disposición para participar en guardias o turnos fuera de horario en caso de incidentes críticos en producción.
Únete a una organización comprometida con la excelencia técnica y la seguridad de la información. Si tienes experiencia sólida en ingeniería y operaciones de datos y te interesa impulsar la transformación digital mediante soluciones escalables y gobernadas, te invitamos a postular.
#j-18808-ljbffr