Objetivo del puesto
profesional full-stack de datos responsable de diseñar, desarrollar, implementar y mantener soluciones integrales de datos que soporten la toma de decisiones operativas y estratégicas. Asegura la calidad, disponibilidad y gobernanza de los datos, integra fuentes heterogéneas (on-premise y cloud), desarrolla tuberías etl/elt, modelos analíticos y despliega servicios de datos y machine learning en producción, cumpliendo con estándares de seguridad y normativos aplicables.
responsabilidades principales
* diseñar y construir pipelines de ingestión, transformación y distribución de datos (etl/elt) utilizando arquitecturas batch y streaming.
* implementar y mantener plataformas de datos en entornos cloud e híbridos (almacenamiento, data lake, data warehouse, catálogos y lakehouse).
* desarrollar soluciones back-end para apis de datos y microservicios que exponen datasets y modelos a consumidores internos y externos.
* diseñar, entrenar, validar y poner en producción modelos de machine learning, asegurando su monitoreo, retraining y explicabilidad.
* optimizar consultas, modelos dimensionales y estructuras de datos para rendimiento, coste y escalabilidad.
* garantizar la calidad, integridad y linaje de los datos mediante pruebas, validaciones y herramientas de data observability.
* definir e implementar políticas de seguridad, control de accesos y cumplimiento de normativas (privacidad de datos, encriptación, retención).
* colaborar con equipos multidisciplinarios (producción, operaciones, it, bi, analítica, producto) para entender requerimientos y entregar soluciones operativas.
* automatizar despliegues e infraestructura mediante iac (infrastructure as code) y pipelines ci/cd para datos y modelos.
* documentar arquitecturas, procesos, apis, contratos de datos y manuales operativos; participar en revisiones técnicas y auditorías.
* capacitar y apoyar a usuarios y equipos en el uso de plataformas de datos, buenas prácticas y gobernanza; promover cultura de datos en la organización.
perfil requerido
* escolaridad: ingeniería en computación, sistemas, telecomunicaciones, matemáticas, estadística, ciencia de datos o afín.
* experiencia:
* mínimo 8 años de experiencia profesional en ingeniería de datos, ciencia de datos o roles full-stack de datos en entornos productivos.
* experiencia comprobable implementando soluciones en cloud (aws, azure o gcp) y con prácticas de mlops/devops.
* conocimientos técnicos clave:
* lenguajes: python, sql; conocimientos en java/scala o go serán un plus.
* herramientas y frameworks: spark, kafka, airflow, dbt, terraform, kubernetes, docker.
* plataformas cloud: bigquery, redshift, synapse, s3/blob storage, dataflow/dataproc o equivalentes.
* modelado de datos: data warehouse, data lake, esquemas dimensionales y lakehouse.
* machine learning: scikit-learn, tensorflow/pytorch, evaluación de modelos, deployment y monitoreo.
* buenas prácticas de ingeniería: pruebas automatizadas, ci/cd, iac, observabilidad y logging.
* seguridad y gobernanza de datos: iam, cifrado, políticas de retención, catalogación y linaje.
* competencias:
* capacidad para resolver problemas complejos y tomar decisiones bajo presión.
* comunicación efectiva y trabajo colaborativo con equipos técnicos y de negocio.
* orientación a resultados, organización y atención al detalle.
* proactividad en mejora continua y adopción de nuevas tecnologías.
condiciones del puesto
* posición presencial de acuerdo necesidades de proyectos.
* disposición para participar en guardias o turnos fuera de horario en caso de incidentes críticos en producción.
únete a una organización comprometida con la excelencia técnica y la seguridad de la información. Si tienes experiencia sólida en ingeniería y operaciones de datos y te interesa impulsar la transformación digital mediante soluciones escalables y gobernadas, te invitamos a postular.