Objetivo del puestoprofesional full-stack de datos responsable de diseñar, desarrollar, implementar y mantener soluciones integrales de datos que soporten la toma de decisiones operativas y estratégicas.asegura la calidad, disponibilidad y gobernanza de los datos, integra fuentes heterogéneas (on-premise y cloud), desarrolla tuberías etl/elt, modelos analíticos y despliega servicios de datos y machine learning en producción, cumpliendo con estándares de seguridad y normativos aplicables.responsabilidades principalesdiseñar y construir pipelines de ingestión, transformación y distribución de datos (etl/elt) utilizando arquitecturas batch y streaming.implementar y mantener plataformas de datos en entornos cloud e híbridos (almacenamiento, data lake, data warehouse, catálogos y lakehouse).desarrollar soluciones back-end para apis de datos y microservicios que exponen datasets y modelos a consumidores internos y externos.diseñar, entrenar, validar y poner en producción modelos de machine learning, asegurando su monitoreo, retraining y explicabilidad.optimizar consultas, modelos dimensionales y estructuras de datos para rendimiento, coste y escalabilidad.garantizar la calidad, integridad y linaje de los datos mediante pruebas, validaciones y herramientas de data observability.definir e implementar políticas de seguridad, control de accesos y cumplimiento de normativas (privacidad de datos, encriptación, retención).colaborar con equipos multidisciplinarios (producción, operaciones, it, bi, analítica, producto) para entender requerimientos y entregar soluciones operativas.automatizar despliegues e infraestructura mediante iac (infrastructure as code) y pipelines ci/cd para datos y modelos.documentar arquitecturas, procesos, apis, contratos de datos y manuales operativos; participar en revisiones técnicas y auditorías.capacitar y apoyar a usuarios y equipos en el uso de plataformas de datos, buenas prácticas y gobernanza; promover cultura de datos en la organización.perfil requeridoescolaridad: ingeniería en computación, sistemas, telecomunicaciones, matemáticas, estadística, ciencia de datos o afín.experiencia:mínimo 8 años de experiencia profesional en ingeniería de datos, ciencia de datos o roles full-stack de datos en entornos productivos.experiencia comprobable implementando soluciones en cloud (aws, azure o gcp) y con prácticas de mlops/devops.conocimientos técnicos clave:lenguajes: python, sql; conocimientos en java/scala o go serán un plus.herramientas y frameworks: spark, kafka, airflow, dbt, terraform, kubernetes, docker.plataformas cloud: bigquery, redshift, synapse, s3/blob storage, dataflow/dataproc o equivalentes.modelado de datos: data warehouse, data lake, esquemas dimensionales y lakehouse.machine learning: scikit-learn, tensorflow/pytorch, evaluación de modelos, deployment y monitoreo.buenas prácticas de ingeniería: pruebas automatizadas, ci/cd, iac, observabilidad y logging.seguridad y gobernanza de datos: iam, cifrado, políticas de retención, catalogación y linaje.competencias:capacidad para resolver problemas complejos y tomar decisiones bajo presión.comunicación efectiva y trabajo colaborativo con equipos técnicos y de negocio.orientación a resultados, organización y atención al detalle.proactividad en mejora continua y adopción de nuevas tecnologías.condiciones del puestoposición presencial de acuerdo necesidades de proyectos.disposición para participar en guardias o turnos fuera de horario en caso de incidentes críticos en producción.únete a una organización comprometida con la excelencia técnica y la seguridad de la información.si tienes experiencia sólida en ingeniería y operaciones de datos y te interesa impulsar la transformación digital mediante soluciones escalables y gobernadas, te invitamos a postular.#j-*-ljbffr