En este rol, tendrás el reto de construir plataformas robustas y pipelines inteligentes para habilitar análisis avanzados y el despliegue de modelos a escala.
objetivo del rol
* ser responsable de la operación completa de modelos de machine learning en producción: desde la implementación, ajuste de hiperparámetros, monitoreo de rendimiento, hasta la automatización de flujos sobre datalake spark.
* trabajar en estrecha colaboración con equipos de ciencia de datos, producto, arquitectura y tecnología.
responsabilidades clave
* implementar infraestructura en aws (sagemaker notebooks) para ci/cd de modelos.
* desarrollar pipelines de datos y features para entrenamiento e inferencia.
* automatizar procesos con pyspark y orquestadores como airflow o step functions.
* monitorear modelos con prometheus, grafana y dashboards personalizados.
* integrar flujos ci/cd con herramientas como github actions, sonarqube y nexus.
* asegurar versionamiento con dvc o mlflow.
* diseñar soluciones escalables y seguras bajo estándares como gdpr/ccpa.
requisitos:
* +6 años en diseño y mantenimiento de ml pipelines.
* +5 años en plataformas cloud (aws, gcp, azure).
* +3 años en contenerización (docker, kubernetes) y monitoreo de modelos.
* experiencia en iac (terraform, cloudformation) y seguridad en ml workflows.
* colaboración efectiva con equipos multidisciplinarios.
* formación: licenciatura en ciencias computacionales, sistemas, actuaría o afín.
* deseable: maestría en ciencia de datos o ingeniería.
* plus: experiencia en ia generativa y llms.
interacción: colaborarás con equipos internos de producto, riesgos, pld, cx y operaciones, además de mantener contacto con proveedores tecnológicos y consultores externos.