¿buscar crecimiento profesional y un interesante desafío?Desde yel solutions, buscamos incorporar un ingeniero/ arquitecto de datos y machine learning, para sumarse al equipo de profesionales y expertos informáticos brindando servicio a nuestros clientes.lugar: remoto al 100%horario: 8:30 a 17:30 hsqué buscamos:arquitecto de datos & machine learning con enfoque en mlops, pipelines de datos y despliegue de modelos.estamos enfocados en un profesional que actúe como puente entre la ingeniería de datos y la ciencia de datos. Será responsable de diseñar e implementar soluciones de inteligencia artificial que funcionen en producción, desde la ingesta de datos hasta la exposición de los resultados mediante apis, pasando por el entrenamiento, empaquetado y monitoreo de modelos.si te sientes tan cómodo construyendo pipelines con kafka como optimizando modelos con tensorflow, y además sabes lo que significa poner un contenedor en kubernetes, este rol es para ti.principales responsabilidadesarquitectura de datos: diseñar pipelines de ingesta y procesamiento en tiempo real y batch usando apache nifi y apache kafka.modelado y desarrollo: investigar, entrenar y validar modelos de machine learning y deep learning con python (numpy, pandas, scikit-learn, tensorflow, pytorch).mlops y despliegue: empaquetar modelos en docker y orquestar su ejecución en clústeres kubernetes, asegurando escalabilidad y alta disponibilidad.integración: desarrollar microservicios con flask para exponer predicciones a sistemas internos o externos.monitoreo y reporting: implementar dashboards técnicos con grafana y tableros de negocio con power bi para hacer seguimiento del rendimiento y la calidad de los modelos.conocimientos imprescindibleslenguajes: python avanzado, sql.data engineering: experiencia real con apache nifi y apache kafka (streaming, topics, productores/consumidores).machine learning: uso de frameworks como tensorflow, pytorch o xgboost en proyectos productivos.contenedores y orquestación: dominio de docker y kubernetes (despliegues, servicios, estrategias de actualización).backend básico: desarrollo de apis con flask (o fastapi) para servir modelos.observabilidad: conocimiento de grafana para monitoreo de infraestructura y modelos.deseables (no excluyentes, pero muy valorados)experiencia con herramientas de datos (datahub, amundsen, o similares).conocimiento de data lakehouse / data warehousing (snowflake, bigquery, delta lake).familiaridad con kubeflow, seldon core o mlflow.certificaciones en cloud (aws, azure, gcp) con foco en servicios de datos y ml.¿qué ofrecemos!?Sueldo competitivo, acorde a experiencia. (esquema 100 % nomina)prestaciones superiores a las de ley.oportunidad de crecimiento profesional en un entorno dinámico y de alto impacto.plataforma con beneficios y descuentos corporativos.y más!¿listo para dar el paso?