Nos enorgullece ser una empresa que ha traspasado fronteras con sus productos. Todo esto gracias a las 30,969 personas que colaboran en esta gran compañía.hoy forma parte de ab-inbev, la compañía cervecera más grande del mundo. Te invitamos a participar en la vacante de: senior data scientist requisitos: escolaridad: licenciatura en ciencia de datos, licenciatura en ciencias de la computación, licenciatura en actuaría, licenciatura en estadística, ingeniería en sistemas o afines. Maestría en ciencia de datos / mba (deseable). Años y área de experiencia: más de 4 años de experiencia en posiciones como data scientist. Idioma: inglés – avanzado (80%) competencias: comunicación efectiva, pensamiento crítico, liderazgo, gestión del tiempo y prioridades, colaboración y trabajo en equipo, adaptabilidad, negociación e influencia, curiosidad y aprendizaje continuo. Lugar de trabajo: miguel hidalgo, cdmx, méxico. Horario: 8 a 5 pm acerca del puesto actividades: desarrollar productos analíticos e2e, desde el requerimiento de negocio, hasta la puesta en producción. Escribir código de alto rendimiento para procesamiento de datos listos para ser usados para entrenar nuestros modelos de machine learning. Entrenar modelos de machine learning y extraer el máximo performance en diversas aplicaciones como: clasificación, clustering, sistemas de recomendación, forecasting, etc. Integrar nuestros modelos de machine learning en la infraestructura de la compañía, asegurando su correcto funcionamiento. Formar parte de sesiones técnicas para discutir el futuro de nuestros productos e implementaciones. Revisión de código para asegurar la calidad de nuestra base de código (pr reviews) guiar y ayudar activamente a los miembros más junior del equipo requisitos minímos: programación avanzada en python, sentirse cómodo trabajando con programación orientada a objetos, patrones de diseño y principios de diseño. Conocimiento en sql para la consulta y procesamiento de datos, con sólida experiencia en el desarrollo de consultas optimizadas para el manejo masivo de datos. Sentirse cómodo trabajando con módulos para el procesamiento de datos como pandas o polars. Experiencia con frameworks para–machine learning como sci-kit learn, xgboost, lightgbm, pytorch, tensorflow, etc. Ser capaz de reconocer e implementar patrones de diseño para mejorar nuestro código de entrenamiento de modelos, pipelines de datos, etc. Experiencia en estadística aplicada, diseño de experimentos, y análisis del output de modelos de ml. Experiencia en herramientas de desarrollo como git, shell scripting, clis, manejadores de dependencias de python, etc. Sentirse cómodo explicando insights de datos, en una manera entendible para stakeholders no técnicos. Habilidad para priorizar historias de usuario, tareas y delegar tareas a miembros más junior de manera adecuada. Deseable: experiencia programando código eficiente en paquetes de procesamiento de datos distribuidos como pyspark. Experiencia con frameworks distribuidos de ml/ai como: spark mllib, distributed xgboost, pytorch, horovod, etc. Experiencia de desarrollo en azure databricks como plataforma: distributed computes, unity catalog, feature store, ml flow, delta lake, etc.