Definir, asesorar, coordinar y/o ejecutar con visión integral las actividades del proyecto/servicio, desarrollando productos de complejidad avanzada, con calidad y de acuerdo a los tiempos asignados, a través de la correcta implementación de la solución
Experiencia:
Mínimo de 6 a 8 años de experiencia en desarrollo de
Big Data (
Hadoop, Hive, Kafka, Presto, Spark y HBase)
Conocimientos avanzados en
python, pyspark, SQL
Inglés conversacional intermedio-
avanzado
(capaz de llevar sesiones en inglés)
Experiencia previa lidereando equipos
Habilidades para coordinar equipos
Negociación, proactividad, orientación a resultados, comprometido
Se requiere experiencia actualizada en ingeniería de datos y desarrollo de pipelines de datos complejos.
Experiencia en modelos ágiles.
Diseñar, desarrollar, implementar y optimizar sistemas y pipelines distribuidos a gran escala que procesan grandes volúmenes de datos, priorizando la escalabilidad, la baja latencia y la tolerancia a fallos en cada sistema.
Experiencia en la creación de trabajos de map-reduce.
Se requiere experiencia en la creación de consultas complejas y altamente optimizadas en grandes conjuntos de datos.
Deseable:
GitHub.
Experiencia con tecnologías en la nube (GCP, Azure) S
Experiencia en retail