*zurich, aseguradora líder a nível internacional te invita a ser parte de su equipo*:
*ingeniero de datos / arquitectura de datos.*
*formación*:ingeniería mecatrónica, matemáticas aplicadas, ingeniería de software, ciencias de la computación o un campo relacionado.
*certificaciones*: deseable, ertificaciones relevantes de microsoft azure (por ejemplo, microsoft certified: azure data engineer associate).
*inglés: avanzado*
*experiência laboral*:
- más de 2 años de experiência en roles relacionados con ingeniería de datos y big data.
- historial de trabajo en proyectos de implementación y optimización de soluciones de datos a gran escala.
- experiência en arquitecturas distribuidas y en entornos cloud, con un enfoque particular en azure.
- responsable de proyecto interdisciplinarios y multidisciplinarios para la creación de productos de datos.
*competencias específicas*:
- diseño e implementación de arquitecturas distribuidas para sistemas de big data.
- diseñar todos los aspectos de una base de datos, incluyendo su estructura y estándares.
- evaluar las fuentes de datos de la empresa y diseñar un plan para integrarlas, centralizarlas, protegerlas y mantenerlas
- crear modelos de datos que determinen las necesidades y objetivos de la organización.
- selección y optimización de soluciones de almacenamiento big data en entornos azure.
- construcción y administración de almacenes de datos utilizando azure synapse analytics.
- desarrollo e implementación de arquitecturas de data lake house.
- dominio avanzado en el uso de apache spark y delta lake para el procesamiento de datos y garantizar la consistencia transaccional.
*procesos etl (extract, transform, load)*:
- experiência diseñando, implementando y optimizando procesos etl en entornos azure utilizando azure data factory.
- *gestión de base de datos (sql)*:
- amplia experiência en el diseño y administración de bases de datos relacionales utilizando sql en azure, incluyendo azure sql database.
- *devops (ci/cd)*:
- implementación exitosa de prácticas de devops para la integración continua (ci) y despliegue continuo (cd) en el contexto de soluciones de big data, utilizando azure devops.
*actividades principales*:
- diseño de arquitecturas distribuidas:
- liderar el diseño y la implementación de arquitecturas distribuidas que aprovechen las capacidades de escalabilidad y rendimiento de los servicios en la nube de azure.
- optimización de almacenamientos big data:
- realizar la selección y optimización de soluciones de almacenamiento big data para garantizar la eficiencia y rentabilidad.
- desarrollo de almacenes de datos:
- liderar la construcción y administración de almacenes de datos, utilizando tecnologías como azure synapse analytics para facilitar la consulta y análisis de datos.
- implementación de data lake house:
- desarrollar e implementar arquitecturas de data lake house para facilitar el análisis integrado de datos estructurados y no estructurados.
- desarrollo con delta lake y apache spark:
- dirigir el desarrollo y la implementación de soluciones utilizando apache spark y delta lake para garantizar la coherencia y la calidad de los datos.
*herramientas y sistemas*:
- azure services:
- experiência sólida en el uso de servicios de azure, incluyendo pero no limitado a:
- azure databricks: para el procesamiento y análisis de grandes volúmenes de datos utilizando apache spark.
- azure data factory: para la orquestación y automatización de flujos de datos y pipelines.
- azure synapse analytics: para el almacenamiento y análisis de datos a gran escala.
- azure machine learning: para la integración de capacidades de machine learning en pipelines de datos.
- *lenguajes de programación*:
- dominio de lenguajes como:
- python: para el desarrollo de scripts y aplicaciones en el contexto de big data.
- scala o java: utilizados en el contexto de apache spark y otros frameworks de big data.
- *frameworks*:
- experiência con frameworks de big data como:
- apache spark: para el procesamiento de datos a gran escala y análisis.
- hadoop: para el almacenamiento distribuido y procesamiento de datos.
- *bases de datos*:
- experiência práctica con bases de datos distribuidas, sql y nosql, incluyendo pero no limitado a:
- azure sql database: para bases de datos relacionales en entornos cloud.
- cosmos db: para bases de datos nosql globalmente distribuidas.
- *herramientas de integración y despliegue*:
- conocimiento profundo en herramientas de integración continua y despliegue continuo (ci/cd) para pipelines de datos, incluyendo, pero no limitado a:
- azure devops: para la automatización de pruebas y despliegues.
*ofertamos*:
- atractivo esquema de compensación.
- prestaciones superiores a ley.
- zona de empleo: toreo de cuatro caminos
*por qué elegir zurich*
en zurich, nos gusta pensar con originalidad y desafiar el statu quo. Adoptam