Diseñar con visión integral y mejores prácticas una solución tecnológica compuesta por diferentes herramientas de una plataforma tecnológica asegurando que se cumpla de manera óptima los requerimientos del Cliente. Asegurar la calidad y la correcta implementación del diseño hasta la conclusión del proyecto.
Responsabilidades principal:
·Diseñe e implemente arquitecturas Data Lakehouse que cumplan con los requisitos comerciales y sean escalables, confiables y seguras.
·Reúna y documente los requisitos de gestión de datos maestros (MDM), colaborando con diversas partes interesadas del negocio para desarrollar patrones de arquitectura y estrategia de MDM.
·Analizar los requisitos del negocio, diseñar y desarrollar procesos de Ingestión de Datos altamente eficientes y altamente escalables.
·Diseñe y cree canalizaciones de datos modernas, incluidas asignaciones ETL, y esté bien versado en la redacción de consultas SQL complejas.
·Desarrollar y mantener modelos de datos, diccionarios de datos y diagramas de flujo de datos.
·Trabajo práctico con soluciones de virtualización, ajuste del rendimiento, optimización y escalado desde una perspectiva de almacenamiento/procesamiento.
·Mantenga los trabajos de procesamiento por lotes y responda a problemas críticos de producción. Comuníquese bien con las partes interesadas sobre las recomendaciones de sus propuestas.
·Realizar investigaciones centradas en identificar soluciones tecnológicas emergentes que reduzcan costos, aumenten la eficiencia, proporcionen más valor, proporcionen más capacidades, reduzcan riesgos y aumenten la seguridad.
·Implementar y mantener controles de seguridad y acceso a los datos.
·Apoye al arquitecto líder de datos contribuyendo con mejoras a la estrategia de arquitectura de datos, desarrollando mejores prácticas, plantillas y procesos.
·Trabaje en colaboración con arquitectos de soluciones, desarrolladores, evaluadores y otros miembros del equipo de análisis de datos para comprender las limitaciones y oportunidades que pueden dar forma e influir en los resultados de la arquitectura de datos.
Experiencia:
·Licenciatura en informática, ingeniería informática, ingeniería eléctrica, análisis de sistemas o un campo de estudio relacionado, o experiencia laboral equivalente.
·Experiencia significativa en arquitectura de datos, con un profundo conocimiento de los modelos, estándares y herramientas de datos utilizados en arquitectura e ingeniería.
·Al menos 3 años de experiencia en diseño e implementación de arquitecturas Data Lake/Lakehouse en GCP o Azure, es deseable experiencia práctica con Dataproc/Databricks.
·Experiencia con metodologías ágiles.
Habilidades y Atributos:
Fluidez del idioma: Debe poseer 100% de fluidez en inglés.
·Necesarios:
oSoft Skills:
§Autodidacta.
§Trabajar en equipo.
§Actitud de servicio.
§Comunicación efectiva.
§Alto sentido de responsabilidad y compromiso.
§Habilidades de pensamiento crítico, analítico y deductivo.
§Proactividad y Resiliencia.
§Proponer soluciones siguiendo buenas prácticas.
§Capacidad de liderazgo, gestión de equipos.
§Autogestión.
oTécnicos:
§Lenguaje de programación (Python o Java)
§Nociones de patrones de diseño
§Experiencia con flujos ETL
§API REST / SOAP (Creación)
§Capacidad de diagnosticar fallas
§Experiencia con metodología Agile/SCRUM
§Git
§Shell
§Modelado de datos (DWH, Consumo)
·Deseables:
oTécnicos:
§Tunning, mejoramiento y optimización de plataformas y código
§DevOps (Jenkins, Concord, GitHub)
§Lenguaje de programación (R, Scala, Javascript, etc.)
§GCP (Big Query, Dataproc, Storage)
§Azure (Databricks, Datalake Storage)
§Prácticas de aseguramiento de la calidad (QA)
§Unit Testing
§Airflow
§PL/SQL
§Hadoop
§HIVE
§SPARK
§Kafka