* desarrollar y mantener procesos de ingesta, transformación y modelado de datos.
* implementar modelos de datos en capas bronze, silver y gold dentro del ecosistema de datos.
* crear y optimizar consultas sql, así como colaborar en el modelado lógico y físico de bases de datos.
* participar en la construcción y mantenimiento de pipelines de datos y flujos de orquestación.
* colaborar en la implementación y mantenimiento de soluciones en arquitecturas datalake, data warehouse y lakehouse .
* trabajar con contenedores mediante docker, incluyendo instalación local y ejecución de imágenes desde repositorios públicos.
* apoyar en tareas dentro de entornos cloud native, principalmente aws .
* contribuir al versionamiento de código usando github y a flujos de trabajo de ci/cd.
* colaborar en proyectos gestionados en azure devops, incluyendo azure boards.
* aplicar metodologías scrum, kanban o cascada según el proyecto.
requisitos:
o experiencia o conocimientos en python o scala .
o manejo de bases de datos sql : consultas, modelado lógico y físico.
o conocimientos de modelado de datos en capas bronze–silver–gold .
o nociones sobre arquitecturas datalake, data warehouse y lakehouse .
o experiencia básica en flujos de orquestación .
o conocimiento de entornos cloud native .
o uso de docker para levantar contenedores locales.
o conocimientos básicos de aws .
o familiaridad con prácticas devops y ci/cd .
o conocimiento de github para versionamiento de código.
o conocimiento de azure devops (azure boards).