* desarrollar y mantener procesos de ingesta, transformación y modelado de datos.
* implementar modelos de datos en capas bronze, silver y gold dentro del ecosistema de datos.
* crear y optimizar consultas sql, así como colaborar en el modelado lógico y físico de bases de datos.
* participar en la construcción y mantenimiento de pipelines de datos y flujos de orquestación.
* colaborar en la implementación y mantenimiento de soluciones en arquitecturas datalake, data warehouse y lakehouse.
* trabajar con contenedores mediante docker, incluyendo instalación local y ejecución de imágenes desde repositorios públicos.
* apoyar en tareas dentro de entornos cloud native, principalmente aws.
* contribuir al versionamiento de código usando github y a flujos de trabajo de ci/cd.
* colaborar en proyectos gestionados en azure devops, incluyendo azure boards.
* aplicar metodologías scrum, kanban o cascada según el proyecto.
requisitos
* experiencia o conocimientos en python o scala.
* manejo de bases de datos sql: consultas, modelado lógico y físico.
* conocimientos de modelado de datos en capas bronze–silver–gold.
* nociones sobre arquitecturas datalake, data warehouse y lakehouse.
* experiencia básica en flujos de orquestación.
* conocimiento de entornos cloud native.
* uso de docker para levantar contenedores locales.
* conocimientos básicos de aws.
* familiaridad con prácticas devops y ci/cd.
* conocimiento de github para versionamiento de código.
* conocimiento de azure devops (azure boards).