Buscamos un perfil híbrido capaz de conectar sistemas legacy (etl/mainframe) con arquitecturas modernas de lakehouse en gcp, bajo estándares de la industria bancaria y marcos dama.
responsabilidades clave
modernización de datos: diseñar arquitecturas medallion (bronze/silver/gold) y lakehouse en gcp.
ingeniería híbrida: desarrollar procesos etl/elt con python, shell script, juniper y orquestación en airflow (cloud composer).
estrategia ssot: implementar master data (customer 360), deduplicación y resolución de entidades.
dataops & seguridad: garantizar el ciclo de vida con terraform (iac), ci/cd y cumplimiento de seguridad bancaria (iam, kms, auditoría).
stack técnico requerido
ecosistema gcp: bigquery, cloud storage, dataflow, pub/sub, cloud run/functions.
etl & orquestación: python, juniper, control-m y cdc (change data capture).
data as code: versionado con liquibase/flyway e integración con github/jenkins.
gobernanza: dataplex/data catalog y marcos de referencia dama dmbook.
streaming: conocimiento en event sourcing, kafka o flink.
seguridad & calidad: sonar, nexus iq, tanium y esquemas de data apis.
requisitos mandatorios
experiencia bancaria: conocimiento en riesgo, compliance y seguridad.
inglés avanzado: fluidez para colaborar con equipos globales.
mentalidad ia: capacidad para implementar soluciones que impulsen modelos de ml/ia.