Vacante: gerente especialista de migración – nuevo core bancario (datos | etl/elt | cutover)
área: ti / datos / migración core (crédito–tarjetas)
idioma: inglés avanzado (indispensable)
objetivo del puesto
asegurar la migración de datos desde sistemas legados hacia el nuevo core de crédito sin pérdidas ni inconsistencias. Planificar ventanas de corte, ejecutar y garantizar cargas etl/elt con trazabilidad completa y validar conciliaciones t+1 post-cutover. Coordinar dependencias con arquitectura, datos, integración y operaciones para entregar un tránsito controlado, auditable y sin regresiones.
responsabilidad financiera (impacto): evita pérdidas por saldos incorrectos, comisiones/tasas mal migradas o estados erróneos; reduce riesgo de ajustes masivos, reclamos y eventos operativos; protege cierres y cumplimiento mediante evidencia audit-ready.
requisitos (indispensables)
* experiencia ejecutando migraciones de datos en banca/finanzas (crédito/tarjetas) con procesos etl/elt y validación de integridad/referencialidad.
* experiencia conciliando saldos y ejecutando validaciones t+1 post-cutover.
* práctica automatizando pruebas/validaciones y monitoreando performance de cargas en ventanas controladas.
* experiencia gestionando ventanas de cutover, freezes y ejecución de rollback.
* fundamentos de seguridad de datos (enmascaramiento/anonimización) y trazabilidad end-to-end.
* experiencia: 5–8+ años en operación batch/facturación/datos, con participación en cierres y cutovers de alta complejidad.
* inglés avanzado (indispensable).
conocimientos obligatorios (filtros técnicos)
* sql avanzado (joins complejos, ventanas, optimización, reconciliaciones).
* procesos etl/elt (diseño, ejecución, control de errores, reintentos).
* control de versiones (git u equivalente) para scripts y parametrías.
* validaciones, reconciliaciones y control de calidad (integridad, referencialidad, totales).
responsabilidades clave:
1) inventario de fuentes y mapeo a core
* inventariar fuentes (legados, satélites, repositorios) y mapear campos/reglas de transformación hacia el nuevo core.
* definir diccionarios de datos, reglas de negocio, llaves y dependencias entre entidades.
2) diseño y ejecución de etl/elt (cargas iniciales e incrementales)
* diseñar plantillas de extracción y parametrizar procesos etl/elt para cargas iniciales, incrementales y/o delta.
* asegurar control de versiones de scripts/parametrías y consistencia entre ambientes.
3) calidad de datos (depuración y estandarización)
* preparar datasets y aplicar estrategias de depuración, de-duplicación y estandarización.
* definir controles de calidad, umbrales y reglas de rechazo/aceptación.
4) gestión de ambientes y volúmenes
* configurar ambientes de migración y gestionar volúmenes, particiones, llaves y dependencias entre entidades.
* coordinar data freeze/code freeze cuando aplique para estabilidad del cutover.
5) pruebas de migración y validaciones automatizadas
* ejecutar pruebas de migración técnicas y funcionales; automatizar validaciones de integridad y referencialidad.
* diseñar pruebas negativas y de estrés para escenarios críticos.
6) performance y monitoreo de cargas
* monitorear tiempos de carga y ajustar performance (lotes, paralelismo, particiones, índices).
* identificar cuellos de botella y ejecutar planes de mejora hasta cumplir ventanas.
7) reconciliaciones y conciliaciones t+1
* validar totales, saldos, tasas, comisiones y estados contra legados; reconciliar diferencias y corregir desviaciones.
* ejecutar conciliaciones t+1 post-cutover y asegurar criterios de estabilidad.
8) evidencias y trazabilidad (audit-ready)
* documentar evidencias, bitácoras y matrices de trazabilidad; mantener expediente por corrida (inputs, outputs, validación, resultados).
* asegurar repetibilidad y trazabilidad extremo a extremo por entidad y por corrida.
9) dress-rehearsals y planeación de cutover
* planificar dress-rehearsals, simular escenarios de pico, definir checklists y puntos de control.
* coordinar ventanas de cutover con operaciones/integración y alinear dependencias.
10) go/no-go y rollback
* definir criterios de go/no-go con base en resultados de validación y reconciliación.
* aplicar plan de rollback cuando aplique y verificar recuperación ordenada.
conocimientos y herramientas deseables (plus)
* herramientas etl/orquestación: informatica, talend, datastage, airflow (u otras equivalentes).
* performance tuning (índices, particiones, paralelismo, estrategia de lotes).
* observabilidad: grafana / prometheus / elk (elastic) u otras.
* servicenow/jira para seguimiento operativo.
* fundamentos pci/iso 27001 aplicados a datos (retención, accesos, evidencia).
competencias clave (lo que evaluaremos)
* rigor y obsesión por integridad de datos (cero tolerancia a pérdidas/inconsistencias).
* disciplina "cutover-ready": checklists, controles, evidencia y repetibilidad.
* capacidad de coordinación multi-equipo (arquitectura, integración, operaciones, negocio).
* priorización bajo presión y control de riesgos (go/no-go basado en datos).
* comunicación clara de hallazgos, impactos y planes de corrección.
tipo de puesto: tiempo completo
sueldo: $80, $85,000.00 al mes
lugar de trabajo: empleo presencial