Senior Data Engineer
Kavak
Contexto del rol
Los equipos de E-commerce y MarTech de Kavak están creando una plataforma de datos y ML para impulsar recomendaciones en tiempo real, atribución y activación multicanal entre otras capacidades core y de alcance global.
Resumen del rol
Buscamos una persona con experiencia en Data Engineering con amplia trayectoria, capaz de construir pipelines confiables y, a la vez, la infraestructura necesaria para poner modelos en producción. Será la persona responsable de nuestro “Unified Data Platform” de dominio, que alimentará cada componente de nuestro stack de MarTech (identidad, consentimiento, CDP, feature store, atribución, notificaciones-API, etc.).
Esta es una posición híbrida, con la componente presencial en nuestras oficinas de Buenos Aires.
Responsabilidades
- Diseñar y construir pipelines de datos — batch y streaming (Kinesis/Kafka ➜ S3/Iceberg/Snowflake/BigQuery) con dbt/Spark/Flink; aplicar contratos de datos, SLAs y trazabilidad.
- Implementar el pegamento de la plataforma ML — feature store, experiment tracking (MLflow/SageMaker) y CI/CD para servicios de entrenamiento e inferencia (FastAPI/K8s/Lambda).
- Gestionar capas de identidad y consentimiento — vinculación dispositivo-persona vía identity-graph, manejo de preferencias y cumplimiento GDPR/LGPD incorporado en los pipelines.
- Instrumentar observabilidad y FinOps — métricas, logs, alertas de drift y tableros de costos en tiempo real para marketing.
- Acompañar (tanto a ingenieros de Kavak como a partners) y codificar buenas prácticas — pair programming con DS, MLEs y campaign engineers; convertirlas en templates, módulos de Terraform y runbooks.
Requisitos:
- 6 + años diseñando plataformas de datos de gran escala en la nube (preferentemente AWS).
- Experiencia probada en arquitecturas orientadas a eventos (Kafka/Kinesis/PubSub) y CDC.
- Dominio de SQL y de al menos un framework big-data de JVM o Python (Spark/Flink/Beam).
- Uso en producción de dbt (o capa ELT equivalente) y formatos lake-house modernos (Iceberg/Delta/Hudi).
- Manejo de componentes de plataforma ML: feature stores, MLflow/Kubeflow/SageMaker Pipelines, patrones de model-as-a-service.
- Experto/a en Infrastructure-as-Code y CI/CD (Terraform, GitLab CI/CD, Argo, etc.).
- Obsesión por la calidad y gobernanza del dato — contratos, linaje, enmascaramiento PII, flags de consentimiento.
- Capacidad para colaborar con PMs, data scientists, marketers y SREs en entornos de experimentación continua.
- Inglés técnico para leer papers y documentar; español fluido para colaborar con equipos regionales.
Requisitos deseables
- Experiencia en MarTech / AdTech: CDPs, segmentación en tiempo real, modelos de atribución, LTV forecasting.
- Familiaridad con Amplitude, Segment, Insider, Braze o similares.
- Conocimientos en sistemas de recomendación, bases vectoriales o APIs de personalización.
- Haber construido sistemas de atribución marketing o incrementalidad causal.
- Contribuciones open-source en ML / Data / Search.
- Conocimientos de Machine Learning, manejo de LLMs y puesta en producción de sistemas de AI multi-agente
- Fluidez en español e inglés.