Cybersecurity AI Engineer
Kavak
Contexto
Estamos en una etapa donde los productos de IA empiezan a integrarse directamente en nuestros sistemas y procesos, lo que implica nuevos desafíos de seguridad: protección de datos, control de acceso a modelos, robustez frente a nuevos ataques y cumplimiento regulatorio.
Para sostener este crecimiento de forma segura, necesitamos incorporar un perfil que combine skills de desarrollo sólido con una mentalidad de seguridad aplicada a IA. Un ingeniero/a que escriba código seguro, entienda cómo funcionan los pipelines de IA/ML y pueda anticipar vulnerabilidades desde la arquitectura y el diseño.
Este rol va a trabajar junto a los equipos de desarrollo, IA y seguridad para asegurar que cada modelo, API y componente de software cumpla con buenas prácticas de seguridad desde el inicio.
En KAVAK buscamos un ingeniero/a de desarrollo con foco en seguridad e IA que:
- Diseñe y desarrolle software seguro alrededor de modelos de IA/ML (APIs, microservicios, pipelines).
- Implemente controles de seguridad en código y arquitectura (auth, cifrado, logging, MLOps seguro).
- Identifique y mitigue riesgos específicos de IA (data poisoning, extracción de modelos).
- Colabore con Core AI y seguridad para integrar “security by design” en los productos.
Perfil ideal: alguien con experiencia real en desarrollo (Python, Java, etc.), buenas prácticas de seguridad, y que entienda cómo proteger pipelines y modelos de IA en entornos cloud.
Alcance y responsabilidades
El rol combina desarrollo de software con arquitectura y seguridad aplicada a entornos de IA. La persona que se sume tendrá un enfoque práctico, construyendo componentes y asegurando la madurez técnica de los sistemas de IA desde el diseño hasta la operación. Su trabajo impactará directamente en cómo se desarrollan, despliegan y protegen los modelos y pipelines dentro de la compañía.
- Diseñar y desarrollar componentes seguros para IA (APIs, pipelines, módulos de inferencia).
- Implementar controles de seguridad en el código: autenticación, autorización, cifrado, gestión de claves y logging.
- Revisar y fortalecer la arquitectura técnica de los sistemas de IA.
- Detectar y mitigar vulnerabilidades específicas de IA (model poisoning, adversarial inputs, data leakage).
- Integrar prácticas de DevSecOps/MLOps para automatizar validaciones de seguridad.
- Alinear los desarrollos con los lineamientos del área de Ciberseguridad y cumplimiento normativo.
- Capacitar a equipos de IA y desarrollo en buenas prácticas de coding seguro y protección de datos en modelos.
Perfil Buscado
Buscamos un perfil técnico con fuerte base en desarrollo y una visión clara de seguridad aplicada al software. Alguien que pueda moverse cómodamente entre código, arquitectura e infraestructura, con la capacidad de detectar riesgos y proponer soluciones seguras sin frenar el delivery.
- Experiencia sólida en desarrollo de software (Python, Java, Go o similar).
- Conocimiento de seguridad de aplicaciones, API security, control de accesos, cifrado y logging.
- Experiencia o entendimiento del ciclo de vida de IA/ML (entrenamiento, inferencia, pipelines).
- Conocimiento de riesgos y amenazas en entornos IA.
- Deseable: experiencia con cloud (AWS/GCP/Azure), contenedores (Docker/Kubernetes)
Impacto Esperado
Este rol va a ser clave para consolidar el uso seguro de IA. Su aporte permitirá acelerar el desarrollo de soluciones con IA sin comprometer la seguridad ni la integridad de los datos.
- Reducir incidentes derivados de vulnerabilidades en código o modelos de IA.
- Asegurar el cumplimiento de políticas de seguridad en todo el ciclo de IA.
- Estandarizar prácticas seguras para desarrollos con IA en toda la organización.
- Disminuir la fricción entre IA y Seguridad, logrando integraciones seguras sin frenar la innovación.
Servir como puente técnico entre Ingeniería, Seguridad y Ciencia de Datos.
Esquema de trabajo: si vivis en Buenos Aires, 1 vez por semana en nuestras oficinas.