Estas cifras reflejan una verdad que en ciberseguridad conocemos desde hace tiempo: la confianza es tan fuerte como el eslabón técnico más débil. Cuando se construyen sistemas de IA sin integrar protección de datos, controles de acceso, trazabilidad y auditoría desde el diseño, las organizaciones se exponen a fallas y vulnerabilidades que pueden afectar negativamente la confianza del público.
IA sin Ciberseguridad: una paradoja técnica
Además, el estudio de EY sobre “Prioridades de las Juntas Directivas 2025 en Colombia” muestra que la innovación y las tecnologías emergentes ocupan la prioridad número 2 para las juntas este año, mientras que la ciberseguridad y la privacidad de datos están en la posición número 8. Aún más preocupante es que el 95% de las juntas prioriza el uso de IA para capturar oportunidades de mercado y mejorar la eficiencia interna, por encima de la mitigación de riesgos.
Desde una perspectiva técnica, esta desconexión es crítica. Cada nuevo modelo de IA amplía la superficie de ataque: APIs expuestas, datos sensibles mal gobernados, integraciones débiles y una presión constante por conectar estos sistemas a entornos híbridos o multicloud. ¿Qué tan preparados están estos entornos para resistir una amenaza dirigida o una fuga de datos?
Diseñar IA segura desde el núcleo
La GenAI y los agentes de IA que interactúan con múltiples aplicaciones incrementan exponencialmente la complejidad y el riesgo. La seguridad no puede añadirse al final; debe integrarse desde el entrenamiento, pasando por la validación de datos, los controles de acceso, la gestión de identidades y el monitoreo post-despliegue. Cada etapa del ciclo de vida de la IA debe contar con un mapa de riesgos, mecanismos de defensa activa y capacidad de respuesta ante incidentes.
Supervisión débil, riesgo alto
El estudio “Prioridades de las Juntas Directivas 2025 en Colombia” señala que:
- El 53% de las juntas considera que dedica poco tiempo a la ciberseguridad.
- El 38% dice recibir menos información de la necesaria.
- Solo el 13% cree que el CISO ganará protagonismo este año en las reuniones de las juntas.
Esto deja claro que la supervisión aún no alcanza la madurez necesaria para anticipar vulnerabilidades ni acompañar el ritmo del despliegue tecnológico. Desde un enfoque técnico, esto se traduce en implementaciones inseguras, falta de monitoreo y mayor exposición a ataques avanzados.
IA segura o IA fallida: recomendaciones clave desde la ciberseguridad
Como profesionales en ciberseguridad, debemos ser enfáticos: la IA no es segura por defecto, ni responsable sin un diseño seguro. Cada avance tecnológico que no integre principios de seguridad es una oportunidad perdida… o una amenaza programada.
Para cerrar esta brecha crítica, proponemos cinco recomendaciones técnicas esenciales:
- Seguridad desde el diseño: integrar controles de seguridad desde la arquitectura inicial del modelo hasta su despliegue.
- Gobernanza técnica clara: definir responsabilidades sobre los riesgos de IA en los equipos de tecnología y seguridad.
- Controles específicos para IA: implementar mecanismos de autenticación, monitoreo y respuesta ajustados al comportamiento de modelos de IA.
- Validación continua de datos: asegurar la calidad, legalidad y trazabilidad de los datos utilizados en entrenamiento y operación.
- Simulación de escenarios adversos: realizar pruebas regulares de estrés y simulacros de ciberataques dirigidos a modelos de IA.
La transformación digital requiere velocidad, sí, pero no a costa de la seguridad. La IA puede transformar industrias, pero solo si está protegida por una base sólida de ciberseguridad. Sin confianza, no hay innovación sostenible.