Los líderes deben integrar la ciberseguridad en cada etapa de la adopción de la inteligencia artificial (IA) para proteger datos confidenciales, garantizar la resiliencia y permitir la innovación responsable.
Un enfoque de riesgo-recompensa alinea la adopción de IA con los objetivos organizacionales al identificar vulnerabilidades, mitigar riesgos y reforzar la confianza de las partes interesadas.
La colaboración de múltiples partes interesadas, entre ellas expertos en IA, reguladores y formuladores de políticas, es esencial para abordar las vulnerabilidades impulsadas por la IA y generar confianza en las tecnologías de IA.

En un mundo digital, el uso de sistemas de inteligencia artificial (IA) se ha convertido en una piedra angular de la innovación organizacional y la eficiencia operativa. Sin embargo, a medida que los líderes impulsan la transformación, la ciberseguridad debe seguir siendo primordial.

Los sistemas de IA no son inmunes a las vulnerabilidades, incluidos los ataques adversarios, el envenenamiento de datos y la piratería de algoritmos sensibles. Los líderes deben reconocer que la integración de la IA aumenta la superficie de ataque de su organización, lo que hace que las medidas de ciberseguridad sólidas sean innegociables.

En 2024, el Centro de Ciberseguridad del Foro Económico Mundial se unió al Centro de Capacidad de Ciberseguridad Global de la Universidad de Oxford en la iniciativa IA y cibernética: equilibrio de riesgos y recompensas para orientar las estrategias y la toma de decisiones de los líderes mundiales sobre los riesgos y oportunidades cibernéticos con respecto a la adopción de IA.

La investigación culminó en el informe técnico «Industries in the Intelligent Age – Artificial Intelligence & Cybersecurity: Balancing Risks and Rewards» (Industrias en la era inteligente: inteligencia artificial y ciberseguridad. Cómo equilibrar los riesgos y las recompensas), publicado en enero de 2025. Este informe es una guía para gestionar los riesgos cibernéticos de la adopción de la IA. Permite a los líderes invertir e innovar en IA teniendo en cuenta la seguridad y la resiliencia para aprovechar las oportunidades de crecimiento emergentes.

Para liberar todo el potencial de la IA es esencial desarrollar una comprensión integral de los riesgos cibernéticos relacionados y las medidas de mitigación necesarias.

 

La necesidad crítica de la ciberseguridad

El informe Global Cybersecurity Outlook 2025 revela que el 66% de las organizaciones esperan que la IA tenga un impacto significativo en la ciberseguridad el próximo año. Sin embargo, solo el 37% cuenta con procesos para evaluar la seguridad de los sistemas de IA antes de su implementación.
Esta brecha resalta el riesgo de que las organizaciones adopten sistemas de IA sin evaluar y abordar completamente los riesgos de ciberseguridad relacionados, exponiendo potencialmente vulnerabilidades en sus entornos.

Dejar que los sistemas de IA sean vulnerables a filtraciones de datos, manipulación de algoritmos u otras actividades hostiles podría provocar daños operativos y de reputación importantes. Al evaluar y mitigar los riesgos cibernéticos, los líderes pueden alinear la adopción de la IA con los objetivos organizacionales y las necesidades de resiliencia.

Además, los datos que alimentan los modelos de IA suelen ser confidenciales o sensibles, y su vulneración podría suponer pérdidas financieras o sanciones y afectar negativamente a la organización. Desde garantizar la seguridad de los canales de datos hasta implementar controles de acceso estrictos, la ciberseguridad debería estar integrada en cada etapa del ciclo de vida de la IA.

Una guía clara para abordar estos riesgos es esencial para tomar decisiones informadas y garantizar que las opciones estratégicas sean seguras y cumplan con las normativas . Esto también refuerza la confianza entre las partes interesadas, lo que permite un crecimiento sostenible y responsable impulsado por la IA.
Los líderes deben promover una cultura en la que la ciberseguridad no se considere una barrera para la innovación, sino un pilar fundamental para el crecimiento sostenible. Los responsables de los riesgos también tienen un papel fundamental en la supervisión y el control de los riesgos cibernéticos relacionados con la IA y en su gestión proactiva.

Alinear estratégicamente las iniciativas de IA con un marco sólido de ciberseguridad también garantiza a las partes interesadas, desde los clientes hasta los inversores, el compromiso de la organización con la protección de los activos digitales.
Al priorizar estas consideraciones, los altos ejecutivos protegen sus empresas y las posicionan como actores confiables, resilientes y con visión de futuro.

Un enfoque basado en el riesgo

La adopción de un enfoque basado en el riesgo es fundamental para una adopción segura de la IA. Las organizaciones deben evaluar las posibles vulnerabilidades y riesgos que la IA podría presentar en vista de las oportunidades que ofrece, evaluar los posibles impactos negativos en el negocio e identificar los controles necesarios para mitigar estos riesgos.
Este enfoque garantiza que las iniciativas de IA se alineen con los objetivos comerciales generales de la organización y permanezcan dentro del alcance de su tolerancia al riesgo.

Integración de la ciberseguridad en toda la implementación de la IA
Todas las organizaciones deben abordar los riesgos cibernéticos relacionados con la IA, independientemente de dónde se encuentren en el proceso de adopción de la IA. Las empresas que ya utilizan la IA deben planificar sus implementaciones y aplicar soluciones de seguridad complementarias.

Otros escenarios pueden requerir un análisis de riesgo-beneficio para determinar si la implementación de la IA se alinea con los objetivos operativos y comerciales. Este enfoque promueve la seguridad desde el diseño, lo que garantiza que la adopción de la IA se alinee con la innovación y la resiliencia.

Adoptar una visión empresarial
Los sistemas de IA no existen de forma aislada. Las organizaciones deben considerar cómo los procesos de negocios y los flujos de datos en torno a los sistemas de IA pueden reducir el impacto de una falla de ciberseguridad.
Esto implica integrar controles en estructuras de gobernanza más amplias y procesos de gestión de riesgos empresariales.

Innovación colaborativa responsable
Para aprovechar los beneficios de la IA, las organizaciones deben adoptar un enfoque de múltiples partes interesadas para priorizar el análisis de riesgo-recompensa y la ciberseguridad. Esto garantiza la resiliencia, protege las inversiones y respalda la innovación responsable.

La colaboración entre expertos en inteligencia artificial y ciberseguridad, reguladores y responsables de políticas es fundamental para alinear herramientas, compartir las mejores prácticas y establecer la rendición de cuentas. Este enfoque conjunto puede abordar las vulnerabilidades impulsadas por la inteligencia artificial y, al mismo tiempo, fomentar la confianza y la innovación segura.

Artículo de Sadie Creese, Profesor de Ciberseguridad, Universidad de Oxford; y Akshay Joshi, Director del Centro de Ciberseguridad del Foro Económico Mundial.

Fuente: World Economic Forum (WEF).