Seguridad en IA 2025: Riesgos y recomendaciones

La inteligencia artificial (IA) se ha consolidado como una de las tecnologías más transformadoras del siglo XXI, impulsando innovaciones y redefiniendo múltiples sectores. Sin embargo, este avance vertiginoso también ha ampliado las áreas expuestas a ciberataques, introduciendo nuevos desafíos en materia de seguridad.
Conscientes de esta realidad, Cisco ha presentado su primer informe sobre el Estado de la Seguridad en IA 2025, que ofrece una visión detallada de los desarrollos recientes, tendencias emergentes y recomendaciones clave para fortalecer la seguridad en el ámbito de la IA.
Nuevas amenazas en seguridad de IA
La rápida adopción de tecnologías basadas en IA ha generado una expansión significativa en las áreas expuestas a ciberataques. Los riesgos se presentan en diversas etapas del ciclo de vida del desarrollo de IA, desde ataques directos a los activos hasta vulnerabilidades en la cadena de suministro.
El informe destaca vectores de ataque específicos, como las manipulación de instrucciones en los modelos de IA, el alteración maliciosa de datos de entrenamiento y la extracción de información sensible. Además, se señala cómo los adversarios están utilizando la IA para mejorar operaciones digitales, especialmente en técnicas de ingeniería social.
Avances recientes en regulación de IA
En el último año hemos sido testigos de avances significativos en la regulación de la IA a nivel global. En Estados Unidos, la ausencia de una normativa federal ha llevado a un enfoque fragmentado, con más de 700 proyectos de ley relacionados con IA introducidos solo en 2024.
Internacionalmente, iniciativas como la colaboración entre el Reino Unido y Canadá en materia de seguridad en IA, y la entrada en vigor de la Ley de IA de la Unión Europea en agosto de 2024, establecen precedentes en la gobernanza global de la IA. Las acciones recientes en 2025 indican un esfuerzo por equilibrar la necesidad de seguridad en IA con la aceleración en innovación.
Nuevos hallazgos en seguridad de IA
El equipo de investigación en seguridad de IA de Cisco ha liderado estudios innovadores, incluyendo la demostración de cómo los adversarios pueden eludir la protección de modelos de lenguaje de gran tamaño sin supervisión humana, facilitando la filtración de datos sensibles y la interrupción de servicios de IA.
También se han explorado los riesgos asociados al ajuste de modelos, una práctica común para mejorar la precisión y relevancia contextual de la IA. Sin embargo, este proceso puede generar desajustes inesperados que afecten el rendimiento y la seguridad del sistema.
También se han analizado técnicas para manipular conjuntos de datos públicos y extraer información de los datos de entrenamiento, demostrando lo fácil y económico que puede ser para ciberdelincuentes comprometer aplicaciones empresariales de IA.
Recomendaciones para la seguridad en IA
Proteger los sistemas de IA exige un enfoque proactivo y completo. El informe proporciona recomendaciones prácticas, como la gestión de riesgos de seguridad en todas las etapas del ciclo de vida de la IA, la implementación de controles de acceso sólidos y la adopción de estándares de seguridad, incluyendo el Marco de Gestión de Riesgos de IA del NIST y la matriz MITRE ATLAS. Además, destaca cómo soluciones como Cisco AI Defense pueden ayudar a las empresas a aplicar estas mejores prácticas y mitigar riesgos desde el desarrollo hasta la implementación.
Descarga el informe completo y accede a información clave para fortalecer tu seguridad.
En IPDATA, te ayudamos a implementar estas medidas con soluciones avanzadas y el respaldo de Cisco.