Tecnológicas
DigitalES advierte sobre los riesgos de una adopción acelerada de IA en empresas
El texto se ha copiado correctamente en el portapapeles
DigitalES, la patronal que agrupa a los principales operadores de telecomunicaciones en España, ha advertido sobre los riesgos de una adopción acelerada de la Inteligencia Artificial (IA) por parte de las empresas, y ha propuesto un marco para una implementación segura y ética de esta tecnología.
La asociación ha publicado el informe 'Inteligencia Artificial y ciberseguridad: recomendaciones para una implementación segura en las empresas”, en el que destaca la urgencia de integrar ciberseguridad y ética en la IA, ante el crecimiento de la adopción empresarial y el aumento de ciberataques dirigidos a modelos de IA.
El informe de la patronal nace en un contexto de crecimiento sin precedentes de la IA en el tejido empresarial. El 77% de las empresas a nivel global ya utiliza o explora la integración de IA en sus operaciones.
En España, el número de compañías que aplican estas tecnologías se duplicó entre 2022 y 2024, lo que refleja la madurez digital del país, pero también su mayor exposición a amenazas.
Este avance va acompañado de un aumento de ciberataques dirigidos a modelos de IA (cinco veces más que en 2023, según el Informe de Amenazas de Ciberseguridad 2025 de Check Point), aprovechando vulnerabilidades como el prompt injection o el data poisoning. A ello se suma el impacto económico: el coste medio de una brecha de seguridad en IA alcanzó los 4,5 millones de euros en 2025, un 15% más que el año anterior (Cost of a Data Breach Report 2025, IBM Security).
Según DigitalES, el panorama es especialmente preocupante en España, donde casi el 80% de las empresas reconoce haber sufrido incidentes relacionados con IA y solo el 27% de las pymes españolas dispone de una estrategia de ciberseguridad plenamente implementada.
IA GENERATIVA
“La inteligencia artificial es una palanca de innovación, pero sin ciberseguridad se convierte en un riesgo estratégico”, explica Miguel Sánchez Galindo, director general de DigitalES. “Este informe ofrece una guía práctica para que las empresas, especialmente las pymes, adopten la IA de manera segura, cumpliendo con la normativa y protegiendo sus activos más críticos: los datos y la confianza de sus clientes”.
El trabajo subraya la necesidad de incorporar la ciberseguridad desde el diseño —el llamado 'security by design'— en todas las fases del ciclo de vida de la IA, desde la recolección y tratamiento de datos hasta el despliegue y uso de los modelos.
Entre las principales recomendaciones de este informe, se destaca la importancia de implementar un marco de gobernanza robusto que incluya la anonimización y cifrado de datos, el uso de técnicas como 'differential privacy' para evitar sesgos, y la adopción de estándares internacionales como ISO/IEC 42001 para la gestión de sistemas de IA. Además, se insiste en la necesidad de realizar auditorías periódicas y pruebas de robustez, así como en la formación de los equipos en riesgos específicos asociados a la IA.
El informe también ofrece un análisis de casos de uso sectoriales, como el retail, donde la protección de datos de clientes en chatbots es crítica para cumplir con estándares como PCI DSS; o el sector salud, donde la anonimización de historiales médicos y el cumplimiento del RGPD son prioritarios. En el ámbito de gran empresa, los autores recomiendan la segmentación de accesos para evitar fraudes internos, como la suplantación de identidad, y la implementación de planes de respuesta a incidentes que permitan contener ataques como la inyección de prompts o el robo de modelos.
El estudio también analiza el auge de la IA generativa y de los grandes modelos de lenguaje (LLMs), que democratizan el acceso a la tecnología, pero al mismo tiempo amplían la superficie de ataque. El equilibrio entre transparencia —entendida como trazabilidad y explicabilidad de los modelos—, seguridad y estabilidad —es decir, confiabilidad y comportamiento consistente— se considera esencial para una implantación responsable.
“Proponemos una visión holística que une cumplimiento normativo, medidas técnicas avanzadas y cultura organizacional”, señala Beatriz Arias, directora de Transformación Digital de la asociación. “En un contexto donde el 82% de los ataques se dirigen a modelos de lenguaje*, la prevención no es opcional” resalta Arias.
“El futuro de la inteligencia artificial no depende solo de su capacidad de innovar, sino de la confianza que inspire”, concluye Sánchez Galindo. “Una IA segura es también una IA sostenible, capaz de generar progreso económico, proteger los derechos de las personas y reforzar la resiliencia digital de España y Europa”.
Este informe ha sido elaborado por el Grupo de Trabajo Ciberseguridad e IA de DigitalES, liderado por NTT DATA, y en él han participado como autores expertos de American Tower, ARPA Abogados Consultores, EY, IBM, Nokia y Quobis, además de NTT DATA.
(SERVIMEDIA)
12 Dic 2025
JRN/gja


