Discapacidad
El Cermi advierte de que la IA utiliza datos "discriminatorios" que pueden "amplificar" la exclusión de las personas con discapacidad
VÍDEO: los clientes de Servimedia disponen de imágenes y sonido de estas declaraciones en el enlace https://servimedia.tv/TotalesInformeDiscapacIA
El texto se ha copiado correctamente en el portapapeles
El Comité Español de Representantes de Personas con Discapacidad (Cermi) advirtió este miércoles de que la inteligencia artificial (IA) utiliza datos y contextos sociales “sesgados y discriminatorios” que pueden terminar “amplificando desigualdades y exclusiones hacia las personas con discapacidad” si no existe supervisión humana, garantías jurídicas y control público efectivo.
Así lo indicó la presidenta de la Comisión de Transformación Digital e Inteligencia Artificial del Cermi, Pilar Villarino, durante un diálogo celebrado este miércoles en la agencia de noticias Servimedia junto al movimiento social de la discapacidad para presentar el ‘Informe DiscapacIA’, un estudio que analiza el impacto de la inteligencia artificial sobre los derechos de las personas con discapacidad en ámbitos como el empleo, la educación, la sanidad, los servicios sociales, el acceso financiero o la participación política.
Villarino alertó de que “la IA no es neutral” porque aprende de datos y contextos sociales que, “a veces, ya tienen discriminación” y que, posteriormente, los sistemas automatizados pueden “sistematizar, ocultar, proyectar o amplificar”.
A su juicio, este riesgo obliga a situar los derechos humanos en el centro del desarrollo tecnológico y de las políticas públicas vinculadas a la inteligencia artificial. “Lo importante son los derechos”, subrayó, antes de recordar que el Cermi ejerce como “mecanismo independiente de seguimiento” de la Convención Internacional sobre los Derechos de las Personas con Discapacidad de Naciones Unidas.
La presidenta de la Comisión de Transformación Digital e IA explicó que el informe está vinculado al Reglamento Europeo de Inteligencia Artificial y especialmente al impacto de los sistemas considerados “de riesgo más elevado” sobre los derechos fundamentales.
En este sentido, defendió que la Convención de la ONU sobre los Derechos de las Personas con Discapacidad debe actuar como “hilo conductor” para interpretar y evaluar la futura aplicación de la normativa europea sobre inteligencia artificial.
“La Convención obliga a las políticas públicas europeas, a las instituciones europeas y, por lo tanto, a la legislación europea”, afirmó Villarino, quien insistió en que el desarrollo tecnológico “no es incompatible” con la protección de derechos.
Según explicó, el estudio está dirigido a responsables de políticas públicas, autoridades de supervisión, operadores jurídicos, empresas desarrolladoras y proveedoras de sistemas de inteligencia artificial, organizaciones sociales de la discapacidad y ciudadanía en general.
El documento, financiado a través de la convocatoria de interés general del Ministerio de Derechos Sociales, Consumo y Agenda 2030, se integra además en la estrategia de inteligencia artificial impulsada por el Cermi, concretamente en el eje dedicado a incidencia estratégica y liderazgo social.
Villarino detalló que el informe se estructura en cinco partes y 21 capítulos, acompañados de anexos técnicos y un resumen ejecutivo. También avanzó que el Cermi desarrollará nuevos productos de comunicación y divulgación para facilitar su utilización práctica. “La tecnología es esencial, pero para que sea buena desde la pura dimensión tecnológica tiene que tener soporte legal y reconocimiento de derechos”, explicó.
RIESGO DE EXCLUSIÓN
Por su parte, el delegado del Cermi para los Derechos Humanos y la Convención de la ONU de la Discapacidad, Gregorio Saravia, sostuvo que la inteligencia artificial “ha llegado para quedarse” y defendió la necesidad de afrontar su expansión desde el conocimiento y no desde “el miedo o los prejuicios”.
Saravia alertó de que detrás de la industria de la inteligencia artificial “hay personas, decisiones y política”, por lo que rechazó que pueda convertirse en “un espacio de anarquía” en el que prevalezcan únicamente intereses económicos o empresariales. “No puede ser un espacio donde el más poderoso doblegue a los más débiles”, afirmó.
El representante del Cermi insistió en la importancia de analizar con qué datos se entrenan los sistemas automatizados y hasta qué punto reproducen sesgos ya existentes en la sociedad. “Si los datos sobre las personas con discapacidad no están presentes para que luego puedan funcionar los algoritmos, pueden multiplicarse las instancias de exclusión”, advirtió. A su juicio, el principal desafío consiste en garantizar que el despliegue de la inteligencia artificial incorpore ajustes razonables, accesibilidad y mecanismos de protección de derechos.
Saravia defendió asimismo la necesidad de “tender puentes” entre el movimiento social de la discapacidad y las instituciones encargadas de supervisar el desarrollo tecnológico. En este contexto, recordó que el Cermi ya trabaja conjuntamente con la Agencia Española de Protección de Datos y con la Agencia Española de Supervisión de la Inteligencia Artificial para identificar posibles incidencias y garantizar que la Convención Internacional sobre los Derechos de las Personas con Discapacidad se aplique también en el ámbito digital. “No se trata ni de demonizar ni de endiosar la inteligencia artificial”, señaló Saravia, quien defendió la necesidad de conjugar innovación tecnológica y estándares jurídicos vinculantes.
DIMENSIÓN TERRITORIAL
Durante el encuentro también intervino el presidente del Cermi Comunidad Valenciana, Luis Vañó, quien reclamó que la supervisión de la inteligencia artificial no se limite al plano estatal y tenga en cuenta la dimensión autonómica y territorial.
Vañó recordó que muchos sistemas automatizados que pueden afectar a personas con discapacidad se aplican precisamente en ámbitos gestionados por las comunidades autónomas, como servicios sociales, dependencia o valoración de discapacidad. “El impacto real no se produce en abstracto, sino sobre una persona concreta y en un procedimiento concreto”, afirmó.
A su juicio, una evaluación de impacto realizada sin participación de las organizaciones representativas de la discapacidad corre el riesgo de convertirse en una “autoevaluación formal” desconectada de la realidad social.
Por ello, defendió que cualquier sistema de inteligencia artificial utilizado por administraciones públicas debe cumplir no solo el Reglamento Europeo de Inteligencia Artificial, sino también “el estándar material de la Convención”.
Entre las condiciones que consideró imprescindibles, citó la accesibilidad de las explicaciones automatizadas, la evaluación previa de impacto sobre derechos fundamentales, la calidad y desagregación de los datos sobre discapacidad, la contratación pública responsable y la supervisión humana “significativa”.
OBSERVATORIO DE DISCRIMINACIÓN ALGORÍTMICA
Uno de los principales planteamientos del informe es la creación de un Observatorio Especializado en Discriminación Algorítmica por razón de discapacidad, concebido como un mecanismo permanente de vigilancia y prevención frente a posibles vulneraciones de derechos.
Según explicó Vañó, este organismo permitiría detectar de forma temprana los efectos discriminatorios derivados de sistemas automatizados antes de que sus consecuencias “se consoliden en trayectorias vitales difíciles de revertir”.
El dirigente del Cermi Comunidad Valenciana planteó que el observatorio cuente con un mapa actualizado y accesible de los sistemas de inteligencia artificial de riesgo elevado utilizados en España y que puedan afectar a personas con discapacidad.
Además, reclamó que funcione como espacio para recibir denuncias y sistematizar casos de discriminación algorítmica, así como para elaborar informes periódicos que permitan evaluar tendencias y riesgos reales. “Necesitamos datos y no depender solo de intuiciones o casos aislados”, señaló.
Finalmente, defendió que este observatorio se articule junto al mecanismo de seguimiento previsto en el artículo 33 de la Convención de la ONU, el Cermi estatal, los Cermis autonómicos y las organizaciones representativas de las personas con discapacidad, con el objetivo de “reforzar una supervisión preventiva, permanente y basada en derechos humanos”.
(SERVIMEDIA)
13 Mayo 2026
RIM/mjg
