Inteligencia artificial

CECU cree que el Reglamento de Inteligencia Artificial europeo "no protegerá adecuadamente” a los consumidores

MADRID
SERVIMEDIA

La Federación de Consumidores y Usuarios CECU consideró este lunes que el Reglamento de Inteligencia Artificial (IA) europeo "no protegerá adecuadamente” a los consumidores y juzgó “decepcionante” el resultado de las negociaciones sobre el texto final.

Así lo estimó en un comunicado en el que recordó algunos detalles del acuerdo provisional al que llegaron las instituciones de la UE, bajo la Presidencia española del Consejo de la Unión Europea, sobre la primera legislación del mundo sobre la inteligencia artificial e insistió en que el resultado es “decepcionante en tanto no se han abordado todos los riesgos que esta tecnología representa para los consumidores”.

Tras puntualizar que, si bien el texto final del Reglamento de IA no ha sido publicado y “aún quedan pendientes muchas reuniones técnicas”, dijo “entender” que tiene “algunos puntos positivos”, como la prohibición de la clasificación social, que, según su criterio, “resultaría demasiado degradante y discriminatoria” para los consumidores.

También, el “reconocimiento” de “ciertos derechos en su favor”, como la posibilidad de presentar reclamaciones ante autoridades públicas contra un sistema de IA o de “buscar reparación colectiva en caso de daño”.

Sin embargo, según su punto de vista, la ley presenta “varias lagunas y fallas” desde la perspectiva de protección del consumidor y, además, se seguirán permitiendo sistemas de inteligencia artificial que puedan “identificar y analizar” los sentimientos de los consumidores, lo cual ve “muy preocupante”, convencida de que son “muy invasivos y presentan muchas inexactitudes”.

MUCHOS SISTEMAS SIN REGULACIÓN

Junto a ello, advirtió de que el Reglamento de IA se “focaliza en gran medida” en los sistemas que se consideran de “alto riesgo”, dejando a “muchos” sistemas de IA “prácticamente sin regulación”, incluyendo los juguetes integrados con IA o los asistentes virtuales.

En paralelo, lamentó que los modelos de IA que se encuentran detrás de sistemas como ChatGPT, que pueden integrarse en una “amplia” gama de servicios, “no estarán adecuadamente regulados”. “Por ejemplo, no se exigirá que dichos modelos sean auditados por terceros independientes ni estarán sujetos a requisitos de transparencia suficientes como para permitir el escrutinio público”, sentenció.

Asimismo, criticó que otros “reclamos” de la sociedad civil “no han sido totalmente atendidos” y aseveró que se han introducido “excepciones” para permitir el reconocimiento biométrico en espacios de acceso público, “en contra de la prohibición total que habían recomendado los europarlamentarios el pasado verano”.

“Esto ha sido denunciado por varias organizaciones de la sociedad civil, porque este tipo de tecnología podría dar lugar a la vigilancia masiva biométrica generalizada”, señaló.

Por último, denunció que también estaría permitida la auto evaluación de riesgos por parte de los proveedores e implementadores de sistemas de IA, lo que, a su juicio, “representa un gran debilitamiento de la norma”, y que el requisito de realizar un estudio de impacto de derechos fundamentales se haya “limitado” a organismos públicos y entidades privadas que presten servicios de interés general.

En este contexto, la experta en derechos digitales de CECU, Anabel Arias, defendió que en el texto "no se abordan suficientemente problemas como las manipulaciones o la discriminación de los sistemas de IA, en tanto muchas cuestiones dependerán excesivamente de la buena voluntad de las empresas". "Algo que sabemos que particularmente en el sector tecnológico no ha venido funcionando”, apostilló, convencida de que, “en general”, el Reglamento de IA “debería haber hecho más para proteger a los consumidores”.

(SERVIMEDIA)
11 Dic 2023
MJR/gja