Consumidores

CECU pide a Europa “no rebajar derechos” en el Reglamento de Inteligencia Artificial frente a las “presiones” de la industria

-En la 4º Asamblea de la Alianza Europea de Inteligencia Artificial, que se celebra en Madrid

MADRID
SERVIMEDIA

La Federación de Consumidores y Usuarios CECU pidió este jueves “no rebajar derechos” en el Reglamento de Inteligencia Artificial (IA) frente a las “presiones” de la industria tecnológica y recordó a las instituciones europeas la importancia de “poner los derechos en el centro del reglamento”.

Así lo reclamó en un comunicado emitido en el marco de la celebración, este jueves y viernes en Madrid, de la 4° Asamblea de la Alianza Europea de Inteligencia Artificial mientras en Bruselas continúan las negociaciones del Reglamento de Inteligencia Artificial, que, a su juicio, “todavía tiene varios puntos problemáticos sin resolver”.

Entre ellos, dilucidar si Europa será “pionera” en prohibir las técnicas de reconocimiento facial en espacios de acceso público.

En este contexto, la federación, que estará también presente en la asamblea, reclamó a las instituciones europeas que no realicen “concesiones” sobre el reglamento que se “alejen de la protección de derechos de los consumidores”.

Tras recordar que el reglamento pretende incluir usos de sistemas de IA “que tienen gran impacto sobre los derechos de los consumidores”, CECU defendió que, “para poder hablar de una IA confiable en Europa”, es necesario que el reglamento establezca un “claro sistema de clasificación de riesgos, sin lagunas ni discrecionalidad por parte de las empresas”.

SISTEMAS DE ALTO RIESGO

“De esto depende la efectividad de la norma, ya que sobre los sistemas de alto riesgo recaen todas o la mayoría de las obligaciones que impone”, apostilló.

En paralelo, juzgó necesario que “prohíba totalmente” la identificación biométrica remota por parte de autoridades públicas y entidades privadas en espacios de acceso público así como que mantenga una “amplia prohibición” sobre el reconocimiento de emociones e incluya “garantías adecuadas” para “cualquier excepción limitada que se pretenda introducir”.

Junto a ello, exigió que requiera un estudio de impacto de derechos fundamentales antes de poner en marcha sistemas de “alto riesgo” y que “reconozca derechos en favor de los consumidores”, como el de presentar una reclamación ante la autoridad pertinente, acudir a remedio judicial, la “explicabilidad” de los sistemas de IA que los afecten y ser informados de que, en determinados casos, se está utilizando un sistema de “alto riesgo”.

Por último, abogó por regular “adecuadamente” los modelos base/fundacionales y la IA generativa, como ChatGPT, con el fin de “proteger” a las personas de sus “daños”, de manera que sean “más fiables, seguros y de mayor calidad”.

MOMENTO CRUCIAL

“Este es el momento crucial para fijar un estándar de protección de derechos humanos, sin ceder a las presiones de la industria ni de los Estados miembro. Y ello puede suceder bajo la presidencia española”, agregó.

En este sentido, la responsable de derechos digitales de CECU, Anabel Arias, urgió a “tomar conciencia del impacto que tiene y tendrá esta legislación, especialmente el Reglamento de IA, no solo en nuestras vidas, sino también a nivel mundial”.

“Por eso, es necesario exigir a las instituciones europeas y a la Presidencia española que cumplan con su compromiso de poner a las personas en el centro de la regulación de la IA y que no se realicen concesiones que se alejen de ello porque nuestros derechos fundamentales no son negociables”, resolvió.

(SERVIMEDIA)
16 Nov 2023
MJR/gja