Discapacidad

Cermi Mujeres demanda que la Inteligencia Artificial sea la gran aliada de la inclusión

Madrid
SERVIMEDIA

La Fundación Cermi Mujeres, con la colaboración del Comité Español de Representantes de Personas con discapacidad (Cermi), defiende que la Inteligencia Artificial debe ser "la gran aliada de la inclusión”.

Así lo manifestó la Fundación Cermi Mujeres durante la sesión que se celebró en formato virtual este miércoles y en el marco del Ciclo de debates ‘Delete Capacitismo’ del Cermi, y que se desarrolla con el apoyo del Ministerio de Derechos Sociales y Agenda 2030, dentro de su convocatoria de subvenciones con cargo al 0.7% de actividades de interés social.

En concreto, esta jornada abordó el impacto de los sesgos de género en los algoritmos, que pueden dar lugar a una discriminación contra las mujeres en diferentes ámbitos, como el empleo, la educación o la salud.

El debate contó con una ponencia marco de Tasia Aránguez Sánchez, profesora de Filosofía del Derecho de la Universidad de Granada, que analizó los fundamentos teóricos de los sesgos de género en los algoritmos. Para ello, definió qué son los algoritmos y qué es la Inteligencia Artificial y, tras la definición, señaló que “los algoritmos, que no son entes vivos, son sexistas es porque son un reflejo de la sociedad porque actúan a partir de una base de datos y ahí es donde se cuelan los sesgos sexistas”.

Aránguez también resaltó la falta de paridad y la escasa presencia de las mujeres con discapacidad en Internet. Al respecto, la experta debatió sobre si es prudente confiar en la autorregulación de las empresas en los sesgos de estos algoritmos y, tras poner de relieve algunos casos reales de empresas con sesgos de género en los algoritmos, concluyó que, probablemente, las empresas “no sean las mejores garantes de la ética tecnológica”.

La experta también explicó que considerar al hombre como sujeto universal es otro tipo de sesgo de género en los algoritmos y puso ejemplos que ignoran una variable correlativa o algoritmos que aumentan el sexismo de las personas usuarias.

Aránguez puso de manifiesto el acoso sexual y violaciones como otro problema relacionado con el sexismo en los algoritmos. Otro aspecto que destacó la ponente del sexismo de los algoritmos es la cosificación sexual de la inteligencia artificial presente en muchos videojuegos porque, según advertió Aránguez, “los que diseñan o programan, en su mayoría, son varones”. Ante ello, alertó de que “los algoritmos carecen de la flexibilidad de la inteligencia humana, son rígidos por lo que no tienen sentido común” y, por ello, añadió que “es muy importante que colectivos como Cermi puedan participar o auditar los algoritmos de las administraciones públicas o de empresas para que las personas con discapacidad no se vean excluidas”.

En su intervención, Aránguez avisó de que, por el momento, “falta regulación” y que “las políticas públicas no están haciendo demasiado para hacer frente a los sesgos sexistas de los algoritmos”. “Muchas empresas tienen códigos éticos y auditorías internas, pero no tienen sanciones si lo incumplen”, denunció.

A continuación, un panel de personas expertas debatió sobre las implicaciones de los sesgos de género en los algoritmos para las mujeres. El panel estuvo formado por, la presidenta de la Fundación Cermi Mujeres, Concepción Díaz Robledo, y la directora ejecutiva del Cermi, Pilar Villarino, y estuvo moderado por la Coordinadora de la Fundación Cermi Mujeres, Isabel Caballero.

Díaz Robledo manifestó su preocupación por que “este tipo de datos que existen en los algoritmos vinculados a las mujeres con discapacidad estén cargados de estos prejuicios y estereotipos” y que, a juicio de Díaz, “sería una carga añadida para las mujeres y niñas con discapacidad”.

Seguidamente, Villarino recordó que Cermi lleva trabajando desde hace tiempo en una estrategia de transformación digital y un plan de algoritmos sociales y de inclusión que sirve como marco de orientación para que “la inteligencia artificial tenga un rostro social y acoja la diversidad humana sin ningún tipo de sesgos ni exclusiones”.

El plan, según explicó Villarino, está diseñado con líneas estratégicas para combatir el capacitismo y pone el foco en la importancia de medir el impacto negativo en las personas con discapacidad, impulsar procesos de auditoría de algoritmos. “En definitiva, lo importante es realizar desde las organizaciones de la sociedad civil una labor de incidencia para evitar esta discriminación vinculada a la inteligencia artificial”, concluyó.

(SERVIMEDIA)
26 Oct 2023
ABS/gja