1. Ir al contenido
  2. Ir al menú principal
  3. Ir a más sitios de DW

Inteligencia artificial: ¿discriminación garantizada?

23 de noviembre de 2023

"La IA no es neutral porque es desarrollada por humanos, con sus visiones del mundo y sus sesgos”, sostienen expertas en derechos digitales. Mujeres y minorías quedan en desventaja.

https://p.dw.com/p/4ZNT7
Ilustración de un Cyborg en 3D con un cerebro humano en sus manos.
Ilustración de un Cyborg en 3D con inteligencia artificial.Imagen: Knut Niehus/picture alliance

Exacta, rápida, y, por sobre todo, neutra. Así es la imagen ampliamente difundida de la inteligencia artificial.

Los hechos, sin embargo, muestran otro panorama.

"Los sistemas de inteligencia artificial funcionan bien para un tipo de personas: blancas, heteronormadas, que hablan inglés, que tienen movilidad, que pueden entender cómo funcionan esos sistemas”, asegura en diálogo con DW Paola Ricaurte Quijano, profesora del Instituto Tecnológico y de Estudios Superiores de Monterrey.

"Para las demás personas, estos sistemas representan un tipo de tecnología que no está diseñada para ellas ni por ellas”, completa.

"La IA no es neutral porque es desarrollada por humanos, con sus visiones del mundo y sus sesgos”, apunta, en tanto, la experta brasileño-colombiana Joana Varón, fundadora de la organización Coding Rights, dedicada al tema.

"Muchos sistemas son diseñados por empresas que tienen como directores y desarrolladores, en su gran mayoría, a hombres blancos del norte global. Previsiblemente entonces, los resultados no van a tomar en cuenta las necesidades y particularidades de ser mujer en el mundo”, completa la profesional, entrevistada por este medio.

Discriminación en acción

"Los sistemas de reconocimiento facial, por ejemplo, funcionan de manera más precisa cuando son aplicados a rostros de hombres blancos. Y tienen un nivel de error más alto cuando son aplicados en rostros negros, y más aún, si se trata de mujeres negras”, puntualiza Varón.

Las consecuencias pueden ser graves: "una mujer negra identificada de manera equivocada por un software de reconocimiento facial de la policía, va a tener muchas más dificultades que un hombre para probar que el resultado de la máquina es erróneo, y va a estar sujeta a abordajes de violencia policial, tan comunes en la región”, correlaciona Varón desde Río de Janeiro.

"La discriminación contra las mujeres es muy visible cuando realizamos búsquedas de imágenes”, suma, por su parte, la docente mexicana Ricaurte Quijano. "Si colocamos "jefe y secretaria” en el buscador, aparecerán imágenes sexualizadas que denigran a las mujeres”, critica.

Asimismo, "hay oficios que son pensados como eminentemente masculinos, y eso también lo podemos ver en las imágenes que buscamos. Por ejemplo, si lo hacemos con el término 'astronauta', aparecerán solo hombres”, señala la también integrante de la cooperativa Tierra Común, dedicada a luchar contra "el colonialismo de datos".

Y eso no es todo: "Este sesgo también podemos constatarlo con los traductores: si queremos traducir algo del inglés al español, siempre la herramienta va a ofrecer el resultado en masculino”, reprueba.

Fotomontaje con dos medios rostros femeninos.
"La discriminación contra las mujeres es muy visible cuando realizamos búsquedas de imágenes”, dice la profesora Ricaurte Quijano, del Instituto Tecnológico y de Estudios Superiores de Monterrey.Imagen: Christian Ohde/picture alliance

"No hay tal cosa como la objetividad de los datos o los algoritmos: siempre hay un sesgo”, concluye la docente, y en palabras de la matemática estadounidense Cathy O´Neil, refuerza: "Los algoritmos son opiniones embebidas en código”.

“Dime cómo fue entrenado el sistema, y te diré los resultados…”

"Los sistemas no predicen el futuro, como muchos creen, sino que sintetizan una probabilidad de ocurrencia de un evento a partir de grandes volúmenes de datos del pasado con los que son entrenados”, explica, por su parte, la experta argentina Beatriz Busaniche, directora de la Fundación Vía Libre, dedicada a "defender los derechos en el entorno digital”.

"Y estos datos muchas veces reflejan características de una sociedad que está estructurada alrededor de un sistema patriarcal y machista”, agrega. "Así, por ejemplo, si un empleo de alto nivel empresarial históricamente fue cubierto por hombres, el sistema va a interpretar que eso es lo que debe buscar”, explica la investigadora.

"Los sistemas no tienen moral ni principios, solo buscan patrones. No hacen una evaluación crítica sobre la baja tasa de mujeres en altos puestos gerenciales ni tienen en cuenta los techos de cristal en el mundo académico. Sencillamente infieren que, como en esos lugares hay pocas mujeres, a la hora de evaluar un currículum u ofrecer una oportunidad, la condición de 'mujer' es causal de descarte”, explica.

La lista de sesgos, en tanto, es extensa. "Las minorías no están debidamente representadas en los sets de datos, hay poca representación de pueblos originarios, de países menos desarrollados, de idiomas con menor cantidad de hablantes”, enumera Busaniche.

"El problema es que hoy la industria de la IA está dominada por pocas Big Tech (gigantes tecnológicos), que muestran como principal valor el 'tecnosolucionismo', o sea, la visión de que las tecnologías pueden solucionar todos los problemas humanos. Y, en realidad, dependiendo de quiénes, cómo y por qué desarrollan esas tecnologías, estas también pueden acentuarlos”, advierte Varón.

"El principal riesgo de la inteligencia artificial es automatizar las opresiones históricas”, concluye.

(cp)