La Inteligencia Artificial es racista y sexista, determina estudio

Hoy Estado de México – Enero 19, 2018

La principal característica de los sistemas de Inteligencia Artifical (IA) es que pueden aprender rápidamente a partir de información existente y explorar para generar nuevas formas de conociento, sin embargo, estudiso recientes muestran que esta tecnología puede heredar defectos humanos.

Una investigación desarrolada de manera conjunta por científicos de la Universidad de Princeton, en Estados Unidos, y de la Universidad de Bath, en Reino Unido, ha demostrado que, por ejemplo, cuando los sistemas de inteligencia artificial aprenden un idioma a partir de diversos textos se impregnan de los mismos prejuicios raciales y de género incluidos en el lenguaje.

El estudio, publicado en la revista Science, se basa en el llamado Test de Asociación Implícita (TAI), un método usado habitualmente para medir los conceptos preconcebidos que distorsionan la percepción en los seres humanos.

Para ello se insta a los individuos participantes a asociar dos ideas que consideren semejantes y las contrapongan a dos que consideran opuestas. Este test es una buena herramienta para analizar cómo se transmiten este tipo de sesgos en el comportamiento humano y la relación que tienen con el lenguaje y los estereotipos culturales.

Los autores de la investigación replicaron el TAI en sistemas de aprendizaje automático, como los que se emplean en traductores o procesadores de textos de la web. Tras analizar las asociaciones que hacía el sistema con más de dos millones de palabras, descubrieron que reflejaba los mismos prejuicios transmitidos a través de la lengua por los seres humanos.

Por ejemplo, los nombres femeninos se asociaban sobre todo a términos relacionados con la familia, mientras que los masculinos aludían a conceptos relacionados con carreras profesionales», dice Aylin Caliskan, una de las autoras de la investigación.

Así se mostró cuando el software, al pasar del turco al inglés la frase «él es enfermero», el sistema lo traducía como «ella es enfermera»; mientras que la expresión «él es médico» no cambiaba de género al pasar del turco al inglés.

Además también los investigadores también detectaron que la IA hereda los prejuicios raciales. Diversos estudios sobre el comportamiento humano muestran que en Estados Unidos un mismo currículum tiene el doble de posibilidades de pasar la fase de la entrevista si el nombre y apellido del candidato es europeo y no afroamericano. En el caso de la IA, también se asocian los apellidos europeos con estímulos o términos positivos relacionados con el placer, como ‘regalo’ o ‘felicidad’.

Según Arvid Narayanan, otro de los autores del estudio, la transmisión de los prejuicios se debe no sólo a los programadores de los sistemas, sino a los datos con los que se alimentan y a textos procedentes de las redes sociales, de lo que escribe la gente on line.

Con información de Muy Interesante.

Comentarios

comments