Stay up to date with notifications from The Independent

Notifications can be managed in browser preferences.

Tiktoker usa foto de su pasaporte para evidenciar “racismo” en inteligencia artificial

“La automatización nunca es amigable con la diversidad”, dice el título del video

Chelsea Ritschel
Miércoles, 28 de abril de 2021 10:05 EDT
Kevin Monzón, el tiktoker arrestado en tres ocasiones por desafiar al gobierno de Nicaragua
Read in English

Un usuario de TikTok que educa a las personas sobre la omnipresencia del prejuicio racial ha demostrado cómo el prejuicio parece estar integrado en la inteligencia artificial.

Joris Lechêne, un modelo y artista de Londres, subió recientemente un TikTok en el que explicó que trató de cargar una foto de su pasaporte solo para que se le negara porque el software no podía reconocerlo con precisión.

"¿No te encanta cuando entrenas a las personas para que detecten los prejuicios racistas para vivir y luego te pasa a ti?" Lechêne, que se conoce con el nombre de usuario @joris_explains, comenzó el video. "En el proceso de solicitud de un pasaporte británico, tuve que subir una foto, así que seguí todas la guía de la T y hasta el envío de este".

Mientras habla, Lechêne, quien es negro, mostró a los espectadores la foto en cuestión que envió, en la que se ve con una camisa negra y de pie frente a una pared gris.

“He aquí, esa foto fue rechazada porque el software de inteligencia artificial no fue diseñado pensando en personas de mi fenotipo”, continuó Lechêne. "Tiende a confundirse mucho con las líneas de cabello que no caen a lo largo de la cara y de alguna manera lo confunden con el fondo y tiene la costumbre de pensar que las personas como yo mantienen la boca abierta".

Según la captura de pantalla del rechazo, la foto de Lechêne "no cumple con todas las reglas y es poco probable que sea adecuada para un nuevo pasaporte", y el sitio web del gobierno sugiere que su boca "puede estar abierta" y que fue "difícil" distinguir la imagen y el fondo.

Leer más: Mansión del CEO de Pornhub arde en llamas, sospechan incendio provocado

En el video, que ha sido visto más de 156,000 veces, Lechêne explicó que conocía el prejuicio racial antes de ser sometido a él porque usa ejemplos similares en la formación sobre prejuicios que imparte.

Según Lechêne, su propia experiencia es un recordatorio de que el software actual no está exento de prejuicios, y el modelo dice: “esto es solo un recordatorio de que, si cree que la automatización y la inteligencia artificial pueden ayudarnos a construir una sociedad sin prejuicios, está terriblemente equivocado".

Más bien, una sociedad más equitativa solo se puede lograr a través de "acciones políticas en todos los niveles de la sociedad", continuó Lechêne, y agregó: "porque los robots son tan racistas como la sociedad".

Esta no es la primera vez que se plantea el tema del racismo en la IA, ya que el tema ha surgido con frecuencia a medida que más partes del mundo se digitalizan y han salido a la luz ejemplos.

Anteriormente, se descubrió que la aplicación Google Photos etiquetaba a los negros como gorilas, según The New York Times, mientras que un servicio de rostros de Amazon tenía problemas para “identificar el sexo de las mujeres y los rostros de piel más oscura”.

“El servicio confundió a las mujeres con hombres el 19% de las veces y confundió a las mujeres de piel oscura con los hombres el 31% de las veces. Para los hombres de piel más clara, la tasa de error fue cero”, afirma The Times.

El problema se debe a los sesgos de la sociedad que luego terminan arraigados en los algoritmos y la inteligencia artificial debido a la falta de formación diversa.

“Falta de diversidad en los datos con los que trabaja, eso es exactamente de lo que estamos hablando”, explicó Lechêne en un video de seguimiento. “La sociedad está fuertemente sesgada hacia la blancura y eso crea un sistema desigual. Y ese sistema desigual se lleva a cabo a través del algoritmo ".

El video de Lechêne provocó numerosos comentarios consternados en su nombre, y una persona escribió: "necesitamos más POC en STEM para que puedan escribir algoritmos que no estén sesgados, especialmente porque nuestra sociedad automatiza más procesos como estos".

Thank you for registering

Please refresh the page or navigate to another page on the site to be automatically logged inPlease refresh your browser to be logged in