Ciudades del futuro Tecnología e innovación

Una IA vio una foto recortada de una mujer y… la completó con un bikini  – Sputnik Mundo

El 43% de las veces que una IA vio una foto de un hombre recortada justo por debajo del cuello, la completó con un traje. Esa misma IA completó con un bikini o un top escotado la foto de una mujer recortada igual, el 53% de las veces que la vio —incluso la foto del rostro de una mujer famosísima, como la diputada estadounidense Alexandria Ocasio-Cortez—. ¿Ves el sexismo?

Quizá el mayor problema sea que esos algoritmos son bastante nuevos: se empezaron a desarrollar en 2020 y se han convertido en la columna vertebral de todo tipo de aplicaciones de visión por ordenador, incluidos los algoritmos de evaluación de candidatos basados en vídeo, el reconocimiento facial y la vigilancia. 

“Se trata de aplicaciones muy peligrosas que toman decisiones consecuentes”, dijo a Tech Review Aylin Caliskan, profesora adjunta de la Universidad George Washington (Estados Unidos).

¿Por qué los algoritmos pueden discriminar?

Ella y Ryan Steed, estudiante de doctorado de la Universidad Carnegie Mellon (Estados Unidos), analizaron dos algoritmos que los llevaron a esa conclusión: iGPT de OpenAI y SimCLR de Google. Ambos utilizan un aprendizaje completamente no supervisado.

Pero Crawford y Paglen descubrieron una fuente de toxicidad aún más profunda. Incluso sin estas etiquetas humanas, las propias imágenes codifican patrones no deseados, porque internet está plagada de discursos de odio de todo tipo, y estos algoritmos se alimentan de internet. 

¿Qué se puede hacer?

“Durante mucho tiempo, muchas de las críticas sobre el sesgo se referían a la forma en que etiquetamos nuestras imágenes”, comentó a la revista del MIT Deborah Raji, becaria de Mozilla y coautora de un influyente estudio que revela los sesgos en el reconocimiento facial. “Ahora la composición real del conjunto de datos está dando lugar a estos sesgos. Tenemos que responsabilizarnos de la forma en que conservamos estos conjuntos de datos y recogemos esta información”, agregó.

📻 𝗥𝗔𝗗𝗜𝗢 ‘Zona violeta’:
¿Reconoces el odio? Una plataforma busca detectarlo en discursos de Twitter – Escucha el programa completo en: https://t.co/iguQs8FvLF pic.twitter.com/aAEzzR2do2

— Sputnik Mundo (@SputnikMundo)

​Steed y Caliskan instan a una mayor transparencia por parte de las empresas que desarrollan estos modelos para que los abran y permitan a la comunidad académica continuar sus investigaciones. También animan a sus colegas investigadores a realizar más pruebas antes de implantar un modelo de visión. Y, por último, esperan que el sector desarrolle formas más responsables de recopilar y documentar lo que se incluye en los conjuntos de datos de entrenamiento.

This content was originally published here.

EL 2 DE JUNIO DEL 2024 VOTA PARA MANTENER

TU LIBERTAD, LA DEMOCRACIA Y EL RESPETO A LA CONSTITUCIÓN.

VOTA POR XÓCHITL