Tecnología e innovación

Los Prejuicios raciales en la AI no se está poniendo Mejor y no Son Investigadores Excusas

AI-powered retrato generador fue viral la semana pasada gracias a su capacidad para activar selfies en realista, Impresionista retratos. Para la gente de color, sin embargo, los resultados dejan mucho que desear.

El error en IA Retrato de Ars, una aplicación construida por los investigadores en el MIT-IBM Watson Laboratorio de IA, fue el primero en señalar a cabo por Morgan Cantado, un reportero en Mashable. Ella encontró que la aplicación de “blanquear mi piel sobrenatural pálido tono, volví a mi nariz plana en uno con un prominente puente y el extremo puntiagudo, y reemplazó a mi muy encapuchado con los ojos fuertemente con tapa queridos.” Este resultado es terriblemente decepcionante, y absolutamente predecible.

“no me sorprendió en el blanqueo del todo, ya que estoy acostumbrado a cosas como Snapchat filtros iluminando mi piel, haciendo que mis ojos más grandes, el estrechamiento de mi nariz. Pero yo estaba sorprendido por la extrema fue” Interpretada dijo a la Placa base. “La pintura que AI retrato construido era una cara completamente diferente.”

En el año 2019, AI los desarrolladores deben saber que algorítmico sesgo no sólo existe, sino que es un grave problema que debemos combatir. Entonces, ¿por qué persiste? Y puede que en realidad nos paramos? Estas son preguntas abiertas que se reducen a donde usted cree que la culpa es. Es el caso de que estos algoritmos están exagerando las partes de la naturaleza humana? Son algorítmicas sesgos un reflejo de nuestra sociedad sistémico de los problemas? En el caso de la IA Retrato de Ars, puede ayudar a rastrear porque que no podía dibujar los rostros de la gente de color con el fin de averiguar por qué sigue pasando.

Parte del problema radica en la AI Retrato Ars fundamentalmente obras. El programa se basa en un generativo contradictorio network (GAN), es decir, hay dos tipos de algoritmos enfrentados unos contra otros como adversarios a crear sus retratos. El primer tipo de algoritmos generativos, responsable de la generación de nuevos datos. El segundo tipo son discriminador algoritmos, responsable de decidir si los nuevos datos pertenece al conjunto de datos de entrenamiento.

Con IA Retrato de Ars, el generador aprende a crear realistas retratos de personas y el discriminador aprende a discernir que no son lo suficientemente convincentes basados en el conjunto de datos. Los conjuntos de datos, a continuación, son de suma importancia en la determinación de si o no el GAN va a leer ciertos datos (rasgos faciales) como auténtico o no. El conjunto de datos de entrenamiento cuenta con más de 15.000 imágenes, pero es importante recordar de donde estas imágenes fueron probable que sacó de.

“Este fue un experimento realizado por uno de nuestros investigadores. Las imágenes de la aplicación, los usuarios se han eliminado inmediatamente de nuestros servidores después de retrato del Renacimiento fue generado. El experimento ha seguido su curso,” IBM Research, dijo en una declaración a la Placa madre.

“Además, la herramienta refleja los datos fue entrenado en: una colección de 15.000 retratos, principalmente de la europa Occidental del Renacimiento,” la compañía continúa. “En algunos casos, se produjo una fuerte alteración de los colores y las formas. Esa es una realidad de el estilo, no el algoritmo.”

Este experimento, sin embargo, espejos docenas de otros AI de reconocimiento facial y de los experimentos que han tenido resultados mucho más precisos para la gente blanca de la gente de color. Si el experimento demostró algo, es que la IA de los investigadores continúan siendo atraídos a los experimentos y la investigación que perpetúan los prejuicios que nosotros ya sabemos que existen en IA investigación.

también no es en realidad una “realidad del estilo” del arte Renacentista que las personas de color no estaban en las pinturas de la época. Hay muchos ejemplos de gente de color en la historia del arte Europeo, a pesar de que en gran parte son asumidas por las masas a ser inexistente en el arte desde el Renacimiento.

“El material disponible para iluminar la vida de los Africanos en la Europa del Renacimiento a través de las artes visuales es considerable, aunque poco conocido para el público en general,” un largo informe 2013 de Baltimore del Museo de Arte Walters llamado “Revelando la Presencia Africana en la Europa del Renacimiento”, señala.

es importante “entender el período en términos de las personas de ascendencia Africana, a quien encontramos en la detención de las representaciones de la vida, que testimonian el Renacimiento adagio de que los retratos por arte de magia hace que el ausente presente. Comenzamos con los esclavos, de ascender en la escala social a los agricultores, los artesanos, los aristócratas, académicos, diplomáticos y gobernantes de diferentes partes del continente Africano,” continúa.

El problema con la IA Retrato Ars refleja cómo, históricamente, la tecnología a menudo funciona como una extensión del status quo frente a un gran ecualizador. Película de Color, por ejemplo, fue inicialmente calibrado para que se vea mejor con el blanco, los tonos de piel, ya que fueron las preferidas de los consumidores del mercado. En la década de 1970, lo que impulsó a la industria para considerar la posibilidad de una mejor representación de los colores más oscuros era de la presión económica de Kodak profesional de cuentas. Los fabricantes de muebles estaban enojados de que sus anuncios mediante Kodak color de la película no la captura de la diferencia entre la oscuridad de grano de madera y la luz de grano de madera, mientras que el chocolate en polvo estaban enojados de que la película no se pudo capturar todos los matices de chocolate.

En este punto, los investigadores de la IA—especialmente la utilización de IBM Watson, debe saber mejor. En 2018, la Alegría Buolamwini, fundador de el Algoritmo de la Liga de la Justicia, publicado por el MIT tesis análisis de la tecnología de reconocimiento facial de IBM Watson, de Microsoft, y la Cara++ (un Chino de inteligencia artificial de la compañía). Buolamwini encontró que todos los programas tienen las más altas tasas de error para la piel oscura de las mujeres y de los resultados más precisos con la luz de piel de los hombres, pero que IBM Watson tuvo la mayor disparidad en las tasas de error entre la piel oscura de las mujeres y de piel clara de los hombres (la tasa de error fue del 34,4 por ciento más alto de piel oscura en las mujeres). Buolamwini también encontró que a medida que los tonos de la piel se oscureció, IBM Watson no pudo reconocer a un sujeto de género de casi el 50 por ciento del tiempo.

A IBM de crédito, Buolamwini de investigación empujado a la empresa a mejorar radicalmente su tecnología de reconocimiento facial. Sin embargo, esto no ha impedido que el problema de los prejuicios raciales de reaparecer en otros productos de IBM como su AI Retrato de Ars, o la industria en general. Hasta que nos puede sacar de raíz los sesgos que se cocía en nuestra sociedad que mantener surgiendo de nuevo en cada nueva generación de la tecnología, ¿qué hacer?

Caroline Sinders, una máquina de aprendizaje de diseñador, quien previamente trabajó con IBM Watson, dijo a la Placa base que parte del problema se encuentra con una “falta de conciencia de que tenemos que probar varios géneros, de diferentes razas.” Al mismo tiempo, Sinders preguntó si la solución es tan simple como una mayor diversidad en los datos. “Cuando estos errores de pop-up, lo que realmente pone de manifiesto una falta de diversidad en los conjuntos. Pero, además de tener más diverso conjunto de datos para las cosas que el uso de imágenes faciales plantea un problema donde mejor facial aplicaciones de llevar a … mejor reconocimiento facial. Tenemos necesariamente quiere eso?”

Que es una pregunta válida cuando se aplica a los muchos en el campo de los usos de la IA y la tecnología de reconocimiento facial, muchos de los cuales se implementan de manera desproporcionada por parte de la policía contra la gente de color. Como Sinders mencionado, el mejor facial aplicaciones conduce a un mejor reconocimiento facial—pero, ¿necesitamos otro AI cara de aplicación a todos?

Hoy en día, el problema de los conjuntos de datos que representan las poblaciones con precisión y el legado de la tecnología que se utiliza para preservar los sistemas de potencia están muy vinculados entre sí. En el New York Times op-ed, Buolamwini habla acerca de la “codificado mirada”, un fenómeno en donde “A. I. sistemas están determinadas por las prioridades y los prejuicios — consciente e inconsciente — de las personas que los diseñan.” Las tasas extremadamente altas de la identificación errónea de que la peste software de reconocimiento facial cuando se utiliza en personas de color han llevado a las llamadas para su completa y total prohibición. Estos incrustado de los sesgos que pueden afectar a la contratación de perspectivas, erróneamente a personas inocentes, y dar a los que no rinden cuentas de los actores en el sector privado o la aplicación de la ley aparato de mayor información acerca de nuestras vidas personales, sin nuestro consentimiento. Ya que en algunas ciudades ya han prohibido la tecnología, y el Congreso se espera una votación sobre la legislación que prohíba el reconocimiento facial en propiedad del gobierno de la vivienda pública.

Todo esto, sin embargo, deja claro que no está muy claro cuál es la mejor manera de parar esto es. Hacemos uso de más datos para empoderar a la problemática de la tecnología? Hacemos uso de algoritmos de sesgo de otros algoritmos? ¿Corremos el riesgo de continuar a perturbar la vida de la gente, mientras nosotros la figura de este asunto? Tal vez todo esto significa que la respuesta es que no podemos, al menos no sin antes cuestionar si tales fundamentalmente problemático de la tecnología debería existir en absoluto.

This content was originally published here.

EL 2 DE JUNIO DEL 2024 VOTA PARA MANTENER

TU LIBERTAD, LA DEMOCRACIA Y EL RESPETO A LA CONSTITUCIÓN.

VOTA POR XÓCHITL