AI Semanal: Un aprendizaje profundo de pioneer momento de aprendizaje en IA sesgo | VentureBeat

he perdido la cuenta del número de veces que he oído a alguien decir recientemente que Timnit Gebru es salvar el mundo. Su co-líder de IA ética en Google, de Margaret Mitchell, dijo que alrededor de ella a los pocos días atrás, cuando Gebru llevado a algunos eventos en Google en torno a la raza. Su trabajo con Alegría Buolamwini la que se encuentra la raza y los prejuicios de género en el reconocimiento facial es en parte la razón de que los legisladores en el Congreso quieren prohibir gobierno federal el uso de la tecnología. Ese trabajo también jugó un papel importante en Amazon, IBM y Microsoft acepta detener o al final de reconocimiento facial de las ventas a la policía.

a principios de la semana, los organizadores de la Visión por Computador y Reconocimiento de patrones (CVPR) de la conferencia, uno de los más grandes de la IA de conferencias de investigación en el mundo, tomó la decisión de llamar a su CVPR tutorial acerca de cómo el sesgo en AI va mucho más allá de los datos de la “visión necesaria para todos nosotros.”

Eso es lo que hizo que la situación con Facebook jefe de IA científico Yann LeCun esta semana tan desconcertante.

El episodio completo entre dos de los más conocidos de los investigadores de la IA en el mundo comenzó con una conversación acerca de hace una semana con el lanzamiento de PULSO, un equipo de la visión del modelo creado por investigadores de la Universidad de Duke que asegura que puede generar realista, de alta resolución de imágenes de personas en una foto pixelada.

VB Transformar 2020 en Línea – 15-17 de julio. Únase a líderes AI ejecutivos: Registro para la libre livestream.

El controvertido sistema combina generativo contradictorio redes (GANs) con auto-aprendizaje supervisado. Para el entrenamiento se utiliza el Flickr Cara HQ conjunto de Datos compilados del año pasado por un equipo de Nvidia investigadores. El mismo conjunto de datos utilizado para crear la StyleGAN modelo. Parecía funcionar bien con la gente Blanca, pero un observador de entrada de un depixelated foto del Presidente Obama, y el PULSO producido una foto de un hombre Blanco. Otras fotos de las imágenes generadas por que dar Samuel L. Jackson, el pelo rubio o girar a Muhammad Ali en un hombre Blanco.

Una imagen de @BarackObama llegar sobremuestrea en un hombre blanco está flotando alrededor porque ilustra los prejuicios raciales en #MachineLearning. Sólo en caso de que usted piensa que no es real, es, tengo el código de trabajo a nivel local. Aquí soy yo, y aquí es @AOC. pic.twitter.com/kvL3pwwWe1

— Robert Osazuwa Ness (@osazuwa) 20 de junio de 2020

En respuesta a un colega de llamar a Obama en la foto un ejemplo de los peligros de AI sesgo, LeCun, afirmaba que “ML sistemas están sesgados cuando los datos está sesgada.” Análisis de una porción del conjunto de datos se encuentra mucho más Blanca de las mujeres y a los hombres que a las mujeres Negras, pero la gente rápidamente tomó el asunto con la caracterización de que el sesgo es de unos datos por sí solos. Gebru sugirió entonces LeCun ver su tutorial, que repite como un mensaje central que AI sesgo no puede ser reducido a solo el dato, o explorar el trabajo de otros expertos que dicen lo mismo.

En su tutorial, Gebru dice que la evaluación de si es o no un AI modelo es justo debe tomar en consideración más que los datos, y desafió a la visión por computador de la comunidad para “entender cómo lo impregna nuestra tecnología está siendo utilizada para marginar a muchos grupos de personas.”

“creo que mi mensaje principal aquí es la equidad no es sólo acerca de los conjuntos de datos, y no es sólo acerca de las matemáticas. La equidad es acerca de la sociedad, y así, como los ingenieros, los científicos, que realmente no puede alejarse de ese hecho,” Gebru dijo en el tutorial.

no Hay ninguna escasez de recursos que explican por qué el sesgo es más que datos. Como Gebru se apresuró a señalar, LeCun es el presidente de la ICLR conferencia, donde a principios de este año Ruha Benjamin afirmó en un discurso de apertura que “computacional profundidad sin histórica o sociológica profundidad superficial de aprendizaje.”

el Debate librado en Twitter hasta el lunes, cuando LeCun compartido un 17-tweet hilo sobre el sesgo en la que dijo que él no tenía la intención de decir ML sistemas están sesgados debido a que los datos solo, pero que en el caso de PULSO el prejuicio proviene de los datos. LeCun terminado el hilo por lo que sugiere que Gebru evitar emocionarse en su respuesta, un comentario que muchas mujeres AI investigadores interpretan como sexista.

Muchas Negro investigadores y las mujeres de color en la conversación de Twitter expresó su decepción y frustración en LeCun posición. UC Berkeley estudiante de Doctorado de Devin Guillory, quien publicó un artículo esta semana acerca de cómo los investigadores de la IA puede luchar contra la Negrura en la IA de la comunidad, acusado LeCun de “gaslighting las mujeres Negras y despidos de toneladas del trabajo académico.” Otros destacados de la IA, los investigadores realizaron acusaciones similares.

Gaslighting se define como un acto de manipulación psicológica para hacer que alguien cuestionar su cordura. Gaslighting mujer de Negro de los investigadores es especialmente cruel en vista de cómo muchas mujeres que los investigadores describen los colegas que no se cite su trabajo como parte de la supresión de los fenómenos.

Gebru no era la única Google AI líder para enfrentar LeCun esta semana. Google AI investigador y CIFAR AI presidente Nicolas Le Roux sugirió LeCun escuchar la crítica, especialmente cuando viene de una persona que represente a una comunidad marginada. También instó a LeCun de no participar en el tono de la policía y otras tácticas asociadas con el mantenimiento del equilibrio de poder. Google AI jefe Jeff Dean también instó a las personas a reconocer los prejuicios va más allá de los datos.

en Lugar de tomar Le Roux, asesoramiento, LeCun respondió a su crítica con Facebook post el jueves la defensa de la opinión de un anónimo usuario de Twitter que dice movimientos de justicia social le quitas la capacidad de las personas para participar en un discurso constructivo.

más Tarde en el día, LeCun twitter que él admira Gebru del trabajo y la esperanza de que pueden trabajar juntos para luchar contra los prejuicios. Facebook VP de AI Jerónimo Pesenti también se disculpó por cómo la conversación se intensificó y dijo que es importante escuchar las experiencias de personas que han experimentado la injusticia racial. En ningún momento en la serie de posts que hizo parecer que LeCun intentado captar con Gebru de la investigación.

Todo esto sucede en un momento en Facebook es de días de distancia desde el inicio de un creciente boicot económico a través de su disposición a beneficio de odio. El boicot ha partidarios que van desde la NAACP a la Patagonia. El jueves Verizon acordado para tirar de la publicidad de Facebook, y los viernes de Unilever detuvo la venta de anuncios para Facebook, Instagram, y Twitter. Poco después, CEO, Mark Zuckerberg anunció que Facebook ya no ejecutar los anuncios políticos que afirman que las personas de una determinada raza, género, o de otro grupo son una amenaza para la seguridad de las personas o de supervivencia.

Negro ex Facebook empleados se han quejado de malos tratos, y la controversia sobre Facebook la voluntad de mantener un Triunfo post que Twitter etiquetados como glorificar la violencia y los observadores llamado racista silbato de perro. informe el mes pasado encontró que Facebook ejecutivos de la notificación de que su recomendación a los algoritmos fueron dividiendo a las personas y la incitación al odio, pero no cambiar las cosas, en parte por miedo a la reacción conservadora. Incluso los empleados en el Chan-Iniciativa de Zuckerberg dijo que las cuestiones de diversidad y que la organización no lucrativa debe decidir de qué lado de la historia que se quiere ser y cambiar la forma de tratar con la raza.

¿Cuál es notablemente falta de LeCun la evaluación de AI sesgo y Pesenti la disculpa de jueves es el papel de la contratación y la construcción de diversos equipos. LeCun comentarios de venir un poco más de una semana después de que Facebook CTO Mike Schroepfer dijo a VentureBeat que AI sesgo es generalmente el resultado de una información sesgada. Él se convertiría en campeón de la diversidad como una forma de mitigar el sesgo, pero no podía ofrecer evidencia de la diversidad de las prácticas de contratación en la FERIA. Facebook recopila y divulga públicamente algunos diversidad de estadísticas, pero no medir la diversidad en Facebook AI Investigación, que LeCun fundada en 2013. Un Facebook portavoz de AI le dijo a VentureBeat que todos los empleados están obligados a participar en la capacitación para identificar los sesgos personales.

Es inquietante ver a alguien con tanto privilegio como LeCun intento de discutir cuestiones técnicas, sino que ignorar el trabajo de un Negro colega en un tiempo cuando los problemas de la desigualdad racial, provocó las protestas de histórico de tamaño en todo el mundo. Esas protestas se siguen sucediendo.

tal vez Yann LeCun mejor las necesidades de los amigos. Tal vez debería alejarse del teclado, y tal vez, como LeCun argumentó, que el primer tweet de la izquierda a cabo sesgo más allá de los datos debido a la ordenación de la brevedad que es común en Twitter. Pero vale la pena comprender que LeCun construido JUSTO, y un análisis del año pasado encontró que Facebook AI Investigación no tiene empleados de raza Negra.

Esta historia no ha terminado. Análisis y opiniones sobre el intercambio entre Gebru y LeCun lograr la amplia AI comunidad puede colar por un tiempo, y Pesenti promesas Facebook AI va a cambiar, pero algo sobre la serie de eventos y noticias relacionadas parece un problema sistémico. Si JUSTO valores de la diversidad o de Facebook había un grupo más diverso de empleados o el hecho de escuchar a las comunidades marginadas de una prioridad, tal vez nada de esto habría sucedido. O no han tenido casi una semana para Facebook ejecutivos para intervenir y pedir disculpas.

En un artículo publicado el mes pasado, días antes de la muerte de George Floyd, me escribió que hay una batalla pasando ahora por el alma de la máquina de aprendizaje, y que parte de ese trabajo consiste en la construcción plural de los equipos.

Yann LeCun es uno de los hombres más poderosos en el AI de la comunidad hoy en día. No sería una Turing, ganador de un Premio o de red neuronal de pioneer si él no podía comprender los temas complicados, pero toda esta serie de debate, mientras que la gente de la demanda de igualdad de derechos en las calles, sale como una especie de juvenil o infantil. Se puede describir el Gebru-LeCun episodio tan triste y lamentable y una gama de otros adjetivos, pero hay dos cosas que permanecen conmigo: 1) AI investigadores, muchos de ellos Negros o las mujeres — no debería tener que dedicar tiempo a convencer a LeCun de los hechos establecidos, y 2) esta fue una oportunidad perdida para un líder para demostrar su liderazgo.

En su apología a Gebru el jueves, Pesenti dijo que Facebook va a abrazar el cambio y la educación. No hay detalles fueron ofrecidos, pero esperemos que el cambio implica no las palabras, sino la acción significativa.

Para la IA cobertura, enviar noticias consejos para Khari Johnson y Kyle Wiggers y AI editor de Seth Colaner — y asegúrese de suscribirse a la IA boletín Semanal y marcar nuestro Canal AI.

Gracias por la lectura,

Senior AI Personal del Escritor

Actualizado a las 12:25 pm incluir cambios en Facebook político de la publicidad política.

Actualizado a las 11:45 am a incluir Facebook IA respuesta a una pregunta sobre el sesgo de formación en Facebook.

This content was originally published here.

Ciudadano por México

Recent Posts