Tecnología e innovación

Google, según los informes dirigidos a personas sin hogar con “piel oscura” para mejorar AI | Tecnología | El Tutor

la tecnología de reconocimiento Facial errores cuando se trata de la identificación precisa de las personas de color han sido bien documentado y muy criticado. Pero un intento por parte de Google para mejorar sus algoritmos de reconocimiento facial mediante la recopilación de datos de las personas con la piel oscura es, elevando aún más las preocupaciones acerca de la ética de los datos de la cosecha.

Google ha sido el uso de trabajadores subcontratados para recoger cara exploraciones de los miembros del público a cambio de $5 tarjetas de regalo, según un informe del New York Daily News. La cara de colección análisis del proyecto que se había informado anteriormente, pero fuentes anónimas describe la ética y las prácticas engañosas para el Diario de Noticias.

Los trabajadores subcontratados fueron empleados por el personal de la firma Randstad, pero dirigido por Google gerentes, según el informe. Ellos fueron instruidos para apuntar a la gente con “tonos de piel más oscuros” y aquellos que serían más propensos a ser atraídos por los $5 tarjeta de regalo, incluyendo a las personas sin hogar y estudiantes universitarios.

“dijeron el destino de las personas sin hogar porque son los menos propensos a decir nada a los medios de comunicación,” un ex contratista le dijo al Daily News. “Las personas sin hogar que no sabía lo que estaba pasando en todo.”

“me siento como que quería que se aprovechan de los débiles”, de otro contratista le dijo al Daily News.

Randstad no respondió de inmediato a una solicitud de comentarios. Google defendió el proyecto, pero dijo que estaba investigando las denuncias de irregularidades.

Los contratistas también se describe el uso de tácticas engañosas para persuadir a los sujetos de acuerdo a la cara exploraciones, incluyendo tergiversando totalmente la cara de escaneo como una “selfie” del juego ” o “encuesta”, presionar a las personas a firmar un formulario de consentimiento sin leerlo, y ocultar el hecho de que el teléfono de los sujetos de investigación fueron entregados a “jugar” estaba tomando video de sus rostros.

“estamos tomando estas afirmaciones en serio y la investigación de ellos,” un portavoz de Google dijo en un comunicado. “Las denuncias de que la veracidad y el consentimiento es una violación de nuestros requisitos para los voluntarios de los estudios de investigación y la formación que les hemos proporcionado.”

El portavoz añadió que “la colección de la cara de muestras para la máquina de aprendizaje de formación” tenían la intención de “construir la justicia” en la “función de desbloqueo facial” para la compañía en el nuevo teléfono, Pixel 4.

“Es fundamental contamos con una amplia muestra, que es una parte importante de la construcción de un producto incluido”, el vocero, agregando que la función de desbloqueo facial proporcionará a los usuarios con “una poderosa nueva medida de seguridad”.

Pero el proyecto ha atraído la dura condena de digital de derechos civiles y racial de los defensores de justicia.

La controversia se toca en las preguntas difíciles acerca de algorítmica sesgo y la privacidad de los datos. Es lo mejor para mejorar el reconocimiento facial para las personas de todos los colores de la piel – o la prohibición de la tecnología de la totalidad, como un puñado de ciudades de los estados unidos han hecho este año? Y cuánto los usuarios deben ser compensados para proporcionar a las empresas como Google con sus datos personales?

“a Pesar de que la investigación muestra claramente que el sistema de reconocimiento facial de manera desproporcionada erróneamente negro y marrón caras, el objetivo no debe ser para mejorar la precisión en este extremadamente invasiva del sistema”, dijo Malkia Cirilo, fundador y director ejecutivo de MediaJustice, un nacional de justicia racial de la organización de avance de los medios de comunicación y la tecnología de los derechos. “En el contexto de los prejuicios raciales en el sistema jurídico penal y en la lucha contra el terrorismo, no debe ser la meta de uno para hacer que la tecnología sea fácil de usar en contra de la gente de color – negro especialmente, AMEMSA [Árabe, de Oriente Medio, el Musulmán y el Sur de Asia], las comunidades y las personas sin papeles.”

“Esto es totalmente inaceptable conducta de Google contratista. Es por eso que la manera de AI se construyen hoy en día tiene que cambiar,” dijo Jake Nieve, un abogado de la ACLU del Norte de California. “La respuesta a la algorítmica sesgo no es para llegar a los más vulnerables.”

“Si es racista porque es exacta o porque es inexacta, reconocimiento facial y biométricos herramientas en general de combustibles de los prejuicios raciales”, dijo Cyril. “Ninguna cantidad de dinero o el consentimiento informado es suficiente para producir un débilmente regulado tecnología ya está siendo utilizada para violar los derechos humanos de millones de personas.”

This content was originally published here.

EL 2 DE JUNIO DEL 2024 VOTA PARA MANTENER

TU LIBERTAD, LA DEMOCRACIA Y EL RESPETO A LA CONSTITUCIÓN.

VOTA POR XÓCHITL