Tecnología e innovación

“Blanco. Negro. Ataque. Amenaza”: cuando la IA cree por error que el ajedrez es racista – Periodismo . com

Los algoritmos no median con nadie. Algunos expertos dicen que hay pocas cosas en este mundo más confiables, más neutrales y menos ‘sesgados’ que un buen algoritmo. También ejercen como la policía de Internet, y quien ose interponerse entre ellos puede ser eliminado en cuestión de milisegundos.

El problema es que algunas veces pueden equivocarse. Bueno, realmente no equivocarse en el sentido de cometer errores, sino que pueden creer que sus acciones son las correctas cuando no lo son. Al final, detrás de ellos siempre está la mano del ser humano. Y ese tipo de confusiones tiene, como es obvio, consecuencias en los usuarios.

Ahora imagínate a un ordenador analizando un vídeo de ajedrez: “Blancas atacan, blanca mata a negra, las negras están amenazadas. Negra se come a blanca”. ¿Puede resultar confuso si no se conoce bien el contexto, verdad?

This content was originally published here.

EL 2 DE JUNIO DEL 2024 VOTA PARA MANTENER

TU LIBERTAD, LA DEMOCRACIA Y EL RESPETO A LA CONSTITUCIÓN.

VOTA POR XÓCHITL