Ciudades del futuro

Suspenden a un ingeniero de Google por afirmar que la inteligencia artificial que ayudó a crear siente emociones

Un ingeniero de Google fue suspendido de su empleo tras afirmar que el programa de chatbot de la compañía, llamado LaMDA y desarrollado con la inteligencia artificial (AI), tiene vida propia.

Blake Lemoine, que estudió ciencias cognitivas e informáticas, inició el pasado otoño una conversación con LaMDA para comprobar si la inteligencia artificial usaba discursos discriminatorios o de odio.

Mientras hablaban sobre religión, el informático se dio cuenta de que el chatbot –un programa que simula conversaciones humanas– se refería a su condición como persona y tenía claro cuáles eran sus derechos.

En otra conversación, la inteligencia artificial fue capaz de hacerle cambiar de opinión sobre la Tercera Ley de la Robótica, expuesta por el influyente escritor de ciencia ficción Isaac Asimov, considerado el padre de la robótica.

Esa tercera ley dice que “un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley”. La Primera Ley dice que “un robot no puede hacerle daño a un ser humano”, por acción o inacción. La Segunda dice que “un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley”.

“Si no hubiera sabido exactamente lo que es, que es este programa informático que hemos creado recientemente, pensaría que se trata de un niño de 7 u 8 años que casualmente sabe de física”, contó Lemoine, de 41 años.

El ingeniero trabajó estrechamente con un compañero para demostrar que LaMDA tiene sentimientos, pero su idea no convenció a los responsables de Google.

“Nuestro equipo –que incluye a éticos y tecnólogos– revisó las preocupaciones de Blake según nuestros principios de IA y le informaron que las pruebas no apoyan sus afirmaciones. Se le comunicó que no había pruebas de que LaMDA fuera sensible (y sí había muchas pruebas en contra)”, explicó el portavoz de la compañía, Brian Gabriel, en un comunicado citado por el diario The Washington Post.

“Aunque otras organizaciones han desarrollado y ya han publicado modelos lingüísticos similares, estamos adoptando un enfoque comedido y cuidadoso con LaMDA para considerar mejor las preocupaciones válidas sobre la imparcialidad y la facticidad”, añadió Gabriel.

Además de no compartir las afirmaciones de Lemoine, Google decidió suspenderlo y ponerlo bajo licencia administrativa con sueldo.

El avance de la tecnología y la perfección de la inteligencia artificial han abierto el debate sobre la posibilidad de que las máquinas diseñadas por el hombre para reproducir conversaciones humanas puedan realmente sentir algún tipo de emoción.

“Por supuesto, algunos en la comunidad de la IA más amplia están considerando la posibilidad a largo plazo de una IA con sentimientos, pero no tiene sentido hacerlo antropomorfizando [dando características humanas] los actuales modelos conversacionales, que no son sintientes”, reflexionó el portavoz de Google.

Unos padres demandan a Meta por el uso adictivo de Instagram de su hija menor de edad

“Estos sistemas imitan los tipos de intercambios que se encuentran en millones de frases y pueden reproducir cualquier tema fantasioso”, agregó.

Lemoine dedicó la mayoría de sus siete años en Google trabajando en la llamada búsqueda proactiva, que incluye los algoritmos de personalización y la IA.

Durante ese tiempo, ayudó a desarrollar un algoritmo de equidad para eliminar el sesgo de los sistemas de aprendizaje automático. Cuando estalló la pandemia del coronavirus, quiso centrarse en una actividad que beneficiaría al usuario directamente y terminó en el departamento de IA Responsable.

This content was originally published here.

EL 2 DE JUNIO DEL 2024 VOTA PARA MANTENER

TU LIBERTAD, LA DEMOCRACIA Y EL RESPETO A LA CONSTITUCIÓN.

VOTA POR XÓCHITL