Ciudades del futuro

“Me preocupa más la estupidez humana que la inteligencia artificial”

Cuando La Vanguardia entrevistó por primera vez a Ramón López de Mántaras, en la época en que el ordenador Deep Blue derrotó por primera vez al entonces campeón mundial de ajedrez, Garri Kasparov, hablaba con entusiasmo y con esperanza sobre el futuro de la inteligencia artificial. En su nuevo libro, 100 coses que cal saber sobre la intel·ligència artificial (Ed. Cossetània), publicado esta semana, transmite inquietud.

¿Por qué es más pesimista ahora?

Entonces la situación era muy distinta. Éramos muchas menos personas trabajando en este campo y había muchísimo por hacer. Teníamos una actitud esperanzadora e ilusionada. La ilusión no se ha perdido. Pero vemos con inquietud algunos de los impactos sociales y geopolíticos de la inteligencia artificial.

Ramon López de Mántaras 

Hablemos de lo que más inquieta a los ciudadanos. ¿Se quedará gran parte de la población sin trabajo?

Nadie tiene la respuesta. Muchas veces se habla de puestos de trabajo, creo que es un error. Hay que hablar de tareas dentro de un puesto de trabajo. Algunas tareas serán sustituidas por máquinas, otras no. Por ejemplo, detectar patrones en una radiografía es algo que una máquina puede hacer bien. Pero un radiólogo hace mucho más que detectar patrones.

¿La inteligencia artificial amenaza la supervivencia de la humanidad?

Para mí esta es una opinión completamente errónea. Da a entender que habrá superinteligencias que nos superarán en todo. ¿Por qué tomarían la decisión de extinguir la humanidad o de esclavizarnos? La inteligencia artificial no tiene objetivos propios, somos nosotros los que le damos objetivos. Es cierto que le podemos llevar a tomar decisiones contraproducentes. Pero de todas las posibles causas de extinción de la humanidad, para mí la inteligencia artificial está muy hacia la cola. Me preocupan mucho más el cambio climático y los conflictos bélicos.

¿Entonces cuáles son los riesgos de la IA que le preocupan?

Tenemos ya bastantes riesgos encima de la mesa. Por ejemplo, el impacto de los grandes modelos de lenguaje [como ChatGPT] que generan multitud de falsedades. Se pueden generar imágenes, vídeos, textos de manera malintencionada, y crear conflictos, crear tensiones a nivel social o influir en elecciones democráticas. Esto para mí es un riesgo importantísimo y no tiene solución técnica.

¿Algún otro riesgo importante?

Que la capacidad de hacer todo esto está en las manos de unos pocos, de unas grandes empresas tecnológicas, cinco o seis, que tienen más poder que muchos estados y que son los que están marcando las pautas de hacia dónde va la inteligencia artificial. Y lo que además es contradictorio es que algunos de ellos se presentan como posibles salvadores de todos estos problemas.

¿En quién está pensando?

En Elon Musk. O en Sam Altman de OpenAI [la empresa de ChatGPT], que va diciendo “cuidado, que todo esto es muy peligroso, pero yo no, yo soy buena persona, confiad en mí para que yo pueda evitar estos peligros”. Esto es muy perverso, porque lo que le interesa es el beneficio de su empresa. Lo que está haciendo es intentar que se regule con el fin de cortar las alas al código abierto. Porque ya han surgido alternativas a los grandes modelos de lenguaje en código abierto, o sea, desarrollados de manera colaborativa, y creo que les asusta perder cuota de mercado.

¿Qué le preocupa más, la inteligencia artificial o la estupidez humana?

Mucho más la estupidez humana. El problema no es el monstruo de Frankenstein, el problema es el doctor Frankenstein que crea el monstruo.

¿Quiere decir que la IA puede ser nuestro Frankenstein, el monstruo humanizado que escapa al control de sus creadores?

En ciertos casos, lo podríamos decir. Pero, si escapa al control, no será porque la inteligencia artificial tenga objetivos, deseos y creencias propias. Será porque hay personas que lo provocan, que están interesadas en que esto ocurra. Una máquina no tiene agencia moral, las personas son responsables últimas de todo.

Ramon López de Mántaras, con el libro que acaba de publicar, en el Instituto de Investigación en Inteligencia Artificial del CSIC

¿Adopta algún tipo de precaución particular al interactuar con la inteligencia artificial como ciudadano?

Procuro hacer lo que llamo una dieta digital. Pienso que estamos digitalizando mal, que estamos expulsando del sistema a muchísima gente, no solo por cuestiones de edad, sino también económicas. Y la propia administración pública lo está haciendo muy mal, al no dar prácticamente alternativas no digitales para muchas gestiones.

¿En qué consiste su dieta digital?

En pasar muchas más horas en el mundo analógico. Es decir, hablar cara a cara con las personas, pocas redes sociales, utilizar las máquinas con sentido común… Si tengo que buscar una información y Wikipedia me puede ser útil, la utilizo. Pero no lo voy a buscar todo digitalmente. También intento guardar al máximo mi privacidad deshabilitando cookies, diciendo que no a los permisos para saber lo que estás haciendo y detectar tu perfil…

¿Prefiere navegar en modo incógnito?

Sí, absolutamente. Si accedo a Wikipedia, me da igual. Pero muchas veces uso el modo incógnito.

¿Tapa la cámara para evitar el reconocimiento facial?

Generalmente sí. Si hago una reunión por videoconferencia, entonces normalmente no la tapo, porque tengo una cierta confianza. Pero, si no, sí que la tapo.

¿Alguna prevención particular a la hora de hacer compras?

Hago muy pocas compras por internet. Hay un aspecto de privacidad, porque lo que compras es una información importante sobre tus preferencias. Pero también porque es parte de la dieta digital. Me gusta más ir a comprar un libro a una librería e interactuar con las personas que comprarlo por internet. Este elemento de socialización para mí es importante.

¿Se deja geolocalizar?

Generalmente no. Por privacidad. Obviamente, si creo que me va a facilitar las cosas para llegar antes a mi destino o ver dónde hay un párking o una gasolinera, tengo que habilitar la ubicación. Pero lo hago solo para casos muy concretos.

¿Qué soluciones propone para proteger las aplicaciones positivas de la IA y limitar las negativas?

Siempre que se pueda, utilizar el recurso de la educación y la información. Los futuros ingenieros por lo menos tienen que ser capaces de plantearse: “esto es factible tecnológicamente, ¿pero debo hacerlo?”.

¿No cree que esto Musk y Zuckerberg ya se lo han planteado?

No lo creo. Siguen otra máxima. Haz las cosas rápido aunque las rompas. El problema es que las cosas que rompes pueden ser vidas.

¿Alguna otra solución si con la educación no basta?

La otra es una regulación bien hecha, que venga de abajo hacia arriba, donde todos los interesados sean consultados, y no que venga desde media docena de grandes plataformas tecnológicas. El modelo que está haciendo la Unión Europea con el AI Act va por el buen camino, porque se está consultando a una enorme cantidad de personas que pueden estar afectadas por las aplicaciones de la inteligencia artificial. No creo que esta regulación pueda retrasar el avance tecnológico en Europa, como dicen algunos. Al contrario, puede ser un valor añadido porque puedes decir ”mi producto es más confiable”. Es como comprar un medicamento que haya pasado todos los controles. El hecho de que una inteligencia artificial esté regulada y certificada puede ser una ventaja a nivel de mercado.

This content was originally published here.

EL 2 DE JUNIO DEL 2024 VOTA PARA MANTENER

TU LIBERTAD, LA DEMOCRACIA Y EL RESPETO A LA CONSTITUCIÓN.

VOTA POR XÓCHITL