¿Cuánto durará la era de la “basura” de la IA?

Crédito…Ilustración de Ibrahim Rayintakath

Escritor de opinión

Estás leyendo el boletín de David Wallace-Wells, solo para suscriptores del Times.   El exitoso escritor y ensayista científico explora el cambio climático, la tecnología, el futuro del planeta y cómo vivimos en él. 

¿Recuerdan la época de la catástrofe de la IA? No hace mucho, en la primavera del año pasado, los nuevos chatbots fueron seguidos por varios “padrinos” de la tecnología, advirtiendo sobre el riesgo existencial; por investigadores que sugerían una probabilidad del 10 por ciento de extinción humana a manos de los robots; por ejecutivos que especulaban sobre futuras rondas de inversión tabuladas en billones de dólares.

Ahora, el ajuste de cuentas se está produciendo en términos muy diferentes. En una nota de Barclays, un analista advirtió que las inversiones actuales en IA podrían ser tres veces mayores que los rendimientos esperados, mientras que otro analista, en varias evaluaciones publicadas por Sequoia Capital, calculó que las inversiones en IA se estaban quedando por debajo de las ganancias proyectadas por un margen de al menos varios cientos de miles de millones de dólares anuales. (Llamó a esto “la pregunta de los 600 mil millones de dólares de la IA” y advirtió sobre la “incineración de inversiones”). En un informe igualmente pesimista de Goldman Sachs , el jefe de investigación de acciones globales de la firma estimó que el costo de la construcción de infraestructura de IA en los próximos años alcanzaría los 1 billón de dólares. “Reemplazar empleos de bajos salarios con tecnología tremendamente costosa es básicamente el polo opuesto de las transiciones tecnológicas anteriores que he presenciado”, señaló. “La pregunta crucial es: ¿Qué problema de 1 billón de dólares resolverá la IA?”

Hace una década, el capital de riesgo proporcionó a los estadounidenses el “subsidio al estilo de vida de los millennials”: ​​los inversores mantuvieron artificialmente bajos los precios de Uber, DoorDash y docenas de otros servicios durante años. Hoy, ese mismo millennial podría leer sobre ese gasto de un billón de dólares en inteligencia artificial, más de lo que Estados Unidos gasta anualmente en su ejército, y pensar: ¿A qué se destina exactamente ese dinero? ¿Para qué sirve la inteligencia artificial?

Una respuesta cada vez más intuitiva es “basura”. El neurocientífico Erik Hoel la ha llamado “contaminación de la IA”, y el físico Anthony Aguirre “ algo así como ruido ” y “escoria generada por la IA”. Más recientemente, ha inspirado un término neologístico más memorable de repulsión, “basura de la IA”: material a menudo extraño y frecuentemente engañoso, que ahora inunda los navegadores web y las plataformas de redes sociales como correo basura en bandejas de entrada viejas. Años después de la histeria nacional sobre la amenaza de la desinformación en Internet que nos imponen los malos actores, hemos caminado sonámbulos hacia una nueva Internet en la que la basura sin sentido y sin hechos se produce en masa y se nos alimenta a la fuerza mediante la IA.

Cuando Thomas Crooks intentó asesinar a Donald Trump, por ejemplo, la IA de X emitió toda una serie de temas de actualidad caricaturescamente falsos, entre ellos que había sido Kamala Harris la que había recibido el disparo.

Hace no mucho tiempo solíamos encontrar los mejores resultados en las búsquedas de Google, pero ahora podemos encontrar resúmenes de párrafos potencialmente plagiados y a menudo inexactos de las respuestas a nuestras consultas, incluyendo, según se dice, que solo 17 presidentes estadounidenses fueron blancos, que Barack Obama es musulmán y que Andrew Johnson, que se convirtió en presidente en 1865 y murió en 1875, obtuvo 13 títulos universitarios entre 1947 y 2012. También podemos leer que los geólogos aconsejan comer al menos una piedra al día, que se debe agregar pegamento Elmer’s a la salsa de pizza para espesarla y que es completamente genial correr con tijeras.

A veces, por supuesto, también se puede obtener información fiable; tal vez incluso la mayor parte del tiempo. Pero también se pueden recibir malos consejos sobre el TDAH, la quimioterapia, Ozempic… temas que pueden ser delicados. Y aunque Internet nunca fue del todo fiable, un avance que marcó una época en Google fue que nos acercó bastante a ella. Ahora, el director ejecutivo de la empresa reconoce que las alucinaciones son “inherentes” a la tecnología que ha celebrado como una especie de sucesora de los resultados de búsqueda ordenados por orden de importancia, que ahora suelen encontrarse muy por debajo no solo del resumen de IA, sino también de toda una pila de resultados “patrocinados”.

Pero no todas las IA son modelos de lenguaje de gran tamaño como ChatGPT, Gemini o Claude, cada uno de los cuales fue entrenado con cantidades asombrosamente grandes de texto para simular mejor la interacción con humanos y acercarlos a aproximaciones al pensamiento humano, al menos en teoría. Si apartamos la mirada de esos chatbots, podemos ver una historia muy diferente, con protagonistas robóticos diferentes: herramientas de aprendizaje automático entrenadas de manera mucho más específica y enfocadas menos en producir una interfaz conversacional en lenguaje natural que en procesar volcados de datos de manera mucho más eficiente de lo que las mentes humanas podrían jamás. Estos productos son menos inquietantes, lo que significa que han generado poca angustia existencial. También son, al menos por ahora, mucho más confiables y productivos.

Este mes, KoBold Metals anunció el mayor descubrimiento de nuevos yacimientos de cobre en una década: una mina de oro para energía verde, por así decirlo, realizada con la ayuda de su propia inteligencia artificial patentada, que integró información sobre partículas subatómicas detectadas bajo tierra con informes mineros de hace un siglo e imágenes de radar para hacer predicciones sobre dónde podrían encontrarse minerales críticos para la transición verde. El aprendizaje automático puede ayudar a que nuestra red eléctrica sea hasta un 40 por ciento más eficiente en el suministro de energía que hoy, cuando muchas de sus decisiones de ruta las toman humanos individuales sobre la base de la experiencia y la intuición. (En algunos puntos cruciales, la inteligencia artificial ha reducido el tiempo de decisión de 10 a un minuto). Ya ha ayudado a reducir el costo y aumentar el rendimiento de las baterías de próxima generación y las células solares fotovoltaicas, cuyo rendimiento también se puede mejorar, incluso después de que los paneles se hayan fabricado e instalado en su techo, hasta en un 25 por ciento. Nuestros modelos de derretimiento de la capa de hielo y degradación de la selva tropical también son mucho más precisos ahora.

Cuando en 2021 DeepMind reveló que había resuelto eficazmente el problema del plegamiento de las proteínas, haciendo que la estructura tridimensional de los componentes básicos biológicos fuera fácilmente predecible por primera vez para los investigadores, el avance se convirtió en noticia mundial, aunque los titulares pasaron desapercibidos para la mayoría de los lectores, que tal vez no sabían lo importante que ha sido este obstáculo en la investigación biomédica. Unos años más tarde, la IA está diseñando nuevas proteínas, acelerando rápidamente el descubrimiento de fármacos y acelerando los ensayos clínicos que prueban nuevos medicamentos y terapias.

Hace un año, cuando los normies apenas estaban jugando con los chatbots, ya había docenas de fármacos desarrollados en parte por IA en esos ensayos. La cantidad es mucho mayor hoy, ya sea que elijas estar impresionado por el desempeño informado de ChatGPT en el LSAT o frustrado porque Claude no puede resolver problemas de lógica intuitivos para un niño de jardín de infantes (o incluso decirte de manera confiable si 9,11 es mayor que 9,9, como lo haría una calculadora de Windows 95).

De modo que, si una explicación de esta experiencia es que nos estamos ahogando en la “contaminación” de la IA, otra perspectiva es que también está ahogando muchas buenas noticias provenientes de la IA. Y tal vez se pueda extraer una perspectiva más optimista mediante una analogía con lo que los economistas llaman la “curva ambiental de Kuznets”, que sugiere que, a medida que las naciones se desarrollan, primero tienden a contaminar mucho más y luego, con el tiempo, a medida que se enriquecen, terminan contaminando menos.

Incluso en la descripción de la contaminación común y corriente, este marco tiene sus defectos, especialmente porque trata como automático un progreso eventual que siempre ha requerido luchas con uñas y dientes contra algunos actores malos muy tenaces. Resulta que la IA también está generando una gran cantidad de contaminación genuina: tanto Google como Microsoft, que se comprometieron en 2019 a alcanzar cero emisiones para 2030, en cambio han aumentado su huella de carbono en casi un 50 por ciento en el ínterin. Las mismas preocupaciones políticas sobre la propiedad y el control de las herramientas de IA, y cómo podrían utilizarse para fines dañinos o explotadores, siguen sin abordarse sistemáticamente. Y hay razones para sospechar que la “alucinación” puede ser un problema irresoluble para la IA generativa tal como la conocemos.

ANUNCIO

Fuente: https://www.nytimes.com
Ciudadano por México

Recent Posts