Ciudades del futuro

Es machine learning, no inteligencia artificial » Enrique Dans

Me ha gustado este artículo de John Naughton en The Guardian titulado «Machine-learning systems are problematic. That’s why tech bosses call them ‘AI’«, en el que trata uno de los temas en los que más insisto en mis cursos cuando hablo sobre machine learning: que la terminología «inteligencia artificial» o «AI» únicamente revela la ignorancia de quienes la utilizan, o su incapacidad, como enunció el bueno de Arthur C. Clarke en su Tercera Ley, para diferenciar una tecnología suficientemente avanzada de la magia. Habitualmente, suelo referirme al tema con una anécdota que convertí en generalización: utilizo siempre el término machine learning porque hace tiempo comprobé que cuando hablaba con algunos periodistas y surgía el término «inteligencia artificial», terminaban ilustrando la noticia con una imagen de un Terminator 🙂

En sus ejemplos sobre la forma en la que el lenguaje afecta nuestra percepción de las cosas, particularmente en un ámbito como el tecnológico en el que, en muchas ocasiones, la novedad del fenómeno permite la libertad de su manipulación en forma de «ingeniería lingüística», John menciona términos como el «compartir», que en la práctica quiere decir «permitir que una compañía almacene tu preferencia» o el «aceptar» cuando quieren decir «o dices que sí o renuncias a usarlo y te vas o otro sitio», entre otros. Pero el caso de la «inteligencia artificial» es todavía más interesante, porque en el término se incluyen cuestiones que aparentemente se quieren hacer pasar como «normales y naturales», cuando en la práctica son simplemente errores de cálculo, falta de precaución o descuido.

No, la «inteligencia artificial» como tal, en el sentido de «máquina inteligente», no existe. En su definición de diccionario, «programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico», la disciplina ha llegado, como sabemos, a ejecutar tareas relativamente complejas sujetas a una serie de reglas generalmente expresadas como restricciones, y así tenemos programas capaces de jugar al ajedrez, al Go, a videojuegos, a buscar rápido en una base de datos y simular una comprensión del lenguaje humano, o al poker, o más recientemente capaces de expresar ideas en forma de texto, de dibujos o de vídeo. ¿Quiere decir eso que tenemos máquinas inteligentes? En absoluto. Simplemente quiere decir que son capaces, tomando una serie de datos, de reproducir los patrones que generan un resultado concreto. En modo alguno esas máquinas pueden hacer más cosas que aquellas operaciones concretas para las que han sido programadas, ni mucho menos aún, adquirir una supuesta «conciencia». En ningún caso estamos todavía ahí, ni lo estaremos en mucho tiempo.

¿Cómo interpretar el machine learning? Simplemente, como procesos estadísticos avanzados. En ocasiones, mediante herramientas muy complejas, pero eso es todo. Con ese tipo de herramientas podemos avanzar, y mucho, en la automatización avanzada de procesos, hasta el punto de generar ventajas competitivas considerables o de reemplazar ventajosamente trabajos que antes desarrollaban personas. Pero se trata de eso, de estadística avanzada que nos permite procesar situaciones con infinidad de variables implicadas, detectar cualquier tipo de anomalía, clasificar, predecir, entender lenguaje natural, optimizar, etc. Herramientas con una potencia enorme y aplicables a muchísimos procesos, que en muchos casos nos sorprenden o hasta nos hacen sentir temor, pero que son simplemente eso: estadística avanzada y aplicada. Ni «inteligencia» como tal, que posee unas implicaciones de flexibilidad y plasticidad que el cerebro humano suele poseer y los algoritmos no, ni «artificial», en el sentido de que la estadística es una ciencia completamente natural y los algoritmos, por el momento, no han llegado a replicar la manera en la que la inteligencia se genera en el cerebro.

La inteligencia, en general, tiene que ver con la capacidad para tomar decisiones en un ámbito generalizado. Una máquina que juega al ajedrez puede ser muy buena jugando al ajedrez, porque en el fondo, el ajedrez es un juego de gestión probabilística de espacios combinatorios, pero no puede hacer otra cosa salvo que la entrenemos con otros datos e introduzcamos correctamente las reglas o restricciones correspondientes. Probablemente, muchas de las capacidades del cerebro humano para desarrollar inteligencia se deben al mecanismo de la sinapsis neuronal, que los científicos llevan mucho tiempo intentando replicar para obtener máquinas que supuestamente trabajen como nuestro cerebro, pero por el momento, la comparación entre las denominadas «redes neuronales» y el cerebro es puramente lingüística, y muy lejos de la realidad y de las capacidades a las que ello podría dar lugar.

¿Inteligencia artificial? ¿IA? Por el momento, simplemente un término ambiguo, confuso, sin ninguna ventaja especial con respecto al infinitamente más real y pragmático machine learning, y que, para terminar de hacerlo desaconsejable, lleva a muchos a creer que una máquina puede llegar a ser inteligente tal y como entendemos ese término aplicado a las personas, con todos los efectos potencialmente negativos que ello conlleva. Tras años echando la culpa al ordenador cuando algo no funciona, ahora nos dedicamos a echar la culpa al algoritmo cuando alguien lo utiliza sin haberlo sometido a las pruebas adecuadas. La cosa, parece, es poder echarle la culpa a algo…

This article is also available in English on my Medium page, «What’s the difference between machine learning and artificial intelligence?»

This content was originally published here.