Ciudades del futuro Tecnología e innovación

4 ideas sobre IA que incluso los “expertos” se equivocan » Que Nube – Noticias Virales, Tecnología y Tendencias

La historia de la inteligencia artificial ha estado marcada por ciclos repetidos de optimismo extremo y promesas seguidas de desilusión y decepción. Los sistemas de IA actuales pueden realizar tareas complicadas en una amplia gama de áreas, como matemáticas, juegos y generación de imágenes fotorrealistas. Pero algunos de los primeros objetivos de la IA, como los robots domésticos y los coches autónomos, continúan retrocediendo a medida que nos acercamos a ellos.

Parte del ciclo continuo de no alcanzar estos objetivos se debe a suposiciones incorrectas sobre la IA y la inteligencia natural, según Melanie Mitchell, profesora de complejidad de Davis en el Instituto Santa Fe y autora de Inteligencia artificial: una guía para los seres humanos pensantes.

En un nuevo artículo titulado «Por qué la IA es más difícil de lo que pensamos, ”Mitchell expone cuatro falacias comunes sobre la IA que causan malentendidos no solo entre el público y los medios, sino también entre los expertos. Estas falacias dan una falsa sensación de confianza sobre lo cerca que estamos de lograr Inteligencia artificial general, sistemas de IA que pueden igualar las habilidades cognitivas y de resolución de problemas generales de los seres humanos.

La IA estrecha y la IA general no están en la misma escala

El tipo de IA que tenemos hoy puede ser muy bueno en resolver problemas estrictamente definidos. Pueden superar a los humanos en Go y ajedrez, encontrar patrones cancerosos en imágenes de rayos X con una precisión notable y convertir datos de audio en texto. Pero diseñar sistemas que puedan resolver problemas individuales no necesariamente nos acerca a resolver problemas más complicados. Mitchell describe la primera falacia como «La inteligencia estrecha está en un continuo con la inteligencia general».

“Si la gente ve que una máquina hace algo asombroso, aunque en un área estrecha, a menudo asumen que el campo está mucho más avanzado hacia la IA general”, escribe Mitchell en su artículo.

Por ejemplo, hoy procesamiento natural del lenguaje Los sistemas han recorrido un largo camino hacia la solución de muchos problemas diferentes, como la traducción, generación de texto, y pregunta-respuesta sobre problemas específicos. Al mismo tiempo, tenemos sistemas de aprendizaje profundo que pueden convertir datos de voz en texto en tiempo real. Detrás de cada uno de estos logros hay miles de horas de investigación y desarrollo (y millones de dolares gastado en informática y datos). Pero la comunidad de IA aún no ha resuelto el problema de crear agentes que puedan participar en conversaciones abiertas sin perder coherencia durante largos períodos. Un sistema de este tipo requiere algo más que resolver problemas más pequeños; requiere sentido común, uno de los desafíos clave sin resolver de la IA.

Las cosas fáciles son difíciles de automatizar

Cuando se trata de humanos, esperaríamos que una persona inteligente haga cosas difíciles que requieren años de estudio y práctica. Los ejemplos pueden incluir tareas como resolver problemas de cálculo y física, jugar al ajedrez a nivel de gran maestro o memorizar muchos poemas.

Pero décadas de investigación en IA han demostrado que las tareas difíciles, aquellas que requieren atención consciente, son más fáciles de automatizar. Son las tareas fáciles, las cosas que damos por sentadas, las que son difíciles de automatizar. Mitchell describe la segunda falacia como «las cosas fáciles son fáciles y las cosas difíciles son difíciles».

«Las cosas que los humanos hacemos sin pensarlo mucho: mirar el mundo y dar sentido a lo que vemos, mantener una conversación, caminar por una acera llena de gente sin chocar con nadie, resultan ser los desafíos más difíciles para las máquinas». Mitchell escribe. “Por el contrario, a menudo es más fácil conseguir que las máquinas hagan cosas que son muy difíciles para los humanos; por ejemplo, resolver problemas matemáticos complejos, dominar juegos como el ajedrez y el Go, y traducir oraciones entre cientos de idiomas ha resultado ser relativamente más fácil para las máquinas «.

Considere la visión, por ejemplo. Durante miles de millones de años, los organismos han desarrollado aparatos complejos para procesar señales de luz. Los animales usan sus ojos para evaluar los objetos que los rodean, navegar por sus alrededores, encontrar comida, detectar amenazas y realizar muchas otras tareas que son vitales para su supervivencia. Los humanos hemos heredado todas esas capacidades de nuestros antepasados ​​y las usamos sin pensamiento consciente. Pero el mecanismo subyacente es de hecho más complicado que las grandes fórmulas matemáticas que nos frustran en la escuela secundaria y la universidad.

Caso en cuestión: todavía no tenemos visión por computador sistemas que son casi tan versátiles como la visión humana. Hemos logrado crear redes neuronales artificiales que imitan aproximadamente partes del sistema de visión animal y humano, como la detección de objetos y la segmentación de imágenes. Pero son frágiles, sensibles a muchos tipos diferentes de perturbaciones y no pueden imitar la alcance completo de las tareas que la visión biológica puede realizar. Por eso, por ejemplo, los sistemas de visión por computadora que se utilizan en los automóviles autónomos deben complementarse con tecnología avanzada, como lidars y datos cartográficos.

Otra área que ha demostrado ser muy difícil son las habilidades sensoriomotoras que los humanos dominan sin un entrenamiento explícito. Piense en cómo maneja los objetos, camina, corre y salta. Estas son tareas que puede realizar sin pensamiento consciente. De hecho, mientras camina, puede hacer otras cosas, como escuchar un podcast o hablar por teléfono. Pero este tipo de habilidades siguen siendo un desafío grande y costoso para los sistemas de IA actuales.

«La IA es más difícil de lo que pensamos, porque somos en gran parte inconscientes de la complejidad de nuestros propios procesos de pensamiento», escribe Mitchell.

Antropomorfizar la IA no ayuda

El campo de la IA está repleto de vocabulario que pone al software al mismo nivel que la inteligencia humana. Usamos términos como «aprender», «comprender», «leer» y «pensar» para describir cómo funcionan los algoritmos de IA. Si bien estos términos antropomórficos a menudo sirven como abreviatura para ayudar a transmitir complejos mecanismos de software, pueden engañarnos para pensar que los sistemas de IA actuales funcionan como la mente humana.

Mitchell llama a esta falacia «el señuelo de las nemotécnicas de los deseos» y escribe: «Tal taquigrafía puede ser engañosa para el público que intenta comprender estos resultados (y para los medios que informan sobre ellos), y también puede moldear inconscientemente la forma en que incluso los expertos en inteligencia artificial piensan sus sistemas y en qué medida se parecen estos sistemas a la inteligencia humana «.

La falacia de los mnemónicos de los deseos también ha llevado a la comunidad de IA a nombrar los puntos de referencia de evaluación de algoritmos de manera engañosa. Considere, por ejemplo, el Punto de referencia de evaluación de comprensión del lenguaje general (GLUE), desarrollado por algunas de las organizaciones e instituciones académicas más estimadas en IA. GLUE proporciona un conjunto de tareas que ayudan a evaluar cómo un modelo de lenguaje puede generalizar sus capacidades más allá de la tarea para la que ha sido entrenado. Pero al contrario de lo que describen los medios, si un agente de IA obtiene una puntuación GLUE más alta que un humano, no significa que sea mejor en la comprensión del lenguaje que los humanos.

«Si bien las máquinas pueden superar a los humanos en estos puntos de referencia particulares, los sistemas de inteligencia artificial aún están lejos de coincidir con las habilidades humanas más generales que asociamos con los nombres de los puntos de referencia», escribe Mitchell.

Un claro ejemplo de mnemotécnicas deseadas es un proyecto de 2017 en Facebook Artificial Intelligence Research, en el que los científicos capacitaron a dos agentes de inteligencia artificial para negociar en tareas basadas en conversaciones humanas. En su entrada en el blog, los investigadores señalaron que «la actualización de los parámetros de ambos agentes llevó a la divergencia del lenguaje humano como los agentes desarrollaron su propio lenguaje para negociar [emphasis mine]. «

Esto llevó a una serie de artículos de clickbait que advirtieron sobre los sistemas de inteligencia artificial que se estaban volviendo más inteligentes que los humanos y se comunicaban en dialectos secretos. Cuatro años después, los modelos de lenguaje más avanzados todavía luchan con comprender conceptos básicos que la mayoría de los humanos aprenden a una edad muy temprana sin ser instruidos.

IA sin cuerpo

¿Puede la inteligencia existir aislada de una rica experiencia física del mundo? Ésta es una cuestión que los científicos y filósofos han intrigado durante siglos.

Una escuela de pensamiento cree que la inteligencia está en el cerebro y puede separarse del cuerpo, también conocido como «cerebro en una tina”Teoría. Mitchell lo llama la falacia de que “la inteligencia está en el cerebro”. Con los algoritmos y datos correctos, se piensa, podemos crear IA que viva en servidores y coincida con la inteligencia humana. Para los defensores de esta forma de pensar, especialmente aquellos que Apoyar enfoques basados ​​en el aprendizaje profundo puro, llegar a la IA general depende de la recopilación de la cantidad correcta de datos y la creación de redes neuronales cada vez más grandes.

Mientras tanto, existe una creciente evidencia de que este enfoque está condenado al fracaso. «Un grupo creciente de investigadores está cuestionando la base del modelo de procesamiento de información ‘todo en el cerebro’ para comprender la inteligencia y para crear IA», escribe.

Los cerebros humanos y animales han evolucionado junto con todos los demás órganos del cuerpo con el objetivo final de mejorar las posibilidades de supervivencia. Nuestra inteligencia está estrechamente ligada a los límites y capacidades de nuestro cuerpo. Y hay un campo en expansión de AI encarnada que tiene como objetivo crear agentes que desarrollen habilidades inteligentes al interactuar con su entorno a través de diferentes estímulos sensoriales.

Mitchell señala que la investigación en neurociencia sugiere que “las estructuras neuronales que controlan la cognición están estrechamente vinculadas a las que controlan los sistemas sensoriales y motores, y que el pensamiento abstracto explota los ‘mapas’ neuronales basados ​​en el cuerpo”. Y, de hecho, hay cada vez más pruebas e investigaciones que demuestran la retroalimentación de diferentes áreas sensoriales del cerebro afectan tanto nuestros pensamientos conscientes como inconscientes.

Mitchell apoya la idea de que las emociones, los sentimientos, los prejuicios subconscientes y la experiencia física son inseparables de la inteligencia. “Nada en nuestro conocimiento de psicología o neurociencia respalda la posibilidad de que la ‘pura racionalidad’ sea separable de las emociones y los prejuicios culturales que dan forma a nuestra cognición y nuestros objetivos”, escribe. En cambio, lo que hemos aprendido de la investigación sobre la cognición incorporada es que la inteligencia humana parece ser un sistema fuertemente integrado con atributos estrechamente interconectados, que incluyen emociones, deseos, un fuerte sentido de identidad y autonomía, y una comprensión del mundo con sentido común. No está del todo claro que estos atributos puedan separarse «.

Sentido común en IA

El desarrollo de la IA general necesita una ajuste a nuestra comprensión de la inteligencia misma. Seguimos luchando por definir qué es la inteligencia y cómo medirla en seres artificiales y naturales.

“Está claro que para lograr y evaluar el progreso en IA de manera más efectiva, necesitaremos desarrollar un mejor vocabulario para hablar sobre lo que pueden hacer las máquinas”, escribe Mitchell. «Y de manera más general, necesitaremos una mejor comprensión científica de la inteligencia tal como se manifiesta en diferentes sistemas de la naturaleza».

Otro desafío que Mitchell analiza en su artículo es el del sentido común, que ella describe como «una especie de paraguas para lo que falta en los sistemas de IA de última generación».

El sentido común incluye el conocimiento que adquirimos sobre el mundo y lo aplicamos todos los días sin mucho esfuerzo. Aprendemos mucho sin que se nos instruya explícitamente, al explorar el mundo cuando somos niños. Estos incluyen conceptos como el espacio, el tiempo, la gravedad y las propiedades físicas de los objetos. Por ejemplo, un niño aprende a una edad muy temprana que cuando un objeto se ocluye detrás de otro, no ha desaparecido y continúa existiendo, o cuando una bola rueda por una mesa y llega a la repisa, debería caerse. Usamos este conocimiento para construir modelos mentales del mundo, hacer inferencias causales y predecir estados futuros con una precisión decente.

Este tipo de conocimiento falta en los sistemas de IA actuales, lo que los hace impredecibles y ávidos de datos. De hecho, la limpieza y la conducción, las dos aplicaciones de IA mencionadas al principio de este artículo, son cosas que la mayoría de los seres humanos aprenden a través del sentido común y un poco de práctica.

El sentido común también incluye hechos básicos sobre la naturaleza y la vida humana, cosas que omitimos en nuestras conversaciones y escritos porque sabemos que nuestros lectores y oyentes las conocen. Por ejemplo, sabemos que si dos personas están «hablando por teléfono», significa que no están en la misma habitación. También sabemos que si «Juan alcanzó el azúcar», significa que había un recipiente con azúcar dentro en algún lugar cerca de John. Este tipo de conocimiento es crucial para áreas como el procesamiento del lenguaje natural.

“Nadie sabe todavía cómo capturar ese conocimiento o habilidades en las máquinas. Esta es la frontera actual de la investigación de la IA, y una forma alentadora de avanzar es aprovechar lo que se sabe sobre el desarrollo de estas habilidades en los niños pequeños ”, escribe Mitchell.

Si bien todavía no conocemos las respuestas a muchas de estas preguntas, un primer paso para encontrar soluciones es ser consciente de nuestros propios pensamientos erróneos. “Comprender estas falacias y sus sutiles influencias puede apuntar a direcciones para crear más robustos, confiables y quizás realmente inteligente AI sistemas ”, escribe Mitchell.

Este artículo fue publicado originalmente por Ben Dickson en TechTalks, una publicación que examina las tendencias en tecnología, cómo afectan la forma en que vivimos y hacemos negocios, y los problemas que resuelven. Pero también discutimos el lado malo de la tecnología, las implicaciones más oscuras de la nueva tecnología y lo que debemos tener en cuenta. Puedes leer el artículo original aquí.

This content was originally published here.

EL 2 DE JUNIO DEL 2024 VOTA PARA MANTENER

TU LIBERTAD, LA DEMOCRACIA Y EL RESPETO A LA CONSTITUCIÓN.

VOTA POR XÓCHITL