Diferencias entre la IA y el aprendizaje humano
Los modelos de inteligencia artificial (IA) desarrollados recientemente son capaces de muchas hazañas impresionantes, incluido el reconocimiento de imágenes y la producción de un lenguaje similar al humano. Pero el hecho de que la IA pueda realizar comportamientos similares a los humanos no significa que pueda pensar o entender como los humanos.
Un concepto erróneo generalizado.
Los desarrollos en IA han producido sistemas que pueden realizar comportamientos muy similares a los humanos. El modelo de lenguaje GPT-3 puede producir texto que a menudo es indistinguible del habla humana. Otro modelo, PaLM, puede producir explicaciones para chistes que nunca antes había visto.
Más recientemente, se ha desarrollado una IA de propósito general conocida como Gato que puede realizar cientos de tareas, que incluyen subtítulos de imágenes, responder preguntas, jugar videojuegos de Atari e incluso controlar un brazo robótico para apilar bloques. Y DALL-E es un sistema que ha sido entrenado para producir imágenes e ilustraciones modificadas a partir de una descripción de texto.
Estos avances han llevado a algunas afirmaciones audaces sobre la capacidad de dicha IA y lo que puede decirnos sobre la inteligencia humana.
Por ejemplo, Nando de Freitas, investigador de la compañía de inteligencia artificial de Google DeepMind, argumenta que ampliar los modelos existentes será suficiente para producir inteligencia artificial a nivel humano. Otros se han hecho eco de esta opinión.
En toda la emoción, es fácil asumir que el comportamiento humano significa una comprensión similar a la humana. Pero hay varias diferencias clave entre la forma en que la IA y los humanos piensan y aprenden.
Redes neuronales vs el cerebro humano.
La IA más reciente se construye a partir de redes neuronales artificiales, o "redes neuronales" para abreviar. El término "neuronal" se usa porque estas redes están inspiradas en el cerebro humano, en el que miles de millones de células llamadas neuronas forman complejas redes de conexiones entre sí, procesando información a medida que disparan señales de un lado a otro.
Las redes neuronales son una versión altamente simplificada de la biología. Una neurona real es reemplazada por un nodo simple, y la fuerza de la conexión entre los nodos está representada por un solo número llamado "peso".
Con suficientes nodos conectados apilados en suficientes capas, las redes neuronales pueden ser entrenadas para reconocer patrones e incluso "generalizar" a estímulos que son similares (pero no idénticos) a lo que han visto antes. Simplemente, la generalización se refiere a la capacidad de un sistema de IA para tomar lo que ha aprendido de ciertos datos y aplicarlo a nuevos datos.
Ser capaz de identificar características, reconocer patrones y generalizar a partir de los resultados se encuentra en el corazón del éxito de las redes neuronales, e imita las técnicas que los humanos usan para tales tareas. Sin embargo, hay diferencias importantes.
Las redes neuronales suelen ser entrenadas por "aprendizaje supervisado". Por lo tanto, se les presentan muchos ejemplos de una entrada y la salida deseada, y luego gradualmente los pesos de conexión se ajustan hasta que la red "aprende" a producir la salida deseada.
Para aprender una tarea lingüística, una red neuronal puede presentarse con una oración una palabra a la vez, y aprenderá lentamente a predecir la siguiente palabra en la secuencia.
Esto es muy diferente de cómo los humanos suelen aprender. La mayoría del aprendizaje humano es "no supervisado", lo que significa que no se nos dice explícitamente cuál es la respuesta "correcta" para un estímulo dado. Tenemos que resolver esto nosotros mismos.
Por ejemplo, a los niños no se les dan instrucciones sobre cómo hablar, sino que aprenden esto a través de un complejo proceso de exposición al habla, la imitación y la retroalimentación de los adultos.
Otra diferencia es la gran escala de datos utilizados para entrenar a la IA. El modelo GPT-3 fue entrenado en 400 mil millones de palabras, en su mayoría tomadas de Internet. A un ritmo de 150 palabras por minuto, a un ser humano le tomaría casi 4.000 años leer tanto texto.
Tales cálculos muestran que los humanos no pueden aprender de la misma manera que lo hace la IA. Tenemos que hacer un uso más eficiente de cantidades más pequeñas de datos.
Las redes neuronales pueden aprender de maneras que nosotros no podemos.
Una diferencia aún más fundamental se refiere a la forma en que las redes neuronales aprenden. Para hacer coincidir un estímulo con una respuesta deseada, las redes neuronales utilizan un algoritmo llamado "retropropagación" para pasar los errores hacia atrás a través de la red, lo que permite que los pesos se ajusten de la manera correcta.
Sin embargo, los neurocientíficos reconocen ampliamente que la retropropagación no se puede implementar en el cerebro, ya que requeriría señales externas que simplemente no existen.
Algunos investigadores han propuesto que las variaciones de la retropropagación podrían ser utilizadas por el cerebro, pero hasta ahora no hay evidencia de que los cerebros humanos puedan usar tales métodos de aprendizaje.
En cambio, los humanos aprenden haciendo conceptos mentales estructurados, en los que muchas propiedades y asociaciones diferentes están vinculadas entre sí. Por ejemplo, nuestro concepto de "plátano" incluye su forma, el color amarillo, el conocimiento de que es una fruta, cómo sostenerlo, etc.
Hasta donde sabemos, los sistemas de IA no forman un conocimiento conceptual como este. Se basan completamente en extraer asociaciones estadísticas complejas de sus datos de entrenamiento y luego aplicarlas a contextos similares.
Se están realizando esfuerzos para construir una IA que combine diferentes tipos de información (como imágenes y texto), pero queda por ver si esto será suficiente para que estos modelos aprendan los mismos tipos de representaciones mentales ricas que los humanos usan para comprender el mundo.
Todavía hay mucho que no sabemos sobre cómo los humanos aprenden, entienden y razonan. Sin embargo, lo que sí sabemos indica que los humanos realizan estas tareas de manera muy diferente a los sistemas de IA.
Como tal, muchos investigadores creen que necesitaremos nuevos enfoques y una visión más fundamental de cómo funciona el cerebro humano, antes de que podamos construir máquinas que realmente piensen y aprendan como los humanos.
No hay comentarios.