Bill Gates cree que no es suficiente con que la IA aprenda conceptos, debe saber cómo aplicarlos
El millonario apuesta por la metacognición: una IA que sea consciente de su propio conocimiento como "la gran frontera para la Inteligencia Artificial General
Un loro estocástico avanzado. Hace algunos días, el millonario filántropo reflexionaba en el podcast Next Big Idea Club sobre el futuro de la IA y cómo imaginaba su evolución. Gates afirmaba estar realmente impresionado con la rápida evolución que ha tenido esta tecnología, y reconoció su potencial transformador en todos los ámbitos.
A su vez, del magnate de la tecnología reconocía que el concepto actual de los modelos de IA como ChatGPT o Llama, carecían de sofisticación por tratarse de un comportamiento no determinista. Es decir, que no va a hacer nada inesperado sobre nada que no se le haya enseñado previamente, limitándose a ser loros estocásticos que repiten con cierta coherencia lo que se les ha enseñado con millones de datos.
La metacognición es el futuro. Pese a gran revolución que supone en términos de automatización de procesos, el millonario reconoce que estos modelos carecen de dimensiones completas de pensamiento que los humanos damos por sentado. Por eso, apunta a que la nueva frontera a alcanzar es la "metacognición", en referencia a un sistema que sea consciente de su propio pensamiento.
Esa consciencia de su propio conocimiento es lo que permite a los humanos adquirir conocimientos y aplicarlos de formas distintas para llegar a resultados diferentes, en lugar de llegar siempre a la misma conclusión “aprendida”.
No imitar el conocimiento, aprender a aplicarlo. Según Gates, la metacognición es “el Santo Grial” para que la IA sea mucho más que un simple asistente para mejorar nuestras capacidades que nos convierta en “superhumanos”.
Bill Gates afirma que los modelos de IA actuales: “Simplemente se trata de generar a través de la computación constante cada token y secuencia, y es alucinante que eso funcione”. Sin embargo, el millonario opina que la actual estrategia cognitiva de los LLM debería, “pensar en los problemas en un sentido amplio”.
"[Los LLM actuales] No dan un paso atrás como un humano y piensa: ‘Está bien, voy a escribir este artículo y esto es lo que quiero cubrir; bien, pondré algo de texto aquí, y esto es lo que quiero hacer para el resumen'", afirmaba Bill Gates en su entrevista.
Un par de evoluciones más y tendremos un problema. Gates opina que los modelos actuales todavía van a evolucionar un par de generaciones más, mostrando una mejora exponencial en sus respuestas, pero no hará más que mejorar en esa capacidad de aprendizaje sobredimensionando sus datos de entrenamiento y su potencia de cómputo. Pero no abordará su principal inconveniente: la fiabilidad y la precisión.
El millonario tecnológico cree que la IA “metacognitiva” del futuro debería tener la capacidad de decir “Bien, ¿qué importancia tiene esto? ¿Cómo podría comprobar mi respuesta y qué herramientas externas me ayudarían?”, aseguraba Gates en su intervención. “Esa es la gran frontera para la Inteligencia Artificial General.
La “Aristotelización” de la IA. Dicho de otro modo, Gates opina que sería necesario que la inteligencia artificial fuera capaz de desgranar un problema de forma amplia para ver todas sus variables y volver a recomponerlo para ofrecer una nueva solución creativa que nadie le ha enseñado pero está basada en certezas, no en alucinaciones.
Es un proceso metal similar al que planteaba Aristóteles en su planteamiento de resolución de problemas del Pensamiento de los primeros principios, un proceso de análisis que han empleado Elon Musk o Jeff Bezos para resolver distintos problemas a los han hecho frente, a los que nadie antes había dado una solución satisfactoria.
Font, article de Rubén Andrés per a "Xakata"
No hay comentarios:
Publicar un comentario