viernes, 26 de julio de 2024

Melanie Mitchel: "Me preocupa la inteligencia artificial, pero me preocupa más que los humanos la utilicen mal... temo más a Elon Musk que a Skynet"

 


La matemática estadounidense propone un análisis realista del avance tecnológico en su libro: 'IA: Guía para seres pensantes'. "Me alegra que una máquina sea incapaz de entrevistarme"


Hubo un tiempo en que las computadoras fueron de carne y hueso. Así eran conocidas las personas, en su mayoría mujeres, que durante la Segunda Guerra Mundial realizaban cálculos a mano o con calculadoras mecánicas para diseñar la trayectoria de los misiles y ayudar a los soldados de artillería a apuntar sus cañones. Poco después, a mediados de los 40, la invención de computadoras electrónicas, que eran capaces de calcular la trayectoria de un proyectil muy veloz con más rapidez de la que tenía el propio proyectil, dejaron sin empleo a aquellas mujeres. Fue la primera de los muchos reemplazos por venir.

Y, sin embargo, 80 años después, la inteligencia humana sigue siendo insustituible. Hasta el punto de que un gigante tecnológico como Amazon dispone de un servicio con el risueño nombre de Amazon Mechanical Turk que se presenta como un "mercado para trabajos que requieren inteligencia humana". En él, cientos de miles de personas de todo el mundo ofrecen sus servicios para, por ejemplo, entrenar a una IA en el reconocimiento de objetos, una tarea tan sencilla para nuestra especie como ardua para las máquinas. Recuerden la historia del turco mecánico, aquel autómata que se convirtió en un fenómeno de masas en el siglo XIX ganando al ajedrez a Napoleón... hasta que se descubrió al humano escondido en su interior.

A la científica estadounidense Melanie Mitchell (Los Ángeles, 1969) le gusta citar una frase de Pedro Domingos, investigador de IA de origen portugués: "A la gente le preocupa que los ordenadores se vuelvan demasiado inteligentes y se apoderen del mundo, pero el verdadero problema es que son demasiado estúpidos y ya se han apoderado del mundo». La catedrática de la Complejidad del Santa Fe Institute de Nuevo México (EEUU) acaba de publicar Inteligencia Artificial. Guía para seres pensantes (Capitán Swing), un libro tanto para expertos como para neófitos donde, con una claridad y un humor envidiables, analiza de forma realista la situación actual de las máquinas pensantes y las posibilidades de que dejen atrás a nuestra especie en los próximos años.

A mediados de los 80, Mitchell era una recién licenciada en Matemáticas que no sabía muy bien qué hacer a continuación cuando cayó en sus manos el libro que embrujó a toda una generación de frikis de la informática, Gödel Escher Bach: un eterno y grácil bucle, del legendario Douglas Hofstadter. Sus páginas recogían el guante de las preguntas que Alan Turing, el pionero de los ordenadores, había planteado mucho tiempo atrás. ¿Podrían algún día volverse inteligentes las máquinas? ¿Superarían las propias capacidades intelectivas humanas? ¿Llegarían a crear arte, a componer una melodía o escribir un poema? Hofstadter, como Turing, respondía que sí, pero que aún faltaba mucho para algo así.

En Inteligencia artificial, Melanie Mitchell coincide con su maestro y se podría decir que está escrito para tranquilizarlo después de los revolucionarios progresos vividos en el campo de la IA los últimos años. Pero como lo publicó en inglés justo inmediatamente antes de la irrupción del ChatGPT de Open AI, cuando comencemos la conversación por videoconferencia, nos vemos obligados a preguntarle si se mantiene firme en su escepticismo, si sigue pensando, como sentenció el socarrón Stephen Pinker: "Para contar con una IA de nivel humano siguen faltando entre quince y veinticinco años, como siempre".

Le pedimos a ChatGPT que preparara diez preguntas sobre su libro y el resultado fue tan pobre que las tiramos a la basura. Esta entrevista está preparada por una inteligencia completamente humana.

¡Me alegra mucho! (Risas).

ChatGPT no escribe buenas preguntas, pero parece entender lo que hace. ¿Ha superado la barrera del significado, esa frontera crucial que, según explica en su libro, nos indicaría sin duda alguna que nos hallamos frente a una inteligencia como la nuestra?

Es una apreciación razonable a la vista de todo lo que está ocurriendo, pero yo me inclino a responder que no la ha superado. Es cierto que, como está entrenado precisamente en el lenguaje humano, en muchas ocasiones parece entender lo que está haciendo. Pero la mayor parte del tiempo exhibe una falta de comprensión en otros casos que realmente nos invita a pensar que de ninguna manera comprende el mundo como lo hacemos nosotros. Es increíble lo que ha conseguido, pero todavía hay muchas cosas que no entiende.

Una de las críticas más comunes que se le hacen a ChatGPT afirma que, en realidad, sólo es una gigantesca máquina de plagio que se alimenta, para regurgitarlo después, de trabajos previos escritos por humanos. Pero, a medida que en internet abunde cada vez más contenido generado por IA y la IA comience a copiarse a sí misma, ¿no empeorarán sus resultados?

Gran pregunta. Sabemos que ChatGPT ha sido entrenado con grandes cantidades de textos de internet, de libros, periódicos... Y todo parece indicar que, cuando comience a entrenarse por sí solo, el contenido que genera y su rendimiento serán cada vez peores hasta que acaben por colapsar. Por eso muchas empresas están investigando intensamente ahora mismo cómo hacer que el resultado generado por los grandes modelos de lenguaje resulte también útil para entrenar a otros grandes modelos de lenguaje. De si lo consiguen o no dependerá lo que ocurra cuando la red se llene de contenido generado por inteligencia artificial. Nadie sabe qué pasará entonces.


"Lo asombroso ha sido comprobar cómo una máquina es capaz de hablar sin estar dotada de inteligencia y sin comprender, en realidad, nada de lo que dice"

Su libro precede a ChatGPT y es cauteloso sobre el progreso de la IA. En las diez últimas preguntas que plantea al final, asegura, nada menos, que casi todos los problemas de la IA siguen sin resolverse. ¿Ha modificado su enfoque después de todo lo sucedido?

No, la mayor parte de los problemas siguen sin resolverse. Tal vez parezca que el problema de generar un lenguaje que suene fluido se ha resuelto en cierto sentido. Pero a mi modo de ver, no es así. Piénselo. Es mucho más probable que nosotros los humanos pensemos que algo que se comunica con nosotros en un lenguaje fluido es inteligente, aunque realmente no lo sea. Proyectamos inteligencia en estos chatbots porque, según nuestra experiencia, todo lo que en el pasado ha generado lenguaje, asumimos que es inteligente. Así que realmente no tenemos ni una sola experiencia con sistemas que puedan ser inteligentes con fluidez. Lo asombroso ha sido comprobar cómo una máquina es capaz de hablar con nosotros sin estar dotada de inteligencia y sin comprender, en realidad, nada de lo que dice. Quedan muchos retos aún pendientes, la IA no es de ninguna manera una tarea resuelta.

¿Douglas Hofstadter sigue aterrorizado por los rápidos progresos de la IA, como relata en su libro?

Sí, ChatGPT lo aterrorizó aún más. Sin embargo, su terror es distinto al de muchas otras personas quienes temen que estos sistemas se vuelvan más inteligentes que los humanos y eventualmente se conviertan en nuestros amos. Pero Hofstadter parece estar mucho más preocupado por cómo podrían alterar los aspectos que él más valora de la humanidad. Le inquieta profundamente que puedan afectar nuestro potencial artístico y creativo, nuestra capacidad de generar música y arte hermosos. Teme que estas cualidades humanas podrían ser replicadas de manera superficial, mediante trucos baratos, lo que desvirtuaría su verdadera esencia. Es una preocupación genuina y compleja, más allá del simple miedo a una dominación tecnológica que tiene que ver con la preservación de la autenticidad de nuestras expresiones más sublimes y significativas.

Resumamos el campo de batalla. Por un lado, están quienes como John Searle, (o su propia madre, según confiesa en el libro), afirman que una Inteligencia Artificial General humana es imposible, porque no es lo mismo tener una mente que simularla. ¿Pero estamos seguros de que tenemos una mente? ¿No es el yo en realidad una ficción adaptativa?

Está usted adentrándose en terrenos de la filosofía. Esto nos lleva al problema de las definiciones fundamentales. ¿Qué significa tener una mente? ¿Qué significa tener un yo? Son preguntas sobre las que los filósofos han debatido durante siglos sin llegar a una conclusión definitiva. Personalmente, no coincido con John Searle. ¡Ni con mi madre! (Risas) No creo que haya algo intrínsecamente especial en nuestra mente o en nuestro ser que sea, en principio, imposible de mecanizar. Sin embargo, también pienso que la complejidad de estos aspectos es mayor de lo que algunas personas imaginan. La tarea de replicar la mente humana y la esencia del ser en una máquina no es sencilla y probablemente implique desafíos y sutilezas que aún no comprendemos por completo. Esta discusión no solo toca los límites de la tecnología, sino también la esencia de lo que significa ser humano. ¿Podemos realmente capturar la profundidad de la experiencia humana en algoritmos y circuitos? Es un tema fascinante que seguirá siendo objeto de intenso debate.

¿Qué significa tener un yo? No creo que haya algo intrínsecamente especial en nuestra mente o en nuestro ser que sea, en principio, imposible de mecanizar"

Por otro lado, hay quienes afirman, como Ray Kurzweil, que la IA general es inevitable, está muy cerca y dan fechas concretas. Por cierto, Kurzweil acaba de publicar un nuevo libro sobre todo esto. ¿'La Singularidad' es una hipótesis científica y llegará en 2030? ¿O es sólo la religión de Silicon Valley?

Existe una noción de IA general o AGI (Inteligencia General Artificial), que no ha sido definida con precisión y cuya definición ha cambiado con el tiempo. Por ejemplo, Marvin Minsky, uno de los pioneros de la IA, escribió en 1970 que en unos ocho años tendríamos inteligencia general, con máquinas capaces de leer a Shakespeare, pelear, engrasar un auto, doblar la ropa y realizar tareas de fontanería. Sin embargo, hoy en día, la noción de AGI se ha restringido a tareas cognitivas, olvidando las tareas físicas que resultan demasiado complejas. Este cambio en la definición refleja una especie de dualismo filosófico, la idea de que la parte cognitiva de nuestra inteligencia puede separarse de la parte física. Sin embargo, muchos en la ciencia cognitiva no están de acuerdo con esta separación. En mi opinión, no tendremos AGI para 2030, pero como la definición sigue cambiando, es difícil afirmarlo con certeza.

Afirma que el aprendizaje por transferencia es el mayor desafío de la IA. ¿No veremos pronto un robot que juegue al go y ponga el lavavajillas?

No.... y lo lamento porque sería genial que una IA me vaciara el lavavajillas. Pero, tal y como comentábamos, las tareas físicas han resultado ser mucho más difíciles para las máquinas que otras actividades como jugar al go, jugar al ajedrez o tener una conversación. Llevará un tiempo lograrlo, pero probablemente no ocurrirá tan pronto como nos gustaría.

Las páginas de su libro donde describe el reconocimiento de imágenes y explica el aprendizaje automático son fascinantes. Pero recuerda que ha sido muy difícil llegar hasta aquí y existen riesgos como los sesgos o la piratería. ¿No le parece a veces muy frágil el actual edificio de IA?

Sí, de hecho en el campo de la inteligencia artificial usamos la palabra «fragilidad» para describir la limitación de estos sistemas. Esto significa que, aunque los sistemas de IA pueden desempeñarse excepcionalmente bien en tareas similares a aquellas para las que han sido entrenados, a menudo no pueden generalizar sus conocimientos ni enfrentar situaciones novedosas. Por ejemplo, en el caso de los autos sin conductor, estos vehículos pueden funcionar de manera excelente la mayor parte del tiempo, pero también pueden cometer errores inesperados. Recientemente, hubo un caso en el que un automóvil autónomo se detenía y frenaba repetidamente sin razón aparente. El conductor finalmente notó que había un cartel con un anuncio en el que un funcionario sostenía una señal de alto. El coche no podía diferenciar entre un anuncio con una señal de alto y una señal de alto real. Además, en San Francisco, algunas personas han intentado engañar a los coches autónomos usando camisetas con señales de alto, y han tenido éxito. Este tipo de fragilidad es común en las máquinas. Aunque han sido entrenadas en muchas situaciones y pueden manejarlas bien, aún enfrentan dificultades para abordar situaciones novedosas de la misma manera que lo hacen los humanos.

Las tareas físicas han resultado ser mucho más difíciles para las máquinas que otras actividades como jugar al go, jugar al ajedrez o tener una conversación"

Mis mellizas acaban de cumplir ocho años. ¿Tendrán que sacarse el permiso de conducir o podrán ahorrárselo gracias a los coches autónomos?

Cada año se ha predicho que el siguiente será el año en que ya no necesitarás una licencia de conducir. Elon Musk ha hecho esta predicción anualmente, pero nunca se ha cumplido por varias razones. Una de ellas es la que mencionamos anteriormente: estos sistemas aún pueden cometer muchos errores. Además, hay otros factores, como la dificultad para determinar la responsabilidad en caso de un accidente. ¿A quién se culpa? ¿Quién debe contratar el seguro? La logística de todo esto es compleja. Por cierto, mencionó que sus mellizas tienen ocho años. En EEUU puedes tener una licencia de conducir desde los dieciséis

En España es a los 18 años.

No estoy segura, pero creo que el problema radica en que los autos autónomos tendrán limitaciones en cuanto a dónde pueden ir. A medida que esta tecnología avance, es probable que muchos de estos vehículos sean parcialmente controlados por humanos, de manera similar a los drones. Es decir, cuando el auto no sepa qué hacer, un humano podría tomar el control de forma remota. Sin embargo, prever lo que sucederá dentro de ocho o diez años es muy difícil. Por el momento, las predicciones no se han cumplido muy bien.

El año pasado, una carta de más de 1.000 expertos advirtió que la IA superinteligente podría acabar con la humanidad. Hay quien defiende que fue un teatro para no hablar del peligro real de la IA: su concentración en manos de las corporaciones. ¿Deberíamos temer más a Elon Musk que al Skynet de 'Terminator'?

Yo personalmente lo hago, sí. Temo a Elon Musk más que a Skynet. Este es un debate que ha estado presente durante algún tiempo, y claramente deberíamos preocuparnos por la seguridad de la IA. Sin embargo, ahora tengo una perspectiva más clara. Me preocupa mucho más que los humanos hagan mal uso de la IA, utilizándola para lograr fines dañinos. Además, como menciona, el poder se concentra en unas pocas grandes corporaciones, y siento que hay muy poca supervisión y escasa participación del público en general. Existe la noción de que estas grandes empresas son las únicas capacitadas para crear y desplegar IA de manera segura. Sin embargo, confiar en que las corporaciones se autorregulen nunca ha dado buenos resultados.

Font, article de Daniel Arjona per a "El Mundo"

No hay comentarios:

Publicar un comentario