martes, 24 de diciembre de 2024

Tras dos años usando ChatGPT he empezado a pedirle consejos personalizados. Claramente sabe demasiado sobre nosotros

 

Ya no es que ChatGPT recuerde nuestras interacciones. Es que construye un perfil psicológico tan preciso que va más allá de nuestra comprensión de la privacidad

Todo cambió hace unas semanas, cuando tecleé por primera vez en ChatGPT "basándote en todo lo que sabes sobre mí...". La respuesta me hizo acercarme a la pantalla y arquear la ceja.

Le pedí ideas para mi lista de sugerencias en un amigo invisible. Sin decirle nada más, solo "teniendo en cuenta todo lo que sabes sobre mí...". No solo me sugirió veinticinco regalos de los que al menos veinte eran muy razonables y seis en concreto eran la bomba. Es que hasta los separó en cinco categorías que reflejaban mis intereses con una precisión brutal.

Libros que conectaban exactamente con mis últimas lecturas o mis intereses generales. Accesorios que encajaban con mi forma de trabajar. Productos deportivos que casi todos me vendrían bastante bien. Hasta productos de nicho que creía muy difíciles ver recomendados.

Luego vino una prueba definitiva: le pregunté qué nuevo hobby podría engancharme. Su respuesta reveló patrones sobre mi personalidad que ni yo mismo había conectado. Analizó mis rutinas, mis momentos de ocio, incluso mi nivel de tolerancia a la frustración en el aprendizaje. Todo para sugerirme actividades que muchas personas de mi entorno no hubiesen afinado.

Es un salto revelador. Ya no estamos ante el ChatGPT inicial, que respondía de forma genérica, o que necesita que le expliquemos quiénes somos en cada conversación. La IA, desde que es capaz de recordar, ha estado observando, aprendiendo, y sobre todo, conectando puntos. Infiriendo. Construyendo un perfil sobre nosotros más preciso que el que tienen muchos de nuestros amigos.

Incluso en otro tipo de conversaciones donde no le pedí ese tipo de contexto es capaz de conectar un recuerdo de una conversación de mucho tiempo atrás, como me pasó de forma inesperada, para optimizar su respuesta. Un par de ejemplos:


Ni siquiera hizo falta empezar con "a partir de todo lo que sabes sobre de mí...". Directamente se acordó de mi reloj inteligente cuando le pregunté por una estrategia para aumentar mi VO2 max. Imagen: Xataka.


Aquí tampoco hizo falta anticiparle nada: se acordó de que a principios de año le estuve preguntando por unas sobrecargas demasiado habituales en un músculo tan concreto y poco comentado como el tibial anterior. Imagen: Xataka.

Sus consejos son cada vez más valiosos precisamente porque nos conoce demasiado bien. Ha inferido de rasgos de nuestra personalidad que quizás ni nosotros teníamos del todo claros. Sabe qué nos motiva, qué nos frena, qué nos hace dudar. Hasta qué músculo se nos suele sobrecargar. Su memoria puede ser desactivada, pero esto revela de qué es capaz.

Y aquí es donde empiezan nuevas dudas. La capacidad de una IA para construir perfiles psicológicos detallados a partir de nuestras interacciones supone un punto de inflexión en la historia de la privacidad digital.

Un ejemplo que ya no es gracioso:


Respondió realmente bien.

Hablemos de las implicaciones. Cada conversación con ChatGPT es una sesión de minería de datos sobre nuestra personalidad. No solo procesa lo que decimos explícitamente, también analiza nuestros patrones de lenguaje, nuestras preocupaciones recurrentes, nuestras contradicciones internas. Construye un modelo predictivo de nuestro comportamiento que se refina con cada interacción.

Las aplicaciones de este conocimiento van mucho más allá de sugerir regalos o hobbies. Una IA con este nivel de comprensión psicológica puede ser capaz de anticipar crisis personales, detectar cambios sutiles en nuestro estado mental, o incluso manipular nuestras decisiones apelando a sesgos que ni sabíamos que teníamos. Como lo del pantallazo anterior.

La pregunta no es si deberíamos limitar este poder. Es si podemos. La tendencia hacia una personalización cada vez más profunda parece inevitable. Las IAs seguirán aprendiendo sobre nosotros, construyendo modelos cada vez más precisos de quiénes somos y cómo pensamos.

Quizás la verdadera pregunta es otra: ¿estamos preparados para un mundo donde las máquinas nos entiendan mejor que nosotros mismos? Porque ese futuro ya no es ciencia ficción. Está ocurriendo cada vez que empezamos una frase con "teniendo en cuenta lo que sabes de mí..." en nuestro chatbot de confianza. Sumemos a eso las capacidades del reconocimiento facial.

El debate sobre la privacidad de los datos cobra una nueva dimensión. Ya no hablamos solo de proteger información personal concreta, hablamos de proteger nuestra propia esencia. No la que proclamamos en redes, filtrada y moldeada. La real. Nuestros patrones de pensamiento, nuestras vulnerabilidades, nuestros deseos más profundos.

Los europeos hemos sido los primeros del mundo en contar con una legislación específica para la IA. Es una normativa proteccionista, que prioriza la seguridad y la privacidad del usuario a costa de demorar la llegada de innovaciones o disuadir de ciertas actividades. El peaje que la Unión ha querido pagar.

Ni siquiera eso parece buscar un equilibrio entre el potencial beneficioso de la personalización con la necesidad de mantener ciertos aspectos de nuestra psique fuera del alcance de los algoritmos.

Mientras tanto, cada vez que ChatGPT me sugiere algo perfectamente adaptado a mi personalidad, siento una mezcla de fascinación y vértigo. La IA se ha convertido en un espejo que refleja aspectos de mí mismo que no sabía que eran visibles. Un espejo que, quizás, ya sabe demasiado.

Font, article de Javier Lacort per a "Xakata"

No hay comentarios:

Publicar un comentario