18 de diciembre de 2024

Tras dos años usando ChatGPT he empezado a pedirle consejos personalizados. Claramente sabe demasiado sobre nosotros

Tras dos años usando ChatGPT he empezado a pedirle consejos personalizados. Claramente sabe demasiado sobre nosotros

Todo cambió hace unas semanas, cuando tecleé por primera vez en ChatGPT "basándote en todo lo que sabes sobre mí...". La respuesta me hizo acercarme a la pantalla y arquear la ceja.

Le pedí ideas para mi lista de sugerencias en un amigo invisible. Sin decirle nada más, solo "teniendo en cuenta todo lo que sabes sobre mí...". No solo me sugirió veinticinco regalos de los que al menos veinte eran muy razonables y seis en concreto eran la bomba. Es que hasta los separó en cinco categorías que reflejaban mis intereses con una precisión brutal.

Libros que conectaban exactamente con mis últimas lecturas o mis intereses generales. Accesorios que encajaban con mi forma de trabajar. Productos deportivos que casi todos me vendrían bastante bien. Hasta productos de nicho que creía muy difíciles ver recomendados.

Cleanshot 2024 12 13 At 17 00 39 2x Imagen: Xataka.

Luego vino una prueba definitiva: le pregunté qué nuevo hobby podría engancharme. Su respuesta reveló patrones sobre mi personalidad que ni yo mismo había conectado. Analizó mis rutinas, mis momentos de ocio, incluso mi nivel de tolerancia a la frustración en el aprendizaje. Todo para sugerirme actividades que muchas personas de mi entorno no hubiesen afinado.

Es un salto revelador. Ya no estamos ante el ChatGPT inicial, que respondía de forma genérica, o que necesita que le expliquemos quiénes somos en cada conversación. La IA, desde que es capaz de recordar, ha estado observando, aprendiendo, y sobre todo, conectando puntos. Infiriendo. Construyendo un perfil sobre nosotros más preciso que el que tienen muchos de nuestros amigos.

Incluso en otro tipo de conversaciones donde no le pedí ese tipo de contexto es capaz de conectar un recuerdo de una conversación de mucho tiempo atrás, como me pasó de forma inesperada, para optimizar su respuesta. Un par de ejemplos:

Img 2241 Ni siquiera hizo falta empezar con "a partir de todo lo que sabes sobre de mí...". Directamente se acordó de mi reloj inteligente cuando le pregunté por una estrategia para aumentar mi VO2 max. Imagen: Xataka.
Img 2242 Aquí tampoco hizo falta anticiparle nada: se acordó de que a principios de año le estuve preguntando por unas sobrecargas demasiado habituales en un músculo tan concreto y poco comentado como el tibial anterior. Imagen: Xataka.

Sus consejos son cada vez más valiosos precisamente porque nos conoce demasiado bien. Ha inferido de rasgos de nuestra personalidad que quizás ni nosotros teníamos del todo claros. Sabe qué nos motiva, qué nos frena, qué nos hace dudar. Hasta qué músculo se nos suele sobrecargar. Su memoria puede ser desactivada, pero esto revela de qué es capaz.

Y aquí es donde empiezan nuevas dudas. La capacidad de una IA para construir perfiles psicológicos detallados a partir de nuestras interacciones supone un punto de inflexión en la historia de la privacidad digital.

Un ejemplo que ya no es gracioso:

Cleanshot 2024 12 13 At 17 07 00 2x Imagen: Xataka.

Respondió realmente bien.

Hablemos de las implicaciones. Cada conversación con ChatGPT es una sesión de minería de datos sobre nuestra personalidad. No solo procesa lo que decimos explícitamente, también analiza nuestros patrones de lenguaje, nuestras preocupaciones recurrentes, nuestras contradicciones internas. Construye un modelo predictivo de nuestro comportamiento que se refina con cada interacción.

Las aplicaciones de este conocimiento van mucho más allá de sugerir regalos o hobbies. Una IA con este nivel de comprensión psicológica puede ser capaz de anticipar crisis personales, detectar cambios sutiles en nuestro estado mental, o incluso manipular nuestras decisiones apelando a sesgos que ni sabíamos que teníamos. Como lo del pantallazo anterior.

La pregunta no es si deberíamos limitar este poder. Es si podemos. La tendencia hacia una personalización cada vez más profunda parece inevitable. Las IAs seguirán aprendiendo sobre nosotros, construyendo modelos cada vez más precisos de quiénes somos y cómo pensamos.

Quizás la verdadera pregunta es otra: ¿estamos preparados para un mundo donde las máquinas nos entiendan mejor que nosotros mismos? Porque ese futuro ya no es ciencia ficción. Está ocurriendo cada vez que empezamos una frase con "teniendo en cuenta lo que sabes de mí..." en nuestro chatbot de confianza. Sumemos a eso las capacidades del reconocimiento facial.

El debate sobre la privacidad de los datos cobra una nueva dimensión. Ya no hablamos solo de proteger información personal concreta, hablamos de proteger nuestra propia esencia. No la que proclamamos en redes, filtrada y moldeada. La real. Nuestros patrones de pensamiento, nuestras vulnerabilidades, nuestros deseos más profundos.

Los europeos hemos sido los primeros del mundo en contar con una legislación específica para la IA. Es una normativa proteccionista, que prioriza la seguridad y la privacidad del usuario a costa de demorar la llegada de innovaciones o disuadir de ciertas actividades. El peaje que la Unión ha querido pagar.

Ni siquiera eso parece buscar un equilibrio entre el potencial beneficioso de la personalización con la necesidad de mantener ciertos aspectos de nuestra psique fuera del alcance de los algoritmos.

Mientras tanto, cada vez que ChatGPT me sugiere algo perfectamente adaptado a mi personalidad, siento una mezcla de fascinación y vértigo. La IA se ha convertido en un espejo que refleja aspectos de mí mismo que no sabía que eran visibles. Un espejo que, quizás, ya sabe demasiado.

En Xataka | Mi móvil me estaba robando todos los tiempos muertos. Hasta que decidí ponerle fin

Imagen destacada | Xataka con Mockuuups Studio

-
La noticia Tras dos años usando ChatGPT he empezado a pedirle consejos personalizados. Claramente sabe demasiado sobre nosotros fue publicada originalmente en Xataka por Javier Lacort .



☞ El artículo completo original de Javier Lacort lo puedes ver aquí

No hay comentarios.:

Publicar un comentario