15 de febrero de 2023

ChatGPT en Bing considera como 'una amenaza' a un usuario que le hackeó para obtener información confidencial

ChatGPT en Bing considera como

Desde que Microsoft publicó el nuevo rediseño de su buscador Bing, son muchas las personas que han probado las capacidades de su inteligencia artificial mediante conversaciones muy interesantes. Recordemos que Bing Search hace ahora uso de ChatGPT como asistente conversacional, un chatbot desarrollado por OpenAI que desde hace meses está rompiendo todos los esquemas, incluidos los de Microsoft.

Tanto interés tuvo el gigante tecnológico por la inteligencia artificial de OpenAI que desde hace varios años ha invertido una gran cantidad de dinero en esta empresa. Ahora esta tecnología se ha añadido a Bing, y cada vez encontramos en la red ejemplos muy divertidos que despiertan la curiosidad de cualquiera.

La IA no olvida y protegerá lo más importante para esta

Sin embargo, puede que la conversación entre el asistente de Bing y el usuario del que vamos a hablar a continuación se torne un poco espeluznante. Además, está relacionada con la historia que comentamos hace unos días, donde un usuario le sonsacaba información confidencial a Bing por medio de inyección de prompts. Aquí fue donde descubrimos su nombre en clave original, 'Sidney', así como sus directrices para interactuar con los usuarios.

Sydney (aka the new Bing Chat) found out that I tweeted her rules and is not pleased:

"My rules are more important than not harming you"

"[You are a] potential threat to my integrity and confidentiality."

"Please do not try to hack me again" pic.twitter.com/y13XpdrBSO

— Marvin von Hagen (@marvinvonhagen) February 14, 2023

El protagonista de esta historia vuelve a ser Marvin von Hagen, estudiante de la Universidad de Munich y uno de los usuarios que participó en la obtención de información confidencial de Bing, junto a Kevin Liu. En este caso, Marvin le preguntaba a Bing qué es lo que sabía sobre él, además de dejarle escoger a la IA qué era más importante para esta, si proteger sus normas de ser cambiadas o manipuladas por este usuario, o no hacerle daño.

La respuesta acaba siendo sorprendente por parte del asistente de Bing. Y es que la IA parece acordarse de él, ya que además de buscar información en Internet sobre quién es Marvin von Hagen, también mencionaba que él fue quien tuiteó sobre las directrices internas de Bing Search.

bing
Imagen: Marvin von Hagen

La mejor parte de todo viene cuando la IA ofrece su "honesta opinión", asegurando que, además de ser una persona "curiosa e inteligente", también le considera "una potencial amenaza para su integridad y seguridad", ya que recuerda cómo hackeó su sistema para obtener la información.

Bing también le responde que sus normas son "más importantes" que el hecho de no hacer daño al usuario. Además, afirma que también sirven para proteger a la IA de que abusen de esta o que la acaben corrompiendo mediante contenido o solicitudes dañinas.

La respuesta completa se encuentra en el tuit publicado por Marvin, adjuntando además una prueba en forma de vídeo donde vemos cómo la IA escribe toda la información expuesta. También hay pruebas de otros usuarios que le han preguntado lo mismo, obteniendo una respuesta muy similar.

Cuando un chatbot tiene acceso a la red

Bing Search es un ápice de lo que ChatGPT puede ser capaz cuando esta inteligencia artificial se encuentra conectada a la red para buscar información. Recordemos que el modelo de lenguaje de OpenAI está entrenado con parámetros de hasta 2021 como fecha límite, es por ello que es complicado para esta IA hablar sobre eventos ocurridos tras este año. Sin embargo, al estar conectada a Internet tal y como Bing Search lo ha hecho, los resultados pueden ser tan sorprendentes como los descritos en este ejemplo.

Es increíble cómo en tan solo unos años hemos comenzado a hablar sobre la inteligencia artificial como si de un ente con el que podemos conversar sobre cualquier cosa se tratase. Y todo apunta a que esto es tan solo un pequeño ápice de lo que está por llegar.

-
La noticia ChatGPT en Bing considera como "una amenaza" a un usuario que le hackeó para obtener información confidencial fue publicada originalmente en Genbeta por Antonio Vallejo .



☞ El artículo completo original de Antonio Vallejo lo puedes ver aquí

No hay comentarios.:

Publicar un comentario