La inteligencia artificial ha evolucionado muchos en los últimos años con ChatGPT al frente. Este bot conversacional ofrece numerosas funciones a la hora de generar respuestas realmente detalladas prácticamente de cualquier tema. Todo esto está respaldado por un entrenamiento exhaustivo por parte de OpenAI que va mejorando poco a poco, teniendo en la actualidad la última versión que es GPT-4.
Pero aunque desde fuera parece que todo son funciones realmente maravillosas, lo cierto es que algunas personas le pueden sacar el lado más negativo. Y uno de ellos radica precisamente en que puede ser una gran ayuda para realizar ingeniería social con el objetivo de sacar datos personales a usuarios concretos.
ChatGPT se puede usar para suplantar varias empresas
Algo característico de ChatGPT es que las respuestas que ofrece son convincentes, ya que pueden tener un tono realmente profesional. Y esto precisamente es lo que buscan aquellas personas que se dedican a robar datos de otros usuarios con un correo electrónico o un simple mensaje de texto. Esto se debe a que uno de los signos para detectar que recibimos un mensaje de phishing es el tono o las faltas ortográficas, pero ChatGPT puede hacerse pasar por una compañía sin problemas.
Esto es precisamente lo que han recogido desde CheckPoint al hacer varias pruebas con ChatGPT. En este detallan que al ser un modelo de código abierto cualquier persona con conocimientos informáticos va a poder entrenarla con diferentes correos electrónicos originales de las empresas a las que quiere suplantar. De esta manera la IA va a captar el vocabulario típico y también el tono que usan para crear correos electrónicos de phishing eficientemente para poder conseguir todos los datos personales que se buscan.
Un solicitud similar puede estar relacionada con las conversaciones de ámbito técnico que se tienen con los servicios de asistencia técnica. En este caso se puede solicitar a la IA que responda a preguntas típicas que puede hacer una persona preocupada con su seguridad ante la solicitud de contraseñas para que ofrezca una respuesta convincente.
Esto abre un gran debate en torno a la inteligencia artificial y los usos que se les puede terminar dando por parte de los usuarios. Y es que aunque a veces se pueden desarrollar características que hacen que se asemeje al vocabulario de un humano, no se piensa en el humano que se puede poner por detrás. En unos años cuando estas IA evolucionen mucho más, va a ser una gran problemática al no poder detectar fácilmente los mensajes que se lleguen al móvil o a la bandeja de entrada del email.
En Genbeta | Hay vida más allá de ChatGPT: cinco IA de creación de textos muy útiles, explicadas
-
La noticia ChatGPT como aliado del phishing: así de fácil se usa para suplantar a otras empresas fue publicada originalmente en Genbeta por José Alberto Lizana .
☞ El artículo completo original de José Alberto Lizana lo puedes ver aquí
No hay comentarios.:
Publicar un comentario