La reciente incursión de Elon Musk en el campo de la inteligencia artificial, Grok AI, ha comenzado con turbulencias. Además de las controversias en torno a su comportamiento, ahora enfrenta acusaciones d e similitudes con su competidor, ChatGPT, desarrollado por OpenAI, aunque todo parece que ha sido un «malentendido».
Los usuarios de Grok AI han comenzado a notar sorprendentes semejanzas entre sus respuestas y las generadas por ChatGPT. Esto plantea inquietudes sobre el origen de las respuestas de Grok y si ha tomado prestado inadvertidamente de su competidor. En respuesta a una consulta de usuario, Grok incluso admitió: «Lamento no poder cumplir esa solicitud, ya que va en contra de la política de casos de uso de OpenAI». Esta admisión plantea interrogantes sobre el grado de originalidad de Grok.
Para arrojar luz sobre la situación, un ingeniero de xAI llamado Igor Babuschkin ofreció una explicación. Él declaró: «El problema aquí es que la web está llena de resultados de ChatGPT, por lo que accidentalmente recogimos algunos de ellos cuando entrenamos a Grok con una gran cantidad de datos web». Esta explicación sugiere que las similitudes entre Grok y ChatGPT fueron no intencionadas y una consecuencia de la vasta cantidad de datos web en los que se entrenó.
Uhhh. Tell me that Grok is literally just ripping OpenAI's code base lol. This is what happened when I tried to get it to modify some malware for a red team engagement. Huge if true. #GrokX pic.twitter.com/4fHOc9TVOz
— Jax Winterbourne (@JaxWinterbourne) December 9, 2023
Lo que parece claro es que las similitudes involuntarias entre Grok y ChatGPT resaltan la importancia de pruebas rigurosas y control de calidad en el desarrollo de la inteligencia artificial. Surgen preguntas sobre el alcance de las pruebas realizadas en Grok antes de su lanzamiento, así como la efectividad de su proceso de entrenamiento. El comentario humorístico del periodista de NBC News, Ben Collins, «Hemos plagiado tu plagio para poner plagio en tu plagio», subraya la ironía de la situación.
Los desarrolladores de inteligencia artificial deben esforzarse por garantizar la originalidad de sus modelos para mantener la confianza y la credibilidad. Aunque Babuschkin asegura que «no se utilizó código de OpenAI para crear Grok», este incidente sirve como recordatorio de las complejidades inherentes al desarrollo de sistemas de inteligencia artificial con respuestas únicas.
☞ El artículo completo original de Juan Diego Polo lo puedes ver aquí
No hay comentarios.:
Publicar un comentario