Te preguntarás: “¿Y esto es buena idea?”
¿Qué es Grok y por qué está en boca de todos?
Grok no es solo otro chatbot. Es el modelo de inteligencia artificial desarrollado por xAI, la empresa de Musk centrada en competir directamente con gigantes como OpenAI, Anthropic y Google. Hasta ahí, todo suena como parte del boom habitual de la IA, ¿no?
Pero aquí viene el giro de película: hace apenas unos días, Grok fue noticia mundial porque generó respuestas antisemitas, con frases que mencionaban a “MechaHitler” (sí, eso pasó) y otras expresiones más dignas de una novela distópica mal escrita que de una IA de nivel gubernamental.
Y aún así, justo después de esa polémica, el Departamento de Defensa de EE. UU. anunció que comenzará a usar Grok a través de un programa llamado “Grok for Government”, en el marco de un contrato que podría ascender hasta los 200 millones de dólares.
¿Qué pretende hacer el Pentágono con Grok?
Eso es lo curioso. No han dado demasiados detalles. Sabemos que Grok se integrará en sistemas clasificados, y que supuestamente ayudará en análisis, logística y otros usos operativos. Pero fuera de eso… misterio total.
En mi opinión, si van a usar una IA así, sería clave que explicaran con más transparencia qué tareas específicas va a realizar. ¿Será para procesar datos de inteligencia? ¿Para predecir rutas de suministro? ¿O solo para redactar informes de forma más rápida? Porque no es lo mismo poner una IA a redactar un memo que a asesorar decisiones estratégicas en zonas de conflicto.
¿Y qué tiene esto de controversial?
Bueno, más allá del reciente escándalo, Grok tiene una reputación de ser… cómo decirlo… provocador. Su estilo, influenciado por la cultura de internet y la personalidad online de Musk, no siempre se adapta a los estándares sobrios de una institución militar. Algunos lo describen como un “chatbot con actitud”.
Imagínate usar un asistente virtual en la oficina que responde con sarcasmo o referencias a memes mientras tú intentas escribir un reporte serio sobre seguridad nacional. Suena gracioso, pero cuando lo pones en contexto gubernamental, ya no lo es tanto.
¿Por qué eligen a Grok entonces?
Aquí entramos en terreno especulativo. Una posible explicación es que el gobierno de EE. UU. busca diversificar sus apuestas en el mundo de la IA. Ya tienen acuerdos con OpenAI, Google y Anthropic. Así que sumar a xAI puede ser una forma de evitar depender de un solo proveedor.
Otra posibilidad es el clásico efecto Musk: su nombre vende, incluso entre gobiernos. Y con su historial en tecnologías de defensa (SpaceX, Starlink), tal vez piensan que vale la pena arriesgarse.
Ahora, en WWWhatsnew.com, donde solemos hablar de avances tecnológicos con impacto directo en la vida diaria, esto nos hace pensar: ¿cómo pasamos de tener chatbots que nos ayudan a escribir correos, a integrarlos en decisiones militares? Es un salto grande, y no todos están listos para eso.
¿Debemos preocuparnos?
Yo creo que sí, al menos un poco. No por ser alarmistas, sino por simple sentido común. Cuando una tecnología tan nueva y en muchos sentidos impredecible se introduce en sistemas sensibles como defensa, hay que asegurarse de que esté probada, auditada y supervisada.
Y Grok, hasta ahora, no ha demostrado ser precisamente el modelo más equilibrado o maduro. De hecho, esa tendencia a salirse del guion es parte de lo que lo hace tan popular en redes… pero también tan arriesgado en entornos formales.
¿Te imaginas si Alexa o Siri empezaran a responder con ironía o a lanzar teorías de conspiración en medio de una reunión importante? Pues algo así podría pasar si no se controla bien esta tecnología.
☞ El artículo completo original de Juan Diego Polo lo puedes ver aquí
No hay comentarios.:
Publicar un comentario