
La metáfora es potente porque apela a un miedo muy humano: ver algo enorme acercarse y no saber si todavía hay tiempo de moverse a terreno alto. El CEO de Anthropic, Dario Amodei, comparó la evolución de la inteligencia artificial con un “tsunami” en el horizonte y sugirió que la sociedad está minimizando señales que, a su juicio, ya son visibles. Lo dijo en una conversación con el inversor indio Nikhil Kamath en el pódcast “WTF Is”, en un episodio recogido por el medio Futurism. El mensaje, más que una predicción concreta, funciona como un aviso emocional: “lo estamos viendo venir y aun así lo negamos”.
Esa idea conecta con una sensación bastante extendida entre quienes trabajan cerca del desarrollo de modelos: cada salto de capacidad parece llegar antes de que terminemos de asimilar el anterior. La cuestión es que, cuando el aviso viene de alguien que lidera una de las empresas que empujan la ola, la metáfora deja de ser solo meteorología y pasa a ser política tecnológica.
Un “tsunami” como relato de urgencia
Amodei describe un escenario en el que los modelos estarían cerca de un nivel de inteligencia comparable al humano, con implicaciones profundas para la economía y la organización social. La comparación con un tsunami tiene dos capas. La primera es la velocidad: la sensación de que el cambio no será gradual, sino brusco, como cuando el mar retrocede y en minutos llega la pared de agua. La segunda es la incredulidad colectiva: cuando algo resulta difícil de imaginar, buscamos explicaciones tranquilizadoras, como quien mira nubes oscuras y se convence de que “seguro que pasa de largo”.
Este tipo de advertencias no son nuevas, pero sí cada vez más frecuentes y más públicas. Y aquí aparece un detalle importante: el “tsunami” no es un fenómeno natural. Es una dinámica impulsada por inversión, competencia, incentivos comerciales y presión geopolítica. Si la ola crece, no es solo porque “la tecnología avanza”, sino porque hay actores empujando para que avance rápido.
Predicciones que se repiten en la industria
Las declaraciones de Amodei encajan con un patrón: líderes de empresas de IA insistiendo en que la automatización será masiva y que muchas tareas humanas quedarán relegadas. En el mismo texto de Futurism se citan ejemplos de ese tono: el CEO de OpenAI, Sam Altman, ha hablado con frecuencia de la desaparición de categorías completas de empleo; desde Microsoft se ha lanzado la idea de que gran parte del trabajo de oficina podría automatizarse con agentes de IA en un plazo muy corto; el propio Amodei ya había advertido sobre el impacto en puestos de cuello blanco de nivel inicial.
Estas frases tienen un doble filo. Por un lado, ayudan a que gobiernos, empresas y trabajadores se tomen en serio la necesidad de prepararse. Por otro, también pueden promover una actitud fatalista: “va a pasar sí o sí”, como si no existiera margen para decidir ritmos, límites, usos o responsabilidades. Cuando la narrativa dominante es inevitabilista, regular o frenar parece casi antinatural, como intentar detener la marea con las manos.
Anthropic dentro de la ola que describe
Hay una tensión difícil de ignorar: si Anthropic avisa de un “tsunami”, también está fabricando parte de la infraestructura que lo haría posible. Según Futurism, el lanzamiento reciente de un agente llamado Claude Cowork se vinculó a una sacudida en valores de software que se extendió al mercado, con caídas muy llamativas. Más allá de si el movimiento bursátil puede atribuirse a un único anuncio, el episodio ilustra algo clave: la expectativa de automatización ya tiene efectos reales, incluso antes de que la automatización ocurra a gran escala.
Es como cuando un supermercado anuncia que instalará cajas de autopago en todas sus tiendas. Aunque el cambio esté a meses vista, el rumor ya altera decisiones: proveedores que renegocian, empleados que buscan alternativas, inversores que ajustan su cálculo de costes. La economía se mueve por anticipación tanto como por hechos consumados.
El problema de humanizar a las máquinas
Otro elemento que aparece en el texto original es la tendencia de la industria a vestir a los modelos con rasgos humanos. En el caso de Anthropic, Futurism menciona gestos como publicar “reflexiones” del sistema en plataformas tipo Substack o insinuar posibilidades sobre conciencia. La discusión sobre si un modelo puede ser “consciente” es filosófica y científica, pero también es marketing, cultura y poder. Ponerle voz propia a una herramienta cambia cómo la percibimos: deja de ser una calculadora sofisticada y pasa a parecer un “alguien”.
Esa humanización alimenta el relato de la superinteligencia, una palabra que se ha convertido en el gran imán narrativo del sector. Para el público general, “superinteligencia” suena a entidad capaz de resolverlo todo o de desbordarlo todo. Para una empresa, también puede ser un modo de justificar inversiones enormes y acelerar adopción. El riesgo es que la conversación se desplace de lo verificable a lo mítico, como si estuviéramos hablando de un ser en gestación más que de un producto entrenado con datos, optimizado con objetivos y desplegado bajo decisiones empresariales.
Seguridad en IA y presión institucional
Futurism sitúa estas declaraciones en un momento especialmente delicado para Anthropic: la empresa habría abandonado una de sus promesas centrales de seguridad en IA, la de no entrenar o lanzar un modelo si no podía garantizar “barandillas” suficientes. El giro, según el texto, estaría relacionado con presiones del Pentágono y con el riesgo de perder un contrato de defensa valorado en 200 millones de dólares.
Aquí se ve una tensión estructural que va mucho más allá de una compañía. Las empresas tecnológicas compiten por contratos públicos, por influencia estratégica y por acceso a grandes presupuestos. En ese terreno, las políticas de seguridad pueden convertirse en una moneda de cambio. No hace falta imaginar conspiraciones: basta con reconocer que, cuando hay dinero, prestigio y poder en juego, los principios se ponen a prueba.
La etiqueta de “empresa prudente” puede funcionar mientras no choca con objetivos de crecimiento o con demandas de clientes institucionales. Cuando ese choque llega, el público se queda con una pregunta incómoda: si quienes más hablan de riesgos relajan sus límites cuando la presión aprieta, ¿quién sostiene la cautela cuando realmente cuesta?
Empleo, automatización y el efecto psicológico del anuncio
El debate sobre empleo es el punto donde estas metáforas dejan de ser abstractas. La automatización no afecta igual a todo el mundo: golpea más fuerte a quien está empezando, a quien depende de tareas rutinarias o a quien no tiene margen para reinventarse rápido. Cuando un CEO afirma que media generación de puestos de entrada podría desaparecer, no solo describe un futuro; influye en el presente. Empresas pueden usar ese discurso para congelar contrataciones, reducir formación o posponer salarios, aun cuando la tecnología todavía no pueda sustituir completamente el trabajo real.
Es como decirle a un aprendiz de cocina que, dentro de poco, los robots harán todas las recetas. Aunque el robot no exista en tu restaurante, la frase ya cambia tu motivación, tu plan de vida y la paciencia de quien debería enseñarte. La conversación pública necesita separar dos cosas: lo que los modelos ya hacen con fiabilidad y lo que se proyecta como posibilidad.
Qué se juega la sociedad si el “tsunami” llega
Si la metáfora del tsunami sirve para algo, debería empujar a decisiones concretas. La primera es exigir claridad: qué capacidades se miden, cómo se evalúa el riesgo, qué límites se aplican y quién responde cuando algo falla. La segunda es evitar el chantaje de la inevitabilidad: que algo sea posible no significa que deba desplegarse de cualquier manera o a cualquier precio. La tercera es proteger transiciones laborales, porque el choque no lo paga quien firma los contratos, sino quien pierde estabilidad.
Amodei dice que falta reconocimiento social de lo que se aproxima. Futurism subraya una crítica igual de relevante: quienes avisan también aceleran, y esa combinación puede sonar hipócrita si no va acompañada de compromisos verificables. Entre el negacionismo tecnológico y el fatalismo hay un espacio razonable: aceptar que la IA avanza muy rápido, discutir cómo se gobierna y repartir responsabilidades con el mismo rigor con el que se celebran las capacidades.
☞ El artículo completo original de Natalia Polo lo puedes ver aquí
