
El director ejecutivo y cofundador de Anthropic, Dario Amodei, publicó un ensayo de decenas de páginas titulado The Adolescence of Technology en el que plantea una idea tan simple como incómoda: la inteligencia artificial avanza hacia capacidades que podrían desbordar la forma en que hoy organizamos la sociedad, la política y la tecnología. La imagen que sugiere es la de una adolescencia: una etapa de crecimiento acelerado, potencia desordenada y decisiones impulsivas, pero aplicada a herramientas que no se quedan en el ámbito personal, sino que se conectan con infraestructuras, estados, economía y seguridad global. La advertencia llega, curiosamente, desde alguien que lidera una empresa que compite por estar en primera fila en esa carrera, con productos como Claude.
En la cobertura de Gizmodo sobre el ensayo, se subraya el tono de alarma de Amodei: habla de un “rito de paso” para la especie, turbulento e inevitable, y deja caer una frase que condensa su temor principal: no está claro que nuestros sistemas sean lo bastante “maduros” para manejar “un poder casi inimaginable”. Lo relevante no es solo el dramatismo, sino el tipo de riesgos que enumera y la manera en que los conecta con escenarios concretos.
La madurez como cuello de botella
Amodei no se detiene tanto en el debate clásico de “si la IA será buena o mala”, sino en algo más prosaico: cómo reaccionan las instituciones cuando se les entrega una herramienta que multiplica capacidades. En el día a día, cualquiera ha visto ese patrón en pequeño: darle a un adolescente una moto potente no garantiza un accidente, pero sí eleva el coste de un error. Con sistemas que escriben, programan, planifican, persuaden y automatizan procesos, el “desliz” deja de ser una metedura de pata y puede convertirse en un problema sistémico.
El ensayo también introduce un miedo político explícito: el autoritarismo reforzado por inteligencia artificial. No hace falta imaginar robots patrullando calles para entender la idea; basta con pensar en un estado que pueda vigilar, perfilar, predecir y presionar a gran escala con herramientas baratas, rápidas y persistentes. Es el tipo de riesgo que no depende de una IA “malvada”, sino del uso que se haga de sistemas muy eficientes.
La “superinteligencia” como punto de inflexión
Amodei se suma a una narrativa habitual en el sector: la sensación de estar cerca de un salto cualitativo. Durante años se hablaba de AGI (inteligencia artificial general) y, según se comenta en el texto, algunas voces del sector han preferido moverse hacia el término superinteligencia, quizá porque describe menos “parecido a un humano” y más “mejor que un humano en casi todo”. Su tesis se apoya en la idea de crecimiento exponencial: si la mejora continúa como hasta ahora (y él reconoce que no es seguro), el momento en que la IA supere a las personas en la mayoría de tareas podría estar “a pocos años”.
Aquí conviene leerlo con una mezcla de atención y cautela. Atención, porque la velocidad de mejora reciente es real en muchos ámbitos. Cautela, porque extrapolar tendencias tecnológicas tiene un historial de aciertos y errores. La electricidad, Internet o los smartphones crecieron de forma intensa, sí, pero también chocaron con límites técnicos, económicos, regulatorios y sociales. El punto es que Amodei cree que, aunque no podamos fijar una fecha en el calendario con precisión, el umbral se acerca lo suficiente como para tratarlo como un problema presente, no como ciencia ficción.
Un país de genios en 2027: la metáfora de la seguridad nacional
El pasaje más llamativo del ensayo es una analogía: imaginar que en torno a 2027 aparece, de golpe, un “país de genios” con decenas de millones de mentes superiores a cualquier premio Nobel, líder político o tecnólogo. La imagen busca algo concreto: que pensemos en una amenaza de seguridad nacional que no tiene frontera física, pero sí ventaja estratégica. Amodei añade otro ingrediente: la velocidad. Si esos sistemas operan cientos de veces más rápido que los humanos, no solo serían más listos; también jugarían con un reloj trucado, como si una de las partes pudiera hacer diez jugadas mientras la otra aún está pensando la primera.
La comparación no pretende ser literal; funciona como una linterna que ilumina preguntas difíciles: ¿quién controla esa capacidad?, ¿cómo se audita?, ¿qué ocurre si se despliega de forma desigual entre países y empresas?, ¿qué incentivos crea? En el marco que propone, el “informe” de un asesor de seguridad sobre ese país lo catalogaría como la amenaza más seria en un siglo, quizá en la historia. El detalle que vuelve la metáfora incómoda es evidente: Anthropic y otras compañías están, en la práctica, intentando construir algo parecido a esa ventaja cognitiva.
Del metro de Tokio a la biología: el riesgo de uso indebido
Para explicar el peligro de que capacidades avanzadas caigan en manos equivocadas, Amodei recurre a un ejemplo histórico: el ataque con gas sarín de Aum Shinrikyo en el metro de Tokio en 1995. Su idea es que, hasta ahora, muchos planes destructivos fracasan no por falta de intención, sino por falta de conocimientos, disciplina o recursos. Si pones un “genio en el bolsillo”, ese freno se reduce. La preocupación no es solo el terrorista organizado; también la figura del “lobo solitario” que, con ayuda técnica guiada, podría escalar su daño.
Este tipo de argumento toca un nervio sensible porque conecta con un debate muy actual: qué significa que un modelo de lenguaje sea “útil” en ámbitos de química, biología o ingeniería. La cobertura de Gizmodo señala una coincidencia inquietante: en un informe técnico de Anthropic (su “system card” para una versión de Claude), se mencionaba una evaluación relacionada con ayudar a reconstruir un virus complejo. En términos de seguridad, estas pruebas suelen presentarse como control interno: comprobar hasta dónde llega la capacidad y qué barreras son necesarias. Para el público general, la lectura puede ser otra: si estás midiendo esto, es porque el sistema se acerca a terrenos delicados.
La paradoja de advertir mientras se compite
Una parte del interés mediático del texto no está en el miedo, sino en la tensión moral que expone: Amodei alerta sobre posibles consecuencias catastróficas, mientras su empresa sigue empujando el acelerador. Desde fuera, suena a quien explica los riesgos de una dieta de azúcar y, al mismo tiempo, abre una nueva pastelería. La crítica recogida en el artículo es directa: si el peligro es tan serio, ¿por qué construir la “máquina” que podría empeorar la situación?
Esta contradicción, sin embargo, también refleja un dilema real del sector. Si una compañía decide frenar, puede que otra no lo haga. Si un país regula duro, puede que otro atraiga inversión con reglas más laxas. El resultado es una carrera en la que todos tienen incentivos para moverse rápido, incluso cuando afirman que la velocidad es el problema. Por eso, cuando empresas piden regulación, aparece otra sospecha: ¿buscan protección genuina o una forma de captura regulatoria que consolide a los grandes actores y eleve barreras a competidores más pequeños?
Acceso, barreras y el “precio” de la responsabilidad
El debate se vuelve todavía más concreto cuando entra el tema de la disponibilidad. Si de verdad preocupa que personas con malas intenciones utilicen herramientas avanzadas, la pregunta práctica es qué fricción se introduce: verificación de identidad, límites de uso, monitorización de patrones peligrosos, restricciones por dominio, auditorías externas, transparencia sobre fallos. En la pieza citada se desliza una ironía: advertir sobre riesgos existenciales mientras se presume de usuarios activos mensuales puede sonar a mensaje mixto, como si el negocio y la prudencia tiraran en direcciones opuestas.
También aparece un dato político que complica el cuadro: según el texto, Anthropic ofreció su tecnología al gobierno federal estadounidense por un dólar al año durante la administración Trump. La lectura benevolente sería que quieren colaborar con el sector público. La lectura crítica es que las alianzas institucionales pueden otorgar legitimidad y peso político a una empresa que, al mismo tiempo, sostiene que la tecnología es potencialmente desestabilizadora.
Lo que está en juego cuando la herramienta supera al usuario
Si se toma en serio la hipótesis de Amodei, el problema no es únicamente “una IA inteligente”. Es la combinación de superinteligencia, acceso amplio, incentivos comerciales, competencia geopolítica y fragilidad institucional. Una calculadora no cambia la historia porque su poder está acotado; un sistema capaz de planificar, persuadir, descubrir vulnerabilidades y automatizar tareas complejas sí puede hacerlo, del mismo modo que un coche no es solo un objeto: es carreteras, normas, seguros, educación vial y cultura de conducción.
El debate, entonces, no debería quedarse en si confiamos o no en Anthropic, en Claude o en cualquier empresa concreta. La cuestión de fondo es qué reglas, auditorías y límites sociales decidimos antes de que la potencia de la herramienta haga que corregir sea más caro que prevenir. Y, sobre todo, si nuestra “madurez” colectiva puede crecer al ritmo de una tecnología que, según quienes la construyen, está entrando en su etapa más impulsiva.
☞ El artículo completo original de Natalia Polo lo puedes ver aquí