1 de mayo de 2026

OpenAI restringe el acceso a GPT-5.5 Cyber tras criticar a Anthropic por hacer lo mismo con Mythos: la coherencia dura nueve días

Cómo bloquear videollamadas de un contacto o desconocido en WhatsApp

OpenAI va a hacer exactamente lo mismo que criticó a Anthropic en abril. Lo cuenta Julie Bort en TechCrunch este 30 de abril. Sam Altman ha confirmado en X que GPT-5.5 Cyber, el modelo afinado para tareas de ciberseguridad, se distribuirá «a defensores cibernéticos críticos» en los próximos días, mediante una aplicación que requiere que el solicitante envíe sus credenciales y especifique el uso previsto. Es decir, acceso restringido a usuarios verificados, exactamente la misma filosofía que el 21 de abril Altman calificó de «marketing basado en el miedo» cuando Anthropic la aplicó a Claude Mythos.

Para los que llevamos siguiendo este enfrentamiento desde principios de mes, la ironía es brutal. Anthropic y OpenAI han estado los últimos 18 meses defendiendo posiciones públicas contradictorias sobre cómo distribuir herramientas IA con capacidades de seguridad ofensiva. Anthropic argumentaba que las capacidades de descubrimiento de zero-days de Mythos eran demasiado peligrosas para acceso público; OpenAI argumentaba que el acceso restringido protegía a las grandes empresas y dejaba a hospitales municipales, ayuntamientos y firmas medianas indefensas. Hoy OpenAI cambia la posición sin reconocerlo.

Lo que hace GPT-5.5 Cyber

El modelo está diseñado para tareas defensivas avanzadas: pruebas de penetración (penetration testing), identificación de vulnerabilidades (vulnerability identification) y, crucialmente, su explotación, además de ingeniería inversa de malware (malware reverse engineering). En la propia descripción de OpenAI se reconoce que es «un kit de herramientas para ayudar a una empresa a encontrar agujeros de seguridad y probar defensas» pero también que «podría ser mal usado por los chicos malos». Es decir, OpenAI admite que las capacidades del modelo son las mismas que Anthropic invocó para restringir Mythos.

La aplicación está en openai.com/form/enterprise-trusted-access-for-cyber/. Los solicitantes deben enviar información sobre sus credenciales y uso previsto. OpenAI dice que está consultando con el gobierno de Estados Unidos para identificar más usuarios «con credenciales legítimas de ciberseguridad» y ampliar el acceso.

La controversia entre OpenAI y Anthropic sobre acceso a herramientas Cyber lleva semanas escalando. Cuando OpenAI lanzó GPT-5.4-Cyber el 15 de abril, lo posicionó como «miles de defensores verificados individualmente y cientos de equipos responsables de defender software crítico», en deliberada oposición a las 11 organizaciones (Apple, Google, Microsoft, AWS, JPMorgan Chase) a las que Anthropic había restringido Mythos. La filosofía de OpenAI era acceso amplio con verificación. Ahora, dos semanas después, GPT-5.5 Cyber adopta el modelo restringido que OpenAI criticaba.

La cita exacta de Altman: «marketing basado en el miedo»

El contexto del cambio de postura es lo que hace esta historia interesante. El 21 de abril, Sam Altman publicó comentarios públicos criticando a Anthropic por restringir Mythos. La acusación específica fue que el discurso público de Anthropic sobre los peligros de las capacidades cyber-ofensivas de su modelo era «fear-based marketing»: una táctica de comunicación que vende restricción como responsabilidad mientras genera publicidad gratuita por el aura de «demasiado poderoso para lanzarse al público».

Algunos críticos coincidieron en su momento. La retórica de Anthropic sobre Mythos sugería un riesgo apocalíptico cuando, en la práctica, los ataques con IA exitosos siguen usando phishing básico y contraseñas reutilizadas, no zero-days exóticos descubiertos por modelos de frontera. Y, paradójicamente, un grupo no autorizado consiguió acceso a Mythos según reportes posteriores, lo que cuestionaba la efectividad de las propias restricciones de Anthropic.

Hoy OpenAI hace exactamente lo que criticó. La aplicación de GPT-5.5 Cyber requiere credenciales y aprobación. La diferencia con Mythos es semántica: OpenAI dice que va a «ampliar» el acceso «consultando con el gobierno», mientras Anthropic dice que va a «expandir» el acceso «trabajando con socios». Las palabras cambian; la estructura es idéntica.

El contexto de Mythos cuando se anunció el 7 de abril es importante. Anthropic identificó miles de vulnerabilidades zero-day en pocas semanas, incluyendo bugs de 27 años en OpenBSD y de 17 años en FreeBSD (RCE). El modelo se distribuyó a 12 organizaciones partner y 40 organizaciones adicionales con infraestructura crítica: Apple, Amazon, Microsoft, Google, Cisco, Broadcom, CrowdStrike, Palo Alto Networks, JPMorgan Chase, Nvidia y Linux Foundation. Las acciones de empresas de ciberseguridad cayeron entre 5 y 11 por ciento tras la filtración inicial sobre Mythos.

La fragmentación filosófica que ya no existe

El enfrentamiento entre Anthropic y OpenAI ha sido uno de los debates más reveladores de la industria de IA en 2026, y la convergencia de hoy disuelve gran parte de él. La pregunta que estaba sobre la mesa era genuinamente importante: ¿qué nivel de acceso a herramientas cyber-ofensivas IA es apropiado, dado el riesgo dual de uso defensivo legítimo y uso ofensivo malicioso?

Anthropic respondía con el modelo de consorcio cerrado: solo organizaciones con infraestructura crítica que demuestren capacidad defensiva. OpenAI respondía con el modelo de acceso amplio verificado: miles de defensores con credenciales individuales. Hoy la respuesta de la industria es la misma para los dos modelos punteros: acceso restringido, aplicación, verificación, control de exportación implícito a través del proceso de aprobación. La pregunta filosófica está respondida por la convergencia, no por el debate.

La discusión sobre seguridad en IA ha crecido en sofisticación durante el último año. La batalla silenciosa entre Anthropic y OpenAI en red teaming muestra filosofías opuestas: Anthropic publicó una system card de 153 páginas para Claude Opus 4.5 con miles de pruebas mediante ataques por refuerzo (200 intentos por ataque), mientras OpenAI prefiere intentos únicos y parches iterativos en su system card de GPT-5 (60 páginas). Claude Opus 4.5 fue el más resistente con 4,7 por ciento ASR frente al 21,9 por ciento de GPT-5.1, según Gray Swan.

La realidad operativa: el riesgo es real

El cambio de postura de OpenAI no debería leerse como capitulación retórica. Probablemente refleja datos internos sobre el comportamiento de GPT-5.5 Cyber que justifican preocupación real. Si la propia OpenAI ha decidido que un modelo capaz de penetration testing, identification y explotación de vulnerabilidades, y reverse engineering de malware no debe estar en manos de cualquier suscriptor de ChatGPT Plus, es porque las capacidades han escalado lo suficiente como para que el riesgo de uso ofensivo malicioso supere los beneficios del acceso democrático.

La realidad de los ataques con IA ya no es teórica. En enero de 2026 un hacker rusohablante usó múltiples herramientas (incluyendo Claude y DeepSeek) para hackear más de 600 dispositivos de firewall en más de 55 países, según AWS. En abril, un atacante solitario usó Claude y ChatGPT para comprometer nueve agencias del gobierno mexicano, robando cientos de millones de registros. El argumento de que las herramientas Cyber con IA son «demasiado peligrosas» no es marketing: es la lectura que cualquier equipo de seguridad razonable hace después de ver lo que se puede hacer con acceso a estos modelos.

El caso del hacker contra el gobierno mexicano ilustra exactamente el dilema. Un solo individuo, dos chatbots comerciales (Claude y ChatGPT) y nueve agencias gubernamentales comprometidas. La diferencia entre ataque y auditoría, en términos de código generado, es cero; la diferencia está en la intención del usuario, y eso ningún modelo puede verificarlo a priori. Los filtros de safety alignment funcionan con palabras clave y patrones de intención, lo que los hace evitables con prompts neutralmente formulados.

Mi valoración

Lo que más me convence de este desenlace es que confirma una intuición que muchos teníamos pero que la postura pública de OpenAI dificultaba defender. Las herramientas Cyber con IA tienen capacidades duales reales y la decisión de quién accede no puede ser meramente técnica. Anthropic tenía razón estratégica en restringir Mythos, OpenAI lo está reconociendo implícitamente al copiar el modelo, y la convergencia es el resultado lógico de tomar el problema en serio. Lo que más me preocupa es la falta de reconocimiento explícito del cambio de postura por parte de Altman. La frase pública del 21 de abril sobre «fear-based marketing» sigue ahí, sin retractación. Eso es relevante no por orgullo personal sino por credibilidad institucional: cuando una compañía de IA pública contradice sus propias declaraciones sobre seguridad sin explicación, los reguladores pierden la capacidad de tomar en serio los compromisos públicos de la siguiente declaración. Para una industria que pide a los gobiernos confianza en su autorregulación, ese coste es alto. Lo más estructuralmente significativo es que la convergencia OpenAI-Anthropic crea un nuevo problema de gobernanza. Si los dos modelos punteros del mundo en capacidades Cyber están restringidos a usuarios verificados por las propias compañías, las decisiones sobre quién accede a tecnologías de seguridad ofensiva críticas las están tomando privadamente Anthropic y OpenAI. Sin marco regulatorio que defina criterios objetivos de acceso, sin auditoría externa de las decisiones de aprobación, sin recurso para defensores legítimos a quienes se les niegue acceso. Es exactamente el modelo que la regulación de control de armas ha pasado décadas evitando: discreción privada sobre tecnologías sensibles. La pregunta a 12 meses es si Estados Unidos o la UE intervendrán para crear un marco. La US Executive Order on AI y el AI Act europeo tienen disposiciones genéricas sobre IA de alto riesgo, pero nada específico sobre acceso a capacidades Cyber-ofensivas. La probabilidad de que esto cambie aumenta cada vez que hay otro caso documentado de IA usada en ataques significativos. Mi predicción: en 2027 vamos a tener alguna forma de licencia federal estadounidense para herramientas Cyber con IA de frontera, similar a las licencias de exportación de criptografía. Anthropic y OpenAI lo aceptarán porque, paradójicamente, una regulación clara reduce su exposición legal por decisiones discrecionales.

Preguntas frecuentes

¿Quién puede solicitar acceso a GPT-5.5 Cyber? Cualquier persona u organización puede aplicar a través del formulario en openai.com/form/enterprise-trusted-access-for-cyber/, pero deben enviar credenciales y especificar el uso previsto. OpenAI evalúa cada solicitud individualmente y consulta con el gobierno estadounidense para identificar usuarios legítimos.

¿Por qué OpenAI cambia su postura tras criticar a Anthropic? OpenAI no ha reconocido el cambio explícitamente. La interpretación más probable es que las capacidades de GPT-5.5 Cyber han escalado lo suficiente como para justificar el mismo nivel de cautela que Anthropic aplicó a Mythos. Las capacidades incluyen pruebas de penetración, identificación y explotación de vulnerabilidades, y reverse engineering de malware.

¿Es el modelo más restrictivo que el GPT-5.4-Cyber anterior? Sí, en la práctica. GPT-5.4-Cyber se posicionó como «miles de defensores verificados» en oposición a las «11 organizaciones» de Anthropic. GPT-5.5 Cyber adopta un modelo más cercano al de Mythos: aplicación individual, verificación, consulta con el gobierno. La filosofía pública ha cambiado en dos semanas.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Meta amenaza con cerrar Facebook e Instagram en Nuevo México si el juez ordena verificación de edad: el fiscal general llama a la amenaza «PR stunt»

Meta amenaza con cerrar Facebook e Instagram en Nuevo México si el juez ordena verificación de edad: el fiscal general llama a la amenaza "PR stunt"

Meta acaba de jugar la carta más agresiva que tenía contra el caso de Nuevo México. Lo cuenta Tonya Riley en Bloomberg Law este 30 de abril. En nuevos documentos legales presentados antes del juicio que comienza el lunes 4 de mayo en Santa Fe, Meta ha advertido que considerará retirar Facebook e Instagram completamente del estado si el juez Bryan Biedscheid se pone del lado de la fiscalía. La frase exacta del portavoz: «podríamos no tener más opción que retirar el acceso a sus plataformas para usuarios de Nuevo México por completo». Las exigencias del estado son «técnicamente impracticables» e «imposibles para cualquier compañía», según Meta.

El fiscal general de Nuevo México, Raúl Torrez, no se lo ha tomado bien. En una rueda de prensa virtual el jueves calificó la amenaza como un «PR stunt»: una maniobra publicitaria de presión antes del juicio. «Meta está mostrando al mundo lo poco que le importa la seguridad infantil», declaró. «Esto no se trata de capacidad técnica. Meta simplemente se niega a poner la seguridad de los niños por delante».

El contexto: la sentencia de 375 millones del 24 de marzo

La amenaza de Meta no llega del aire. El 24 de marzo de 2026, un jurado de Santa Fe falló en su contra en la fase 1 del juicio, encontrando que la compañía había violado la Ley de Prácticas Injustas de Nuevo México y ordenando una sanción de 375 millones de dólares (5.000 dólares por cada una de las miles de violaciones). El jurado determinó que Meta engañó a consumidores sobre la seguridad de sus plataformas para adolescentes y preadolescentes y se involucró en prácticas «inescrupulosas» relacionadas con explotación sexual infantil.

La fase 2, que comienza el 4 de mayo, es un juicio sin jurado (bench trial) ante el juez Biedscheid. Va a determinar si Meta creó un «public nuisance» (perjuicio público) y, sobre todo, qué medidas correctivas debe imponer la justicia. Las exigencias del estado, que la fiscalía envió a Meta por email el 29 de abril en un documento de más de 50 demandas, son las que Meta ha calificado de imposibles.

Las 50+ exigencias del estado: ¿imposibles o solo caras?

Algunas de las exigencias específicas que Nuevo México plantea, según los documentos filed por Meta, son las siguientes. Implementación de verificación de edad efectiva. Medidas para prevenir explotación sexual infantil. Cambios al algoritmo y a las «addictive features» (infinite scroll, autoplay, notificaciones push durante horario escolar y de sueño). Designación de un «child safety monitor» independiente para supervisar el cumplimiento. Asegurar que métodos de IA detecten «al menos 99 por ciento» de nuevos materiales de abuso sexual infantil (CSAM) y los reporten al National Center for Missing and Exploited Children. «Las cuentas no verificadas por edad tendrán acceso solo de visualización a Instagram y Facebook, sin capacidad de publicar ni interactuar con chats o mensajes directos». «Prevenir que usuarios menores de 18 años de Nuevo México se involucren en interacciones románticas o sexualizadas con los chatbots de IA de Meta». Prohibición de mensajes encriptados para menores.

Algunas de estas demandas son técnicamente factibles con inversión razonable (verificación de edad ya existe en otros mercados, supervisión por monitor externo es estándar en cumplimiento regulatorio). Otras son más complejas (detección 99 por ciento de CSAM nuevo es un benchmark que ningún sistema de moderación cumple actualmente). La posición de Meta de «imposible para cualquier compañía» es exagerada en el conjunto, pero defendible en algunos puntos específicos.

Meta lleva años desarrollando herramientas de verificación de edad que demuestran que la implementación es factible cuando hay voluntad. Instagram estrenó en abril de 2025 detección de edad con IA en Estados Unidos, analizando patrones de comportamiento, actividad y otros indicadores para identificar usuarios que falsifican su edad. Cuando alguien quería cambiar su edad de menor a mayor, debía grabar video selfie, subir documento de identidad o pedir confirmación a contactos. La afirmación de Meta de que verificación de edad es «técnicamente impracticable» es difícil de sostener cuando llevan dos años desplegándola voluntariamente en otros mercados.

Por qué Meta amenaza con irse

La amenaza de retirar el servicio del estado es una jugada táctica de alto riesgo. Tiene sentido por dos motivos. Primero, presión política: si Facebook e Instagram desaparecen de Nuevo México, los 2 millones de habitantes (especialmente adolescentes y empresas locales) van a presionar al gobierno estatal para suavizar las exigencias. Segundo, precedente nacional: si Meta acepta las medidas correctivas en Nuevo México, otros estados (California ya tiene la AB 1709 propuesta el 4 de febrero, que prohibiría redes sociales para menores de 16 años) van a copiar el modelo. Mejor cerrar un mercado pequeño que aceptar precedente que se replique en California, Texas o Nueva York.

El problema con esta estrategia es la percepción pública. Torrez ha calificado la amenaza como «PR stunt», y tiene razón en que es difícil mantener simultáneamente las posiciones de «Meta protege a los menores» y «Meta retirará servicio antes que verificar edad de menores». La narrativa pública del juicio empeora con cada amenaza adicional, especialmente cuando ya hay un veredicto de jurado documentando que la compañía «ocultó lo que sabía sobre los peligros».

Meta también ha reforzado controles parentales para interacciones con IA en Instagram, lo que demuestra que las medidas técnicamente son posibles cuando la compañía las acepta. Desde octubre de 2025, los padres pueden bloquear conversaciones entre adolescentes y personajes de IA de Meta, aunque el chatbot general Meta AI sigue disponible con respuestas adaptadas a la edad. Las exigencias de Nuevo México sobre interacciones romanticas/sexualizadas con chatbots IA encajan con esta lógica.

Lo que está en juego más allá de Nuevo México

El bench trial del 4 de mayo es el primer caso en Estados Unidos en el que un juez decidirá medidas correctivas concretas contra una red social grande tras un veredicto de jurado por daño a menores. La jurisprudencia que se establezca aquí va a influir en docenas de juicios pendientes contra Meta, YouTube, TikTok y Snapchat en otros estados. Por eso Meta está jugando duro: el coste de aceptar medidas en Nuevo México no es las multas (375 millones es ruido para una compañía con 201.000 millones de dólares de ingresos en 2025) sino el precedente legal.

El otro factor es California. La AB 1709, propuesta el 4 de febrero, prohibiría que individuos menores de 16 años creen o mantengan cuentas en redes sociales y exigiría medidas razonables para impedir que menores de 16 accedan o usen cuentas. Si Nuevo México establece precedente de medidas correctivas judicialmente impuestas, California probablemente cite ese precedente para defender su propia legislación. Y California sí es un mercado del que Meta no puede irse.

Mi valoración

Esta historia es uno de los puntos de inflexión más significativos de la regulación de redes sociales en Estados Unidos, y la amenaza de Meta es la prueba de que la compañía sabe que ha perdido el control narrativo del caso. Lo que más me convence del análisis es que el fiscal general Torrez tiene razón al llamar PR stunt a la amenaza. Meta no va a cerrar Facebook e Instagram en Nuevo México, ni siquiera si pierde la fase 2 del juicio. La operación de retirada técnica costaría más que cumplir con la mayoría de las medidas, alienaría a 2 millones de usuarios y crearía un precedente regulatorio horrible (porque otros estados aprenderían que la amenaza es vacía). La declaración legal está diseñada para presionar al juez Biedscheid, no para describir intenciones reales. Lo que más me preocupa es la asimetría procesal del caso. Meta, con sus recursos legales, puede prolongar este juicio durante años con apelaciones, lo que significa que las medidas correctivas, incluso si Nuevo México gana la fase 2, probablemente no se implementen hasta 2028 o 2029. Mientras tanto, los adolescentes en Nuevo México seguirán expuestos exactamente a los mismos riesgos que el jurado del 24 de marzo documentó. La justicia civil estadounidense protege a corporaciones grandes con tiempo de proceso, no con resultados sustantivos. Lo más estructuralmente significativo es lo que la convergencia de casos sugiere sobre la trayectoria. El veredicto de Nuevo México del 24 de marzo, el veredicto contra Meta y YouTube en California del 25 de marzo (caso KGM), la AB 1709 propuesta el 4 de febrero, las investigaciones de la UE contra Snapchat de marzo, la prohibición de apps nudify del Parlamento Europeo. Todo en menos de tres meses. La industria de redes sociales se enfrenta a la mayor concentración de presión regulatoria simultánea de su historia, y Meta es el actor más expuesto por su escala y su histórico documentado de minimizar riesgos a menores. La pregunta a 12 meses no es si Meta acepta medidas correctivas (las va a aceptar, en alguna forma diluida) sino qué medidas son las primeras en convertirse en estándar nacional. Mi predicción es que la verificación de edad obligatoria para nuevas cuentas de menores de 16 años va a ser el primer requisito federal en aprobarse, probablemente en 2027, copiando elementos del Online Safety Act británico que Apple ya cumple voluntariamente con iOS 26.4. La jurisprudencia de Nuevo México será citada en todas las legislaciones estatales que sigan.

Preguntas frecuentes

¿Cuándo empieza el juicio fase 2? El bench trial (juicio sin jurado) ante el juez Bryan Biedscheid comienza el lunes 4 de mayo de 2026 en Santa Fe.

¿Qué pasa si Meta pierde? El juez puede imponer medidas correctivas obligatorias: verificación de edad, cambios al algoritmo, monitor independiente, medidas contra explotación sexual infantil, prohibición de mensajes encriptados para menores. Meta podría apelar, prolongando la implementación durante años. La compañía ha amenazado con cerrar el servicio en el estado si las medidas se imponen.

¿Por qué importa este caso fuera de Nuevo México? Es el primer caso estadounidense donde un juez decidirá medidas correctivas contra una red social grande tras un veredicto de jurado por daño a menores. La jurisprudencia influirá en docenas de juicios pendientes en otros estados y en la AB 1709 propuesta en California, que prohibiría redes sociales para menores de 16 años.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

EEUU ha hecho una apuesta casi total por modelos IA descomunales. China está mostrando otro camino

EEUU ha hecho una apuesta casi total por modelos IA descomunales. China está mostrando otro camino

Alibaba tenía hasta ahora un modelo abierto estupendo para programar. Se traba de Qwen3.5-397B-A17B, pero el problema es que era gigantesco con sus 397.000 millones de parámetros y sus 807 GB de tamaño en disco (y memoria). La empresa china ha hecho algo sorprendente y ha anunciado estos días el modelo Qwen3.6-27B, que en su versión cuantizada pesa menos de 17 GB. Cualquiera pensaría que con ese tamaño sería mucho peor que su hermano mayor. Pero se equivocaría. Es la prueba de que es posible dar por mucho menos.

Un modelo denso. La mayoría de modelos grandes de pesos abiertos en 2026 usan arquitectura Mixture-of-Experts (MoE): tienen muchos parámetros en total, pero solo activan una fracción de ellos cuando los usamos. Por ejemplo el modelo Qwen3.5-397B-A17B precisamente indicaba eso en su nombre: de los 397.000 millones de parámetros, tan solo activaba 17.000 millones (de ahí el A17B) al usarlo. 

Con Qwen3.6-27B tenemos lo que se llama un modelo denso: los 27.000 millones de parámetros se activan en cada inferencia. Aunque es algo menos eficiente, tienen ventajas prácticas claras. Por ejemplo, no es necesario configurar un enrutador de expertos, y la cuantización es más predecible y compacta. La idea ha funcionado, y los resultados lo demuestran.

Qwen El rendimiento de este "pequeño" modelo de IA es incluso superior a una versión anterior mucho más grande.

Los benchmarks no mienten (demasiado). En SWE-bench Verified, el benchmark más popular para tareas de programación real, Qwen3.6-27B logra el 77,2% de puntuación frente al 76,2% del modelo de 397B. En Terminal-Bench 2.0, que mide qué tal ejecuta el modelo tareas en la consola de comandos, logró un 59,3%  frente al 2,5% de su rival. Pero es que en esta prueba logra exactamente la misma puntuación que Claude Opus 4.5, uno de los mejores modelos recientes de Anthropic. Que un modelo "Open Source" que se puede usar en local con facilidad logre algo así es insólito, pero debemos ser cautos: los benchmarks son de la propia Alibaba, y no hay de momento verificación independiente aunque quienes lo están usando parecen estar realmente satisfechos con él.

Hasta Alibaba se sorprende. Lo que es llamativo de este lanzamiento es que la propia empresa que lo ha lanzando está impulsándolo por encima de su modelo más ambicioso hasta hace poco. Que ellos mismos comparen ambas versiones y reconozcan que el "pequeño" es el más potente es significativo. Es como  decir a los cuatro vientos que los modelos de IA más  grandes no tienen competencia, cuando ellos acaban de comprobar que no es así y que modelos como Qwen3.6-27B pueden ser realmene notables en comportamiento.

"Bastan" 24 GB de VRAM. Gracias a su reducido tamaño, es posible usar este modelo en máquinas relativamente accesibles. Así, los 24 GB de memoria de vídeo de las RTX 3090 convierten a estas gráficas en una alternativa perfecta para instalar y usar Qwen3.6-27B con un rendimiento excelente. Los modelos densos no van tan bien en MacBook o Mac mini con memoria unificada, y aunque lógicamente no todo el mundo tiene acceso a gráficas con 24 GB de RAM, el acceso a modelos locales realmente capaces sigue mejorando.

Las mejores esencias, en fracos pequeños. Alibaba es una apisonadora de modelos de IA "pequeños", y lo demostró a principios de marzo cuando lanzó varios que iban desde los 0.8B a los 9B. Afortunadamente hay alternativas variadas en ese segmento de "Small Language Models" (SLMs) y aquí tenemos ejemplos de referencia como Gemma 4, recién lanzado por Google. Microsoft con Phi-4 (que necesita una actualización, como gpt-oss-20b/120b) o Mistral con Devstral 2 son ejemplos de que las empresas occidentales también están moviendo ficha en este interesante terreno.

Pero. Según los benchmarks, Qwen3.6-27b es comparable en algunos benchmarks a Claude Opus 4.5, el modelo más avanzado de Anthropic cuando se lanzó en noviembre de 2025. Eso es sorprendente y confirma que los modelos de pesos abiertos de empresas chinas están, como decía Demis Hassabis, entre 6 y 12 meses por detrás de los modelos más avanzados de Anthropic, OpenAI o Google. Pero para ejecutarlos sigue siendo necesaria una inversión notable, y aunque los modelos de IA en local  son muy interesantes de cara a la privacidad, si hoy en día uno quiere la máxima velocidad y rendimiento sigue dependiendo de los modelos comerciales en la nuibe.

Imagen | Solen Feyissa

En Xataka | Google invertirá hasta 40.000 millones de dólares en Anthropic porque la nueva normalidad de la IA es invertir en tu enemigo

-
La noticia EEUU ha hecho una apuesta casi total por modelos IA descomunales. China está mostrando otro camino fue publicada originalmente en Xataka por Javier Pastor .



☞ El artículo completo original de Javier Pastor lo puedes ver aquí

Unos científicos han descubierto algo extraño: a los pájaros de las ciudades les dan más miedo las mujeres que los hombres

Unos científicos han descubierto algo extraño: a los pájaros de las ciudades les dan más miedo las mujeres que los hombres

Pasear por un parque y que una paloma, una cotorra y un gorrión salgan volando al acercarnos es algo bastante cotidiano, puesto que nos ven como una amenaza, seguramente por nuestro gran tamaño en comparación. Pero la verdad es que ahora sabemos que este gesto es más común cuando el humano que se acerca es una mujer, como si fuera un género que le diera más miedo. 

Lo han investigado. Esta curiosidad ha sido la conclusión a la que ha llegado un estudio científico publicado en British Ecological Society en el que se apunta que los pájaros escapan antes cuando se acercan mujeres que cuando se acercan hombres. Y para llegar hasta aquí, el equipo de investigación no se basó en unas pocas observaciones, sino que diseñó un experimento que agrupó 2.701 observaciones a lo largo de cinco países europeos y de 37 especies urbanas diferentes. 

Los resultados. Si entramos en cifras concretas, se ha podido ver que cuando la persona que se acerca a las aves es una mujer, la distancia de huida es aproximadamente un metro mayor que cuando se acerca un hombre. 

Y aquí la pregunta que nos podemos hacer es si esto es una simple casualidad, pero aquí los investigadores han dejado claro que no es así, puesto que la conclusión de que las aves distinguen el sexo del humano observador es estadísticamente sólida. Y para garantizar esta precisión, los investigadores controlaron múltiples variables durante los acercamientos, incluyendo la distancia inicial, el tamaño del banco de aves y la cobertura de árboles de alrededor. 

¿Por qué? Aunque el patrón de comportamiento es innegable, las causas exactas siguen siendo un misterio en gran medida, ya que los investigadores apuntan a que falta un mecanismo explicativo concreto. Las teorías a las que se apunta principalmente están relacionadas con diferentes factores, como por ejemplo las diferencias en la forma corporal entre la mujer y el móvil o incluso el movimiento, ya que la forma de caminar puede ser una señal de alerta para los animales. 

Además, se plantea que el olor que tiene cada uno de los géneros es una posible hipótesis para explicar esta reacción anticipada de huida. Pero la verdad todavía es un gran misterio. 

Supervivencia en evolución. El hecho de que las aves presten tanta atención a los humanos cobra sentido si tenemos en cuenta la enorme presión evolutiva que ejercen las ciudades, puesto que en muy poco tiempo las aves han tenido que adaptarse a nuestra presencia y sobre todo a la presión de tenernos literalmente encima de ellos en parte de su ambiente. Y poco a poco vamos conociendo que no todos los seres humanos tienen el mismo efecto sobre ellos. 

Imágenes | wirestock en Magnific ArthurHidden en Magnific

En Xataka | España tiene a un pájaro feísimo que no quiere que se extinga. Y toda Europa depende de que no lo haga

-
La noticia Unos científicos han descubierto algo extraño: a los pájaros de las ciudades les dan más miedo las mujeres que los hombres fue publicada originalmente en Xataka por José A. Lizana .



☞ El artículo completo original de José A. Lizana lo puedes ver aquí

Lo de la verificación de edad no es nada. Grecia quiere eliminar por completo el anonimato en internet

Lo de la verificación de edad no es nada. Grecia quiere eliminar por completo el anonimato en internet

Grecia celebrará elecciones a principios de 2027 y sus gobernantes han tenido una idea singular para evitar (o mitigar) los deepfakes, la desinformación y los discursos tóxicos, especialmente en relación a ese proceso electoral, pero también en otros escenarios. Lo que quieren es nada menos que erradicar el anonimato de internet y que tengas que revelar tu identidad en plataformas para poder usarlas.

Recordando la democracia. Dimirtis Papastergiou, ministro de gobernanza digital en Grecia, recordaba en Euractiv cómo la democracia nació en su país con un objetivo claro. 

"En la antigua Grecia, todo el mundo podía expresar su opinión de forma abierta y con su nombre. Levantaban la mano y compartían su perspectiva. Esto debería inspirarnos ahora que queremos perfilar una nueva democracia digital".

Adiós al anonimato en redes. Esa reflexión es el argumento tras una medida polémica: Grecia tiene un plan para tratar de prohibir el anonimato en las redes sociales. Eso permitrá minimizar la creciente toxicidad en esas redes, afirma el ministro, que está impulsando una idea que ya se debate en el despacho presidencial de Kyriakos Mitsotakis, el primer ministro griego.

Pseudónimos sí, pero siempre asociados a tu identidad real. La medida no busca prohibir los avatares y pseudónimos que utilizan los usuarios en sus perfiles. En lugar eso lo que quiere es garantizar que el sistema sepa exactamente qué ciudadano está detrás de esa etiqueta. Tal y como el ministerio lo plantea, cualquier opinión es válida siempre que quien la exprese sea rastreable por las autoridades en caso de cometerse una infracción legal. 

Contra el acoso y la difamación. Papastergiou destaca cómo el anonimato se ha convertido en el escudo perfecto para atacar reputaciones o acosar de forma coordinada. Esas situaciones han intentado ser investigadas por la policía helena sin éxito debido a la opacidad de las plataformas. Si se exige una verificación de edad que vincule una cuenta con una persona, el gobierno podrá aplicar medidas para que el coste social de la difamacion sea el mismo en la vida real que en la pantalla.

Las elecciones de 2027 como catalizadoras de la decisión. El calendario político de Grecia ha provocado esa urgencia regulatoria, porque el país heleno celebrará comicios generales a principios del año que viene. Según el gabinete del primer ministro, el debate político nacional se ha convertido en un caos de noticias falsas y amenazas orquestadas tanto por usuarios anónimos como por ataques de bots coordinados. La campaña electoral ya ha comenzado de forma oficiosa, y esa prohibición del anonimato se presenta como una medida "higiénica" para evitar o al menos mitigar desinformación y discursos de odio que según el gobierno contaminan la convivencia de la sociedad griega.

Mal negocio para Facebook, X o TikTok. Prohibir el anonimato tendría un impacto claro en las plataformas, que desde sus inicios han construido su base de usuarios asumiendo que una gran parte de ellos hacían uso de un perfil anónimo. Eso ha favorecido un crecimiento extraordinario en número de usuarios aunque esté claro que parte de ellos están duplicados o son bots. Papastergiou acusa a las empresas de mantener ese modelo de negocio por puro beneficio económico, priorizando eso sobre los problemas de toxiciad,  por ejemplo. El enfrentamiento está servido: por un lado el estado reclama la capacidad de identificar a sus ciudadanos, y por otro las empresas protegen el anonimato porque eso favorece el modelo de negocio publicitario.

También en prensa digital. Pavlos Marinakis, vicepresidente del gobierno, ha ido más allá y apunta que esta medida podría no limitarse a las redes sociales. Su idea es exigir que todos los artículos y comentarios en prensa digital estén firmados por personas reales, eliminando así los pseudónimos y espacios de opinión colectivos. Esto ha activado aún más alarmass, esta vez entre quienes defienden los derechos digitales, qeu ven aquí una herramienta potencial para silenciar las críticas y denuncias que se realizan con el anonimato como único escudo frente a las represalias. 

Un precedente europeo. Grecia es el país más vocal en proponer esta medida y activarla de forma unilateral si la Unión Europea no mueve ficha. Grecia ya se ha sumado a esa tendencia de imponer la verificación de edad para prohibir el uso de redes sociales a menores de 15 años. Un enfoque fragmentado plantea problemas y es incluso cuestionable bajo el marco de la DSA. De hecho, es de esperar que la UE se pronuncie al respecto, y la aprobación de una medida así a nivel paneuropeo se enfrenta a obstáculos extraordiarios. En España también se ha barajado esa posibilidad, pero es mucho más fácil decirlo que hacerlo.

Peligrosísimo. Desmantelar el anonimato en internet tiene sin duda sus ventajas a la hora de mitigar todos los discursos tóxicos, de odio y desinformación que abundan en internet, pero las desventajas son aún más grandes. El plan griego asume que el Estado siempre será un actor benevolente y que esa identificación de usuarios solo se usará para perseguir delitos reales. Sin embargo estamos en una era de polarización extrema y una medida así permitiría entre otras cosas crear una gigantesca base de datos en las que cada DNI real estuviera asociada —entre otras cosas— a una opinión política. Es la semilla de un sistema de vigilancia masivo que podría ser más tóxico que eso que precisamente quiere combatir.

Imagen | Chaozzy Lin | dole777

En Xataka | Llevas años siendo 'user84721'. Un estudio acaba de demostrar que la IA puede saber quién eres en minutos

-
La noticia Lo de la verificación de edad no es nada. Grecia quiere eliminar por completo el anonimato en internet fue publicada originalmente en Xataka por Javier Pastor .



☞ El artículo completo original de Javier Pastor lo puedes ver aquí