16 de abril de 2026

OpenAI lanza GPT-5.4-Cyber para «miles» de defensores de ciberseguridad: el modelo con menos restricciones para vulnerabilidades, en respuesta directa a Anthropic Mythos

Imagen abstracta que representa la lucha contra los bots de IA que raspan contenidos web. La imagen muestra una red de estructuras digitales protegidas por un escudo, simbolizando la protección de datos y la ciberseguridad, con colores brillantes como azul y verde que representan la tecnología y la seguridad.

OpenAI ha lanzado este 15 de abril GPT-5.4-Cyber, una variante de su modelo principal específicamente afinada para trabajo defensivo en ciberseguridad. El modelo se distribuye dentro de un programa expandido llamado Trusted Access for Cyber (TAC), que la compañía está ampliando desde un piloto limitado a «miles de defensores verificados individualmente y cientos de equipos responsables de defender software crítico», según las cifras facilitadas por la propia OpenAI. Es un movimiento directamente comparable al Project Glasswing que Anthropic anunció el 7 de abril con su modelo Claude Mythos, pero con una filosofía diametralmente opuesta: mientras Anthropic ha decidido restringir su modelo más capaz a solo 11 organizaciones (Apple, Google, Microsoft, AWS, Cisco, CrowdStrike, JPMorgan Chase entre ellas), OpenAI apuesta por acceso amplio con verificación. Dos visiones contrarias del mismo problema, y la industria se está dividiendo en bandos.

Lo distintivo de GPT-5.4-Cyber, según los reportes complementarios de Derek B. Johnson en CyberScoop y Ana Maria Constantin en TheNextWeb, es lo que ellos llaman «lowered refusal boundary». Los modelos de propósito general bloquean por defecto preguntas sensibles sobre investigación de vulnerabilidades, análisis de exploits o comportamiento de malware. La variante Cyber está diseñada para responder esas preguntas, siempre que el usuario haya pasado verificación como profesional legítimo de ciberseguridad. La función estrella es la ingeniería inversa de binarios: los analistas pueden subir un ejecutable compilado y recibir análisis de comportamiento potencialmente malicioso, vulnerabilidades embebidas y debilidades estructurales. Es trabajo que tradicionalmente requiere herramientas especializadas como IDA Pro o Ghidra, además de horas o días de experiencia humana.

El programa Trusted Access for Cyber se lanzó originalmente en febrero junto con un fondo de 10 millones de dólares para grants en investigación de ciberseguridad. La actualización de hoy lo escala drásticamente: usuarios individuales pueden autenticarse en chatgpt.com/cyber, las empresas pueden solicitar acceso para sus equipos completos a través de un representante de OpenAI, y los investigadores que necesiten las capacidades más permisivas pueden aplicar a un nivel invitation-only. Hay una contrapartida importante para los usuarios del nivel más alto: deben renunciar a Zero-Data Retention, lo que significa que OpenAI mantiene visibilidad sobre lo que están haciendo con el modelo. Las consultas, los binarios analizados, los exploits estudiados, todo queda registrado en algún sitio. Para equipos que trabajan con infraestructura clasificada o muy sensible, esa visibilidad puede ser un dealbreaker. Y crea un punto único de compromiso: si los logs de OpenAI se filtran, se convierten en un mapa de vulnerabilidades sin parchear de las organizaciones más críticas del planeta.

El contraste con la apuesta de Anthropic es lo más interesante del movimiento. Anthropic argumenta que las capacidades de descubrimiento de zero-days que tiene Claude Mythos (incluida la identificación autónoma de un bug de 27 años en OpenBSD y un fallo de RCE de 17 años en FreeBSD) son demasiado peligrosas para ponerlas en manos de cualquiera, y por eso restringe el acceso a un consorcio cerrado de gigantes tecnológicos y entidades financieras. OpenAI, en cambio, sostiene que limitar herramientas defensivas a un puñado de empresas grandes deja sin protección al resto: hospitales municipales, infraestructura crítica de pequeñas ciudades, ayuntamientos, ONGs, firmas de seguridad de tamaño medio. Su argumento es que si los atacantes no tienen ninguna restricción, los defensores tampoco deberían tenerla. Esa frase resume exactamente la fractura filosófica de la industria.

GPT-5.4-Cyber complementa también a Claude Code Security, la herramienta automatizada de escaneo de código de Anthropic que detectó más de 500 vulnerabilidades de alta severidad en código open source en su preview, y a Codex Security, la herramienta paralela de OpenAI que ya ha contribuido a más de 3.000 fixes de vulnerabilidades críticas y de alta severidad en el ecosistema open source, cubriendo más de 1.000 proyectos a través de un programa de escaneo gratuito. La pregunta de fondo, sin embargo, sigue siendo la misma para ambos enfoques: ¿pueden las protecciones aguantar? Una investigación publicada en enero encontró que ataques adaptativos de prompt injection consiguen burlar incluso las defensas más avanzadas más del 85% del tiempo, lo que sugiere que el modelo de «rechazo» como salvaguarda principal está perdiendo terreno frente a la realidad técnica. OpenAI parece haberlo aceptado: prefiere verificar quién pregunta antes que filtrar qué responde.

El telón de fondo regulatorio añade otra capa. La parte sustantiva del EU AI Act entra en vigor el 2 de agosto de 2026. Los sistemas de IA de alto riesgo, categoría en la que probablemente caen las herramientas de automatización de seguridad, tendrán que demostrar cumplimiento con requisitos de gestión de riesgo, gobernanza de datos, transparencia y supervisión humana. Cómo encajan los modelos de acceso por niveles dentro de ese marco es una pregunta abierta que ni OpenAI ni Anthropic han abordado con claridad. Y mientras tanto, las dos compañías más prominentes del sector están corriendo para equipar a profesionales de ciberseguridad con modelos capaces de encontrar y analizar vulnerabilidades a una velocidad que era imposible hace un año.

Mi valoración: la división entre Anthropic y OpenAI es genuinamente filosófica y refleja dos teorías sobre cómo evitar el desastre. La de Anthropic dice «concentremos el poder en pocas manos confiables y que filtren los hallazgos al resto»; la de OpenAI dice «demos el mismo poder a todos los defensores legítimos para que los atacantes no tengan ventaja». Ambas tienen mérito y ambas tienen debilidades. La de Anthropic crea un cuello de botella que puede asfixiar la velocidad de respuesta a vulnerabilidades nuevas; la de OpenAI multiplica los puntos de fallo si la verificación KYC se compromete. Mi sospecha es que el modelo de OpenAI escala mejor pero rompe antes, y el de Anthropic funciona perfecto hasta que el consorcio se queda obsoleto. Para los profesionales de ciberseguridad que trabajan en empresas medianas, sin embargo, la noticia es buena: por primera vez tendrán acceso a un modelo de IA específicamente diseñado para defensa, sin las limitaciones artificiales que les obligaban a tirar de jailbreaks para obtener respuestas técnicas básicas. La cuestión a vigilar no es si funciona (probablemente sí), sino qué pasa cuando uno de esos «miles» de defensores verificados resulta no ser quien decía ser.

Preguntas frecuentes

¿Quién puede acceder a GPT-5.4-Cyber? Profesionales de ciberseguridad verificados a través del programa Trusted Access for Cyber. Hay tres niveles: individual (chatgpt.com/cyber), equipos empresariales (a través de representante OpenAI) e investigadores avanzados (invitation-only). ¿Hay restricciones de uso? El nivel más alto requiere renunciar a Zero-Data Retention, lo que significa que OpenAI mantiene logs de las consultas. Para infraestructura sensible o clasificada, esto puede ser un problema serio. ¿Por qué OpenAI hace esto si Anthropic restringe Mythos a solo 11 empresas? Filosofía opuesta: OpenAI cree que la defensa requiere acceso amplio con verificación; Anthropic cree que el riesgo justifica acceso ultra-restringido. Las dos compañías están apostando por estrategias contrarias al mismo problema.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Roblox amplía su sistema de estimación de edad pese a las quejas de padres: cuando la IA te clasifica mal, sacar al niño del grupo equivocado no es tan fácil

Roblox amplía su sistema de estimación de edad pese a las quejas de padres: cuando la IA te clasifica mal, sacar al niño del grupo equivocado no es tan fácil

Roblox ha defendido este fin de semana la expansión masiva de su sistema de seguridad infantil, incluso después de que varios padres denunciaran a la BBC que la tecnología de estimación de edad ha clasificado a sus hijos incorrectamente como adultos, dejándolos en versiones menos protegidas del servicio. La plataforma, que cuenta con 144 millones de usuarios activos diarios en todo el mundo, está introduciendo dos nuevos tipos de cuenta: Roblox Kids y Roblox Select. La edad estimada por el sistema decidirá a cuál de los dos accede cada usuario, qué contenido verá y con quién podrá comunicarse.

Matt Kaufman, director de seguridad de la empresa, explicó a la BBC que el sistema de estimación de edad (que incluye análisis facial) ya se usa en más de la mitad de los usuarios diarios: decenas de millones de personas. La precisión, según la compañía, es de «aproximadamente 1,4 años arriba o abajo» para menores de 18. Roblox no ha publicado datos sobre cuántas veces clasifica mal a los niños como adultos, pero Kaufman defendió que la tecnología es más fiable que preguntar directamente la edad: «cuando haces esa pregunta sencilla, los usuarios te dicen lo que quieran para conseguir el acceso». Lo cual, hay que admitirlo, es cierto. Pero sustituir una pregunta fácil de engañar por una IA que se equivoca un porcentaje indeterminado de veces no es obviamente un avance, y los padres lo están señalando.

La estructura de los dos nuevos tipos de cuenta es bastante explícita sobre a quién se dirigen. Roblox Kids, para los más pequeños, trae interfaz simplificada, sin herramientas de comunicación y con acceso solo a un catálogo curado de juegos. Roblox Select, pensada para usuarios de 9 a 15 años, permite comunicación limitada y una biblioteca más amplia pero igualmente restringida. Los usuarios que no completen la verificación de edad quedarán por defecto en el contenido infantil y sin posibilidad de chatear. La decisión sobre qué experiencias se permiten a menores de 16 se toma mediante señales como antigüedad del juego en la plataforma, historial de quien lo desarrolla y patrones de uso. Los juegos con elementos sociales o de forma libre, según Kaufman, no estarán disponibles por defecto en las cuentas Kids y Select.

El timing del anuncio es llamativo. Llega justo después de que una madre denunciara a la BBC que su hija de 14 años fue groomed en la plataforma, acabando por enviar imágenes sexualmente explícitas a un hombre de 18 años. Los problemas de grooming en Roblox no son nuevos: la propia plataforma ha ido endureciendo sus verificaciones de edad con escaneo facial o documento oficial durante 2025, y cada nuevo ajuste ha ido acompañado de entrevistas incómodas en las que el CEO Dave Baszucki ha tenido que defender un equilibrio frágil entre crecimiento y seguridad. Hay también presión regulatoria: la Online Safety Act británica entró en vigor en 2025, y Bruselas ha abierto frente múltiple contra plataformas que no protegen a los menores.

La profesora Sonia Livingstone, de la London School of Economics, calificó la respuesta de Roblox de «alentadora» pero añadió que «hay evidencia creciente de que la plataforma sigue planteando riesgos reales para la seguridad infantil», y pidió «confirmación independiente de que la moderación es suficiente, los sistemas de ayuda funcionan y las verificaciones de edad no se usan para perfilado comercial». Esa última coletilla es clave: un sistema de estimación de edad que analiza rostros es, en la práctica, un sistema de recolección biométrica. Roblox asegura que los datos se eliminan en 30 días salvo requerimiento legal, pero el tamaño de su base de usuarios (144 millones diarios, de los cuales una proporción enorme son menores) convierte cualquier brecha o cambio de política en un asunto serio.

Mi valoración: la defensa de Kaufman tiene un núcleo válido y un borde preocupante. El núcleo válido es que preguntar la edad a un niño y esperar que no mienta nunca ha funcionado y nunca va a funcionar. Algo tiene que reemplazar ese sistema, y la estimación facial + verificación documental es, por ahora, lo menos malo. El borde preocupante es la gestión del error. Si tu sistema tiene una precisión de ±1,4 años en menores, eso significa que un porcentaje significativo de niños de 11 años será clasificado como de 13 o 14, y viceversa. Dos errores distintos con consecuencias distintas: a un niño de 11 mal clasificado se le abre acceso a funciones pensadas para 13+; a uno de 14 mal clasificado se le cierra el chat con sus amigos reales. Kaufman dice que hay proceso de apelación e ID para corregir errores, pero los padres que hablaron con la BBC describen que hacerlo es «difícil y estresante». Y esa es la asimetría real del modelo: Roblox se protege regulatoriamente con la media (1,4 años), mientras los padres y los niños viven el problema caso por caso, sin herramientas comparables a las de la empresa para pelearlo. Es el mismo patrón que hemos visto en verificación de edad de redes sociales y en reconocimiento facial policial: el error estadístico en agregado es aceptable, el error individual es devastador y lo paga siempre el usuario.

Preguntas frecuentes

¿Qué son Roblox Kids y Roblox Select? Dos nuevos tipos de cuenta en función de la edad estimada. Kids es para los más pequeños, con interfaz simplificada y sin chat. Select es para 9-15 años, con comunicación limitada y catálogo restringido. ¿Qué precisión tiene el sistema de estimación de edad? Según Roblox, de aproximadamente 1,4 años arriba o abajo para menores de 18. La empresa no ha publicado datos sobre cuántos niños son clasificados incorrectamente como adultos. ¿Se puede corregir un error de clasificación? Roblox dice que los padres pueden restablecer la verificación, presentar apelaciones o usar verificación con documento de identidad. Los padres consultados por la BBC describen el proceso como «difícil y estresante».




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Han puesto a los 21 chatbots de IA más populares a realizar diagnóstico diferencial. Fallan más que una escopeta de feria

Han puesto a los 21 chatbots de IA más populares a realizar diagnóstico diferencial. Fallan más que una escopeta de feria

House’ es una serie que me encanta. Las intrahistorias no me importan lo más mínimo, pero el proceso del diagnóstico diferencial -pese a todo lo peliculero-, me vuelve loco. Esa capacidad para ir descartando enfermedades que podían explicar unos mismos síntomas para llegar al diagnóstico más probable me parece brujería. Bien: han puesto a los 21 chatbots de IA más populares a realizar ese diagnóstico diferencial y el resultado es claro.

Falla más que una escopeta de feria.

En corto. El Mass General Brigham no es un ‘cualquiera’. Se trata de una red de médicos y hospitales estadounidenses sin fines de lucro entre los que se encuentran dos de las instituciones de enseñanza médica más prestigiosas del país. De enero a diciembre de 2025, un grupo de investigadores de la institución pusieron a 21 chatbots de IA como Claude 4.5 Opus, DeepSeek, Gemini 3.0 Pro, GPT-5 o Grok 4 a evaluar decenas de casos clínicos con el objetivo de establecer cuál era su nivel de acierto en un diagnóstico temprano.

La información es extremadamente básica, pero también es la que tienen los profesionales a la hora de realizar ese diagnóstico diferencial y la intención última es evaluar la capacidad de razonamiento clínico de los modelos de lenguaje de última generación para ver si pueden ser un aliado clínico. La respuesta es que no. Mientras modelos optimizados para el razonamiento lograron puntuaciones mucho más altas que otros más simples como Gemini 1.5 Flash, la conclusión es que los LLM siguen siendo limitados para esta tarea.

El examen. A cada uno de los modelos se le entregó 29 casos clínicos que representan más de 16.200 respuestas en total. El resultado es que esas versiones más recientes de los chatbots más potentes no pudieron producir un diagnóstico diferencial adecuado en alrededor del 80% de los casos cuando sólo tenían información básica del paciente.

El problema es que edad, sexo y síntomas es una información muy vaga, sí, pero con la que ‘juegan’ por primera vez los profesionales humanos que tienen que realizar ese diagnóstico diferencial. Poco a poco, a medida que van haciendo otras pruebas y obteniendo más información, afinan el resultado, pero es ese primer tratamiento de ‘descarte’ el que marca la diferencia muchas veces.

"Queremos ayudar a separar el bombo de la realidad de estas herramientas a medida que se aplican a la atención médica"

Otra película. Y, precisamente, a medida que a los LLM se les iban dando más datos, el rendimiento y resultados fueron más robustos. Cuando el chatbot tiene más y más información como los datos de un análisis físico, los resultados de laboratorio y las imágenes diagnósticas, la cosa cambia y la IA llega al diagnóstico final en más del 90% de los casos. 

Pero claro, para llegar a ese escenario deben tener casi todos los datos clínicos, lo que evidencia aún más la brecha con la impotencia a la hora de realizar un filtrado inicial.

No te fíes de Google ChatGPT. Los investigadores tienen claro que “estos modelos son muy buenos para identificar un diagnóstico final cuando los datos están completos, pero tienen dificultades al inicio de un caso abierto”, lo que les lleva a enfatizar que no hay que fiarse de ellos en casa. La industria de la IA está empujando su producto en el circuito médico, pero desde el estudio apuntan que “a pesar de las mejoras continuas, los LLM comerciales no están listos para su implementación clínica sin supervisión”.

Afirman que se necesita un humano en la operación y “una supervisión muy estrecha” para poder escalar el uso de un LLM en el ámbito sanitario. Y ahí están hablando en todo momento del uso profesional, pero cada vez más se ven casos de personas que antes se autotrataban confiando en Google y que ahora lo hacen fiándose de lo que le dice ChatGPT. En el estudio enfatizan que “las alucinaciones permanecen” en estos modelos de última generación mostrando, además, preocupaciones sobre la seguridad y la integridad de los pacientes.

Lo de El Salvador. De la manera que sea, es evidente que, al final, la IA médica es un ayudante más, una herramienta, y aquí lo que se ha puesto a prueba es un chatbot “común” que sabe de todo, pero no está especializado en nada. En medicina, como en otras industrias, el uso de una IA puede ayudar en tareas como eliminación de posibilidades u ordenación de miles de datos, pero un chatbot aún no es un buen compañero en ese diagnóstico diferencial porque, sencillamente, no se puede confiar en él.

Quienes sí van a tener que confiar en la IA para cualquier tipo de tratamiento son los salvadoreños. El Salvador ha sido un país pionero a la hora de adoptar nuevas tecnologías, y el presidente, Nayib Bukele, acaba de emprender otro experimento: 500 millones de dólares para dejar la sanidad en manos de Gemini. La población tendrá acceso a la app Dr.SV que ejercerá de médico de familia. Como detallan en El País, esta IA sabrá los síntomas y asignará llamadas con médicos que realizarán el diagnóstico. La IA hará el seguimiento para consultas y enfermedades crónicas y el objetivo es que se ocupe de pacientes con cáncer en un futuro.

Según Bukele, están creando el mejor sistema de salud del mundo, algo curioso teniendo en cuenta que despidieron a más de 7.700 empleados del sistema de salud durante 2025. Por el bien de los salvadoreños, esperemos que ese nuevo experimento no termine como la Bitcoin City.

En Xataka | La privacidad está muriendo desde que llegó ChatGPT. Ahora nuestra obsesión es que la IA nos conozca lo mejor posible

-
La noticia Han puesto a los 21 chatbots de IA más populares a realizar diagnóstico diferencial. Fallan más que una escopeta de feria fue publicada originalmente en Xataka por Alejandro Alcolea .



☞ El artículo completo original de Alejandro Alcolea lo puedes ver aquí

Creíamos que éramos 8.000 millones de personas en todo el planeta. Hasta que unos investigadores se pusieron a hacer números

Creíamos que éramos 8.000 millones de personas en todo el planeta. Hasta que unos investigadores se pusieron a hacer números

En noviembre de 2022, la ONU celebró que ya éramos 8.000 millones de humanos en la Tierra. Son estimaciones, claro, pero más allá de la cifra, lo realmente interesante es que en 2023 no llegamos a la tasa de reemplazo y que la humanidad llegará a su pico a finales de siglo para, irremediablemente, empezar a caer. Pero… ¿hasta qué punto podemos fiarnos de esas cuentas? Es algo que lleva tiempo encima de la mesa y en lo que, según un estudio de 2025, nos hemos equivocado contando.

Tanto que nos hemos dejado varios cientos de millones de personas por el camino.

¿Podemos confiar en los números? “Calcular el número de personas que hay en el planeta es una ciencia inexacta”. Ese era el comentario del demógrafo Jakub Bijak a BBC a mediados de 2024, justo cuando apareció el estudio de Perspectivas de la Población Mundial. Algo científico es algo exacto, pero el investigador también comentó que de lo único que se puede estar seguro al predecir cifras de población es de la falta de certeza.

Eso, ojo, no significa que los demógrafos se saquen las cifras de la nada. “Es algo difícil basado en nuestra experiencia, conocimiento y en cada pieza de información a la que tenemos alcance”, comentó Toshiko Kanera, experta en pronósticos demográficos. Los demógrafos beben de los datos y tendencias de cada país desde 1950, pero… ¿y si no se hubiera contado bien?

Nos faltan millones. En un estudio de 2025 publicado en Nature, investigadores de la Universidad de Aalto en Finlandia muestran cómo los conjuntos de datos que manejan los demógrafos subestiman de manera “profunda y sistemática” las cifras de población en todo el mundo. Lo serio es que estaríamos hablando de cientos de millones más de personas viviendo en la Tierra.

Demografía Ejemplo de las herramientas que los demógrafos utilizan en sus análisis. Cada una corresponde a un sesgo distinto

Las áreas rurales. Josias Láng-Ritter es uno de los investigadores encargados del estudio y apunta a las cuentas realizadas en un segmento concreto: el de la población rural. “Por primera vez, nuestro estudio proporciona evidencia de que una proporción significativa de la población rural podría estar ausente en los conjuntos de datos de la población global”, señala.

Como decimos, no hablamos de unos cuantos millones, sino de miles de millones. “Dependiendo del conjunto de datos utilizado, las poblaciones rurales han sido subestimadas entre un 53% y un 84% en el periodo estudiado. Los resultados son notables, ya que estos conjuntos de datos se han utilizado en miles de estudios y han respaldado ampliamente la toma de decisiones, pero su precisión no ha sido evaluada sistemáticamente”, comenta el investigador.

Demografía El mapa muestra la ubicación de las 307 áreas rurales analizadas en el estudio. Se encontró que las poblaciones reportadas en la gráfica estaban subestimadas entre un 53% y un 84% | Universidad de Aalto

Sesgos. Los intentos por revisar estos datos no son nuevos, pero anteriores investigaciones se han centrado en países concretos o áreas urbanas. Los investigadores de la Universidad de Aalto han querido dar una foto más global al comparar los cinco conjuntos de datos de población más utilizados a nivel mundial. Han utilizado mapas que dividen el planeta en cuadrículas de alta resolución y han tomado como referencia algo muy concreto: las cifras de reasentamiento de más de 300 proyectos de represas rurales en 35 países.

¿Por qué ese sesgo de las represas? Porque cuando se construye una represa, la población que habita en el área que se inundará es reubicada y se suelen tener datos de reasentamiento precisos. Al comparar esos datos de población de 1975 al 2010, los investigadores encontraron que los mapas de 2010 eran más precisos, pero aun así omitían entre un 32% y un 77% de la población rural.

Entre 2015 y 2020 se actualizaron los conjuntos de datos, pero los demógrafos siguen considerando que la subestimación de la población rural sigue existiendo y es un problema que persiste en todas las regiones del mundo.

Consecuencias. Y estamos hablando de un problema cuya resolución es compleja. Según los investigadores, por mucho que se revisen los datos, es un problema estructural. Los gobiernos no tienen los recursos para recopilar datos precisos en esas regiones rurales, hay una enorme discrepancia entre la población real y la reportada en los mapas de población que se utilizan para realizar los estudios demográficos y eso influye en la toma de decisiones.

Demografía Porcentaje promedio de población rural estimada a la baja (rojo y naranja) y sobrestimada (azules) | Universidad de Aalto

Y es importante. Las estimaciones actuales sitúan al 43% de los 8.200 millones de habitantes del mundo en áreas rurales -unos 3.526 millones de personas- y si tenemos en cuenta que es un porcentaje que se ha subestimado entre un 53% y un 84%, no estamos hablando de poca población, precisamente. Y es fundamental conocer exactamente cuántos somos por un motivo simple: la redistribución de recursos.

Sin datos. La falta de registros demográficos precisos puede afectar en la toma de decisiones políticas. Ritter pone el ejemplo de las decisiones sociales. “En muchos países, puede que no haya suficientes datos disponibles a nivel nacional, por lo que dependen de los mapas de población global para respaldar sus decisiones: ¿Necesitamos una carretera asfaltada o un hospital? ¿Cuánta medicina se necesita en una zona específica? ¿Cuántas personas podrían verse afectadas por desastres naturales como terremotos o inundaciones?”, comenta.

Haciendo cuentas rápidas, en el mejor escenario -el del 53% de desviación en la población rural- hablaríamos de 1.869 millones de personas que no se habrían contado. En el peor de los casos, en el del 84% no registrado, hablaríamos de 2.962 millones de personas. En el estudio de Nature, ponen de ejemplo Paraguay, que en el censo de 2012 puede haber dejado fuera una cuarta parte de la población.

Revisando los métodos. En el análisis del equipo, hay países que salen mejor parados que otros. Ponen Finlandia como un ejemplo de datos fiables, incluso en las regiones rurales, debido a que comenzaron a llevar registros digitales de la población hace 30 años. Sin embargo, en países en los que ese registro digital concienzudo haya tardado más en implantarse debido a crisis de cualquier tipo, las diferencias entre la población real y la que estiman puede ser significativa.

"Para brindar a las comunidades rurales un acceso equitativo a los servicios y otros recursos, necesitamos tener una discusión crítica sobre las aplicaciones pasadas y futuras de estos mapas de población", expone el investigador para que todos los países puedan formular políticas sociales más precisas basadas en la evidencia y no tanto en la estimación.

Imágenes | Owen Cannon

En Xataka | En Japón ya no hay dudas de que viven peor que hace 30 años. Literalmente, las casas son cada vez más pequeñas

Una versión de este artículo se publicó originalmente en marzo de 2025

-
La noticia Creíamos que éramos 8.000 millones de personas en todo el planeta. Hasta que unos investigadores se pusieron a hacer números fue publicada originalmente en Xataka por Alejandro Alcolea .



☞ El artículo completo original de Alejandro Alcolea lo puedes ver aquí

Microsoft corrige un zero-day en SharePoint y parchea 169 vulnerabilidades

Microsoft ha corregido 169 vulnerabilidades en su última oleada de parches, incluyendo una zero-day activamente explotada en SharePoint Server CVE-2026-32201 y varios fallos críticos en Windows Defender y servicios de red. Las organizaciones deben priorizar estas actualizaciones para evitar ataques potenciales.

Monitor de seguridad mostrando alertas por vulnerabilidades en sistemas Microsoft.

La actualización mensual de seguridad de Microsoft (conocida como “Patch Tuesday”) llega en abril de 2026 con el segundo mayor número de vulnerabilidades corregidas en su historia, reflejando tanto la presión regulatoria como la creciente sofisticación de los atacantes. Este ciclo incluye fallos que permiten elevar privilegios, ejecutar código de forma remota y un preocupante zero-day en SharePoint, lo que obliga a un despliegue rápido por parte de los equipos de ciberseguridad.

La vulnerabilidad más llamativa es CVE-2026-32201, que afecta a SharePoint Server y permite suplantar identidad y manipular información mediante entradas maliciosas. También se corrige CVE-2026-33825 en Microsoft Defender, que facilita la elevación de privilegios (es decir, obtener más permisos de los que corresponden). Además, CVE-2026-33824 permite la ejecución remota de código en el servicio IKE de Windows (CVSS 9.8), afectando a sistemas expuestos a internet.

La explotación activa del zero-day en SharePoint puede derivar en engaños a usuarios, manipulación de contenido y pérdida de información sensible. El fallo en Defender facilita comprometer cuentas con privilegios y extraer credenciales del sistema. Por su parte, el problema en IKE aumenta el riesgo en conexiones VPN, permitiendo ataques sin autenticación y el movimiento lateral dentro de redes corporativas.

Se recomienda aplicar todos los parches de inmediato, priorizando equipos con SharePoint Server, Windows Defender y sistemas que utilicen VPN. También es importante verificar la exposición a internet, reforzar la segmentación de red y revisar las políticas de actualización automática. Monitorizar los registros de seguridad tras aplicar los parches ayudará a detectar posibles actividades sospechosas.

La gestión ágil de parches resulta clave para evitar que vulnerabilidades conocidas se conviertan en una puerta de entrada para atacantes. Este ciclo de actualizaciones refuerza la importancia de contar con procesos de actualización fiables y una vigilancia continua en entornos Microsoft.

Más información

La entrada Microsoft corrige un zero-day en SharePoint y parchea 169 vulnerabilidades se publicó primero en Una Al Día.



☞ El artículo completo original de Pedro Fernandez Gonzalez lo puedes ver aquí