25 de febrero de 2026

LinkerBot y la nueva generación de manos robóticas que quieren imitar la destreza humana

La mano robótica F-TAC Hand mostrando un agarre adaptativo similar al humano en tareas del mundo real

Cuando pensamos en robots humanoides, solemos imaginar piernas que caminan o cabezas que giran. El verdadero cuello de botella suele estar más abajo: en la mano robótica. La diferencia entre un robot que mueve cajas y otro que puede abotonar una camisa, manipular una placa electrónica o tocar una melodía al piano está en la finura del control, en esa “sensación” de movimiento que los humanos damos por hecha. Según ha contado Interesting Engineering, la startup china LinkerBot se ha propuesto atacar justo ese punto con una familia de manos diseñadas para tareas delicadas con un nivel de precisión cercano al humano.

La empresa, con sede en Pekín y fundada en 2023 por Alex Zhou Yong, se presenta con una ambición que suena casi como un lema de artes marciales aplicado a la robótica: fabricar muchas manos, aprender muchas habilidades y, con ello, acercar el comportamiento de una mano artificial al repertorio cotidiano de una mano real. Es una idea sencilla de explicar y compleja de ejecutar: no basta con que la mano tenga “dedos”; esos dedos deben coordinarse como una orquesta, con tempos distintos y microajustes constantes.

Grados de libertad: el abecedario del movimiento fino

En robótica, la destreza se traduce a un concepto técnico: los grados de libertad. Si una articulación solo se mueve en un eje, su “vocabulario” es limitado; si puede moverse en varios, empieza a construir frases más complejas. LinkerBot ofrece manos con distintos niveles de sofisticación, desde modelos de entrada hasta versiones avanzadas que se acercan al repertorio de una mano humana.

El modelo O6 se describe como una puerta de entrada: cuenta con 11 grados de libertad, suficientes para combinaciones de movimiento que ya permiten tareas útiles y variadas. En el otro extremo aparecen modelos que rondan los 20, un número que suele citarse como referencia para aproximarse a la movilidad de una mano humana. Dicho de forma cotidiana, es la diferencia entre poder coger un vaso “a lo bruto” y poder girarlo suavemente para colocarlo justo en la posición en la que no derramas ni una gota.

O6: fuerza de agarre alta en un cuerpo ligero

Uno de los detalles llamativos del O6 es su equilibrio entre peso y capacidad. LinkerBot afirma que la mano está construida con polímeros ligeros y componentes compactos para mantener una masa reducida sin sacrificar rendimiento. El dato que mejor retrata esa apuesta es su fuerza de agarre: hasta 50 kg, con un peso aproximado de 370 gramos. La comparación útil aquí es la de una llave inglesa pequeña que, sin ser aparatosa, puede apretar con firmeza. En robótica, ese “apretar” importa tanto como el “no pasarte”, porque el mismo actuador que sujeta una herramienta también podría romper una pieza frágil si el control no es fino.

La compañía también destaca la durabilidad y el coste. Según el relato difundido por Interesting Engineering, el O6 sería hasta diez veces más durable que alternativas y costaría solo una fracción de productos competidores. En un sector donde la fiabilidad es la diferencia entre un prototipo de laboratorio y una herramienta industrial, esa promesa es relevante: una mano que se estropea pronto no aprende, solo interrumpe procesos.

De la demostración al piano: cuando el control se vuelve espectáculo útil

Las demostraciones públicas son una forma de “enseñar” capacidades sin entrar en ecuaciones. Un ejemplo citado es el uso del modelo L6 en un robot que tocó el piano durante la ceremonia inaugural de una competición de robótica en agosto del año pasado. Tocar el piano no es solo pulsar teclas: implica controlar fuerza, velocidad, repetición y coordinación entre dedos. Es una tarea que funciona como metáfora perfecta de la precisión: si aprietas demasiado, suena mal; si aprietas tarde, llegas fuera de ritmo.

Este tipo de exhibiciones tienen un valor doble. Por un lado, muestran capacidad de control fino; por otro, revelan algo menos obvio: la mano no vive aislada. Necesita integrarse con sensores, controladores y software que interpreten objetivos. Una mano excelente con un cerebro mediocre se comporta como un coche deportivo sin conductor.

La serie Linker Hand: un catálogo para muchos tipos de robots

Más allá del O6 y los modelos pensados para hitos concretos, LinkerBot también ofrece la serie Linker Hand, que se presenta como muy versátil: desde 6 hasta 42 grados de libertad, con soporte para “las principales tecnologías de actuación” (actuadores). Este abanico sugiere una estrategia clara: no hay una única mano para todos los robots. Un humanoide doméstico quizá necesite seguridad y suavidad; un brazo industrial puede priorizar fuerza, repetibilidad y tolerancia al polvo o a la vibración.

En este contexto, el modelo L30 aparece como buque insignia por su precisión declarada de ±0,2 mm, un nivel que encaja con tareas de ensamblaje complejo. Para visualizarlo, piensa en colocar un tornillo diminuto sin que “muerda” torcido, o alinear conectores sin forzarlos. La precisión milimétrica es la frontera entre automatizar un gesto y automatizar una habilidad.

LinkerSkillNet: comprar manos, adquirir habilidades

El hardware impresiona, pero el elemento más interesante es la capa de software: LinkerSkillNet. La compañía lo describe como una biblioteca que convierte habilidades humanas en capacidades estandarizadas y reutilizables para manos robóticas. La idea recuerda a una tienda de aplicaciones, pero aplicada a movimientos: no compras solo la mano, compras el acceso a lo que esa mano puede aprender con el tiempo.

El sistema incluiría habilidades que van desde tareas industriales de precisión hasta procedimientos médicos, y permitiría transferir lo aprendido entre distintos robots. Hoy la biblioteca rondaría las 500 habilidades y, según Zhou, podría duplicar su tamaño cada seis meses conforme se desarrollen y añadan nuevas. En términos cotidianos, es como si aprendieras a cocinar una receta y luego pudieras “copiar” esa destreza a otra persona sin pasar por meses de práctica. La promesa es enorme; el reto también, porque estandarizar habilidades implica describirlas con precisión, validar que se ejecutan de forma segura y adaptarlas a manos con mecánicas distintas.

Dinero, clientes y la carrera por escalar

El desarrollo de manos diestras no es barato. LinkerBot, siempre según Interesting Engineering, habría levantado cerca de 217 millones de dólares en una ronda Serie B y planea usar esos fondos para duplicar su equipo de investigación antes de finales de 2026. También se menciona una financiación previa de 150 millones y el envío de su mano diestra número 10.000 el año pasado, cifras que apuntan a un ritmo de producción y adopción poco común en un mercado que a menudo se queda en pilotos.

En cuanto a clientes, aparecen nombres que ayudan a entender el posicionamiento: Samsung Electronics y universidades como la de Hong Kong y Stanford. La mezcla de industria y academia suele ser una señal de tecnología en transición: lo bastante madura para integrarse en proyectos reales, lo bastante abierta para seguir explorando límites y publicar resultados.

Doraemon como chispa: cultura pop convertida en hoja de ruta

Zhou atribuye parte de su inspiración a Doraemon, el personaje del anime conocido por sus “gadgets” imposibles. El giro que propone es interesante: no era el bolsillo mágico lo que explicaba los inventos, sino la destreza de las manos capaces de construir, usar y perfeccionar herramientas. Es una intuición casi antropológica: desde la cerámica hasta la máquina de vapor, gran parte del progreso humano está ligado a lo que los dedos pueden manipular.

Esa lectura conecta con la estrategia de LinkerBot: si consigues manos capaces de ejecutar habilidades transferibles, no solo haces robots que se mueven; haces robots que trabajan con herramientas, que es donde realmente empieza la utilidad diaria.

Lo que cambia en casa y en la fábrica: expectativas realistas

Si la visión de LinkerSkillNet cuaja, podríamos ver robots humanoides capaces de tareas domésticas concretas como cocinar, masajear o maquillar, tal como sugiere Zhou. Suena tentador, aunque conviene aterrizarlo: una cosa es mover con precisión un utensilio, otra es hacerlo de forma segura en un entorno impredecible con niños, mascotas, superficies resbaladizas y objetos no etiquetados.

En la industria, el encaje puede ser más inmediato. Entornos controlados, procedimientos repetibles y estándares claros favorecen la adopción. Una mano con alta precisión y buena durabilidad puede asumir operaciones de ensamblaje, manipulación de componentes delicados o tareas de inspección y ajuste. El sueño es el de un “operario” que no se cansa y repite movimientos con consistencia, mientras los humanos se reservan supervisión, diseño de procesos y resolución de incidencias.

La pregunta que queda es cómo se validan esas habilidades y cómo se gestionan riesgos. Una mano capaz de apretar 50 kg necesita también saber cuándo no apretar. En robótica, la seguridad es tan importante como la destreza: el mismo avance que permite sujetar una taza sin romperla debe impedir que un error convierta un gesto cotidiano en un accidente.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

El doomscrolling te está encogiendo el cerebro literalmente: el precio de estar todo el día en TikTok o Instagram

El doomscrolling te está encogiendo el cerebro literalmente: el precio de estar todo el día en TikTok o Instagram

Es una frase bastante de madre el escuchar que estar todo el rato delante del móvil mirando TikTok o jugando a la videoconsola tiene un efecto muy claro sobre el cerebro y es que se 'pudre'. En inglés, esto es algo que se conoce como 'brain rot' y hace referencia a este aturdimiento tras pasar varias horas frente a las pantallas, y la ciencia ahora ha comenzado a tomar este concepto como algo muy importante y no como un meme de internet. 

Su significado. Este concepto relacionado con que el cerebro se 'pudre' hace referencia al deterioro cognitivo y al agotamiento mental que sufren las personas, especialmente en adolescentes y adultos jóvenes, debido a la exposición excesiva a material online de baja calidad. Y aunque esto comenzó como un meme, es hoy un síndrome neurocognitivo confirmado por instituciones como la Asociación Estadounidense de Psicología, donde se ha visto que el cerebro literalmente se va haciendo más pequeño. 

La trampa de dopamina. El diseño de las plataformas de vídeos cortos como TikTok no es accidental, sino que está creado para retener la atención del usuario con el objetivo de que no pare de deslizar la pantalla hacia abajo. Y es algo que está muy bien estudiado, puesto que, a medida que aumenta la interacción en estas plataformas sociales, también lo hace la necesidad del cerebro de recibir una descarga de dopamina. Literalmente, crea una dependencia. 

Doomscrolling. Este sistema en nuestro cerebro, impulsado por la dopamina, fomenta un ciclo de consumo interminable, lo que ha dado lugar a términos como 'Doomscrolling' que es la acción compulsiva de desplazarse por feeds de redes sociales centrados en información negativa o angustiante. Y es que esto, más que generar rechazo, provoca que estemos en un estado de hipervigilancia vinculado a niveles elevados de ansiedad, estrés y fatiga cognitiva.

Hay además otro concepto bastante importante en el mundo de las redes sociales como es el de 'Zombie scrolling' que consiste en desplazarse pasivamente por las redes sociales sin ningún propósito u objetivo. De esta manera, este consumo mentalmente ausente reduce la capacidad del cerebro para mantener la atención sostenida. 

Efecto cerebral. El hecho de hacer scroll constante en la pantalla es algo que ha sido bastante estudiado a día de hoy y apunta a las consecuencias neurológicas medibles. Aquí lo que se ha visto es que el cerebro experimenta una sobrecarga cognitiva cuando intenta procesar el flujo constante de información fragmentada, con temas que son realmente dispares entre un vídeo y otro, haciendo que no tenga tiempo para procesar el primero antes de comenzar a ver el segundo. 

Sus consecuencias. Investigaciones publicadas en Addictive Behaviors señalan que el uso compulsivo del móvil reduce el volumen de materia gris en áreas clave para la empatía, la memoria y la autorregulación. Esto quiere decir que literalmente el cerebro va reduciendo su tamaño con el paso del tiempo por el hecho de estar como un zombie navegando en TikTok todo el día. 

Además de esto, la ciencia ha visto que la adicción a videos cortos aumenta la actividad en las regiones de recompensa y emoción, provocando diferencias estructurales en la corteza frontal y elevando la impulsividad. Algo que se suma al deterioro de la memoria, los fallos en la retención a largo plazo y también a un peor rendimiento de atención

Cómo evitarlo. A pesar de lo alarmante que puede parecer esto, hay que recordar que tenemos de nuestro lado la neuroplasticidad cerebral para poder revertir estos efectos. De esta manera, hay varias estrategias para poder mitigar que el cerebro comience a estar muy afectado por estar en redes sociales un gran número de horas. 

Uno de los consejos sin duda es reducir el tiempo que pasamos frente a la pantalla para disminuir la sobrecarga cognitiva. Además, dejar de seguir a cuentas que provoquen emociones negativas y buscar entornos que sean positivos o más amigables para evitar la ansiedad es algo a lo que deberíamos acostumbrarnos en nuestro día a día. 

Imágenes |  Hoi An and Da Nang 

En Xataka | La ciencia del "doomscrolling": cómo la tecnología hackeó a la psicología para que no podamos soltar el móvil

-
La noticia El doomscrolling te está encogiendo el cerebro literalmente: el precio de estar todo el día en TikTok o Instagram fue publicada originalmente en Xataka por José A. Lizana .



☞ El artículo completo original de José A. Lizana lo puedes ver aquí

Alemania quiso comprobar si trabajar cuatro días a la semana era eficiente. El 70% de las empresas piensa que sí

Alemania quiso comprobar si trabajar cuatro días a la semana era eficiente. El 70% de las empresas piensa que sí

La semana laboral de cuatro días arrancó en Alemania como un experimento para buscar la máxima productividad de las empresas sin que ello repercuta en una plantilla agotada y sin capacidad de conciliación familiar. Dos años después del inicio de esa prueba, los datos confirman que para las empresas que participaron no fue una simple prueba, sino que se ha materializado en un cambio en la forma de trabajar que muchas compañías han decidido consolidar.

Ahora se ha concluído el informe de seguimiento elaborado por investigadores de la Universidad de Münster junto a la consultora 4 Day Week Global. En él se analiza qué ha ocurrido tras la prueba piloto que comenzó en 2024 y qué efectos posteriores ha tenido. La conclusión principal es que alrededor del 70% de las empresas que participaron en aquella prueba sigue aplicando algún modelo de reducción de jornada un año más tarde.

Una formula conocida y una muestra variada. El proyecto original de semana de cuatro días en Alemania articuló en torno al modelo 100-80-100: 100% del salario, 80% del tiempo y 100% de la productividad. Este modelo de reducción de jornada es que el mismo que se llevó a cabo en Valencia en 2023, Portugal o Reino Unido.

En la fase inicial participaron 45 empresas de distintos sectores, dedicadas a la manufactura, seguros, tecnología, medios de comunicación, comercio o educación. Además, para que fueran lo más representativas posible del tejido industrial alemán, se eligieron empresas de distintos tamaños: desde microempresas de 1 a 9 empleados, a grandes compañías con más de 250 empleados.

Los primeros datos ya daban pistas. Los investigadores han ido recopilando datos de las empresas participantes y de sus empleados desde el primer día. A los pocos meses de iniciarse la prueba las empresas estaban encantadas con los resultados, hasta el punto de que en los resultados preliminares, el 73% aseguraba que no volvería a la semana tradicional de cinco días. El nuevo informe aporta la perspectiva que da el tiempo y si aquel ímpetu inicial se ha consolidado.

Dos años después del inicio de la prueba, siete de cada diez empresas que participaron en la prueba no solo mantienen el modelo de jornada laboral de cuatro días, sino que la han integrado en su funcionamiento habitual.

Más que cuatro días: reducción flexible del tiempo de trabajo. Uno de los hallazgos más interesantes del seguimiento es que el modelo de semana laboral de cuatro días ha evolucionado y cada organización la ha implementado adaptándola a sus necesidades. No todas las empresas han optado por una semana laboral de lunes a jueves.

En torno al 22% de las empresas participantes ha adaptado el esquema inicial hacia fórmulas más flexibles: reducción de horas anuales, semanas alternas o ajustes internos según carga de trabajo. El propio informe habla ya menos de "semana de cuatro días" y más de "reducción del tiempo de trabajo". La etiqueta importa menos que el rediseño de la jornada de trabajo y la eliminación de tareas superfluas, menos reuniones innecesarias y mayor autonomía de los equipos.

Sin impacto en los beneficios o la productividad. En términos empresariales, la prueba alemana ha sido un éxito ya que, pese a haberse mantenido un 80% de la jornada inicial, no se han registrado caídas ni en el nivel de beneficios ni en la productividad o se mejoró ligeramente con respecto al punto de partida. Es decir, que han conseguido hacer lo mismo en menos tiempo.

En lo que sí tuvo un fuerte impacto fue en el bienestar de los empleados, donde el 90% reportaba mejoras en el equilibrio entre vida personal y profesional. Como resultado de esa mejora, los empleados afirmaban sentir menos estrés y un mayor compromiso con la empresa. El 38% de las empresas indicaron que las bajas laborales y el absentismo laboral de sus empleados se habían reducido, mientras que el 56% aseguró no haber detectado cambios.

Luces y sombras en la reducción de jornada. También se observaron avances en satisfacción laboral y en la percepción de la empresa como lugar atractivo para trabajar. El estudio señala que el 87% de las empresas detectaron mejoras en la retención de talento. Por su parte, el 75% aseguraba que sus empresas ahora tenían mayor capacidad de atracción de talento en procesos de selección. Esto, en un escenario de escasez de mano de obra, supone una ventaja competitiva.

No obstante, al igual que sucedió en otras pruebas de la semana laboral de cuatro días, no todas las empresas han seguido la misma evolución. Cerca de un 30% dejó de aplicar el esquema inicial o volvió a la semana tradicional de cinco días. Las razones principales fueron operativas, dificultades para coordinarse con sus clientes, picos de trabajo difíciles de absorber o estructuras internas poco flexibles.

En Xataka | Los empleados en España despejan dudas: trabajar menos días es mejor que trabajar menos horas, según una encuesta

En Xataka | España ya tiene su primer municipio con semana laboral de cuatro días. No está en Madrid ni Barcelona, sino en un rincón de Cádiz

Imagen | Unsplash (Gonzalo Leon Jasin, Josue Isai Ramos Figueroa)

-
La noticia Alemania quiso comprobar si trabajar cuatro días a la semana era eficiente. El 70% de las empresas piensa que sí fue publicada originalmente en Xataka por Rubén Andrés .



☞ El artículo completo original de Rubén Andrés lo puedes ver aquí

Claude Code Security: cuando la IA deja de “buscar patrones” y empieza a pensar como un investigador

Cómo proteger tu IP

Durante años, gran parte del análisis de vulnerabilidades ha funcionado como un perro rastreador: excelente siguiendo olores ya identificados, menos útil cuando el rastro es nuevo. Herramientas como CodeQL (y lo que se apoya en ella, incluido GitHub Advanced Security) son potentes detectando clases de fallos bien descritas: patrones de código, flujos de datos típicos, llamadas peligrosas y reglas que se van refinando con el tiempo. El giro que plantea Anthropic con Claude Code Security es otro: pasar de un enfoque “catálogo de reglas” a uno de análisis por razonamiento, donde el sistema intenta entender la intención del código, sus precondiciones y sus consecuencias, como lo haría un investigador humano.

Según lo publicado por VentureBeat, Anthropic tomó su modelo más avanzado, Claude Opus 4.6, lo puso frente a bases de código open source en producción y detectó más de 500 vulnerabilidades de alta severidad que habían sobrevivido décadas de revisión experta y millones de horas de fuzzing. Quince días después, esa capacidad se convirtió en producto: Claude Code Security, lanzado el 20 de febrero en una vista previa limitada para clientes Enterprise y Team.

La cifra impresiona, sí, pero lo realmente incómodo para los responsables de seguridad es la idea que subyace: si “apuntar” un modelo razonador a un repositorio puede destapar fallos profundos, un atacante con acceso a herramientas equivalentes podría recorrer esa misma ruta. La conversación que hoy se abre en comités y consejos no es solo “¿cuántas vulnerabilidades encontramos?”, sino “¿qué tipo de vulnerabilidades estamos dejando fuera por diseño?”.

Qué cambia frente a CodeQL y el SAST clásico

El SAST tradicional y motores basados en reglas han sido la columna vertebral del “shift left” porque automatizan el hallazgo de lo repetible. En términos sencillos, trabajan como un detector de humo: si hay señales conocidas, pitan rápido. El problema es que hay incendios que no huelen a humo, al menos no en la fase inicial. Los fallos de lógica de negocio, controles de acceso mal modelados, precondiciones raras o errores algorítmicos suelen caer en esa zona gris.

VentureBeat describe el contraste así: CodeQL destaca analizando flujo de datos dentro de consultas predefinidas; te dice si una entrada contaminada (“tainted”) llega a una función peligrosa, siempre que la consulta cubra el caso. Claude Code Security, en cambio, intenta generar hipótesis, seguirlas y probarlas. No se limita a preguntar “¿encaja este patrón?”, sino “¿qué asunciones está haciendo el programa y dónde se rompen?”.

Esa diferencia se vuelve tangible cuando el análisis exige comportamientos que rara vez caben en una regla: revisar el historial de commits, inferir parches incompletos, saltar entre archivos, reconstruir rutas de ejecución, y llegar a un proof-of-concept funcional. Como si, en lugar de comprobar puertas con una llave maestra, el sistema aprendiera a mirar el plano del edificio, detectar un pasillo olvidado y comprobar si hay una puerta tras una cortina.

Tres ejemplos que ilustran la “generación de hipótesis”

La metodología publicada por Anthropic incluye casos concretos que muestran dónde acaba el patrón y empieza el razonamiento.

En GhostScript, una utilidad muy extendida para procesar PostScript y PDF, ni el fuzzing ni la revisión manual habían dado con el fallo. El modelo revisó el historial de cambios y encontró un parche que añadía comprobaciones de límites en un archivo concreto. La hipótesis fue simple y muy humana: si esa protección era necesaria ahí, quizá en otras llamadas al mismo componente faltaba. Al buscar usos equivalentes en otro archivo, localizó una llamada sin la comprobación y construyó un PoC de caída. El matiz importante es que aquí la “pista” no está en el código actual, sino en la historia del código: una regla típica no “razona” sobre por qué se hizo un parche, ni extrapola su necesidad a otros puntos.

En OpenSC, centrado en el procesamiento de datos de tarjetas inteligentes, el hallazgo dependía de un camino de ejecución con demasiadas precondiciones, difícil de alcanzar con entradas aleatorias. El modelo buscó patrones de llamadas que suelen ser delicadas, identificó concatenaciones sucesivas con strcat sin verificación de longitud, y razonó sobre cómo forzar el desbordamiento construyendo el contexto que el fuzzer rara vez “acierta” por casualidad. Es el equivalente a encontrar una fuga detrás de un mueble: el detector general recorre el suelo; el investigador mueve el mueble porque sospecha que ahí se suele acumular humedad.

En CGIF, la vulnerabilidad exigía comprender un borde algorítmico: la compresión LZW suele reducir el tamaño, y el código asumía que el resultado comprimido nunca superaría al original. Casi siempre es cierto, hasta que una secuencia concreta hace crecer el diccionario, provoca resets y altera el tamaño esperado. El modelo detectó el caso improbable, explicó por qué era posible y lo llevó a una condición de overflow. Aquí la cobertura de ramas puede ser del 100% y, aun así, no reproducir la secuencia exacta. No basta con “recorrer” el código; hay que entender el comportamiento del algoritmo.

Validación, sandbox y el foco en memoria: por qué importa el método

Una afirmación de “500 vulnerabilidades” se vuelve seria cuando hay disciplina de verificación. Según VentureBeat, Anthropic ejecutó el modelo en una máquina virtual aislada, con utilidades estándar y herramientas de análisis. El equipo rojo no aportó prompts sofisticados ni arneses a medida; la idea era medir qué logra el modelo con condiciones realistas. Se priorizaron fallos de corrupción de memoria porque son más fáciles de confirmar de forma objetiva: monitores de crash y sanitizers reducen la discusión sobre falsos positivos. El propio sistema deduplicó y reordenó hallazgos antes de que intervinieran humanos, y se incorporaron revisores externos para validar y parchear cuando el volumen lo exigió.

El detalle que suele preocupar a un CISO aparece entre líneas: muchas de esas bases open source sostienen infraestructura crítica y software empresarial, con equipos de mantenimiento pequeños, a veces voluntarios. Un fallo que vive una década en una librería no se queda “en la librería”; se hereda como si fuera una grieta en los cimientos de un edificio.

El dilema de doble uso y el punto ciego de la gobernanza

La misma habilidad que encuentra un fallo puede ayudar a explotarlo. En entrevistas citadas por VentureBeat, Fortune y Axios, responsables de Anthropic reconocen el riesgo: modelos que exploran bases de código de forma autónoma, siguiendo pistas, avanzan más rápido que un analista junior. La frase que mejor encapsula el problema no es “la IA es peligrosa”, sino “la agencia lo es”: cuando un sistema propone hipótesis y las persigue, su comportamiento deja de ser lineal y es más difícil acotarlo.

Merritt Baer (CSO en Enkrypt AI y ex Deputy CISO en AWS) lo plantea con crudeza: el reto no es solo precisión; es supervisión. Si no puedes auditar y limitar cómo se usa la herramienta, has creado otro riesgo. También alerta de dos frentes que a menudo se subestiman: el riesgo de acceso y rutas de ataque internas, y el riesgo de propiedad intelectual no solo por exfiltración, también por “transformación”, cuando el modelo reexpresa conocimiento sensible de formas difíciles de rastrear.

Aquí emerge una tensión práctica. Muchos líderes repiten que “la mayoría de intrusiones vienen de configuraciones y credenciales”, no de zero-days. Es cierto, pero no tranquiliza: un sistema que acelera el hallazgo de fallos profundos aumenta la presión sobre procesos que ya iban al límite. El tablero cambia porque el tiempo entre descubrimiento, parche y despliegue se vuelve aún más crítico.

Salvaguardas: señales dentro del modelo y controles fuera del modelo

Anthropic encauza el lanzamiento como “research preview” para Enterprise y Team; ofrece acceso acelerado a mantenedores open source. Según lo descrito, los hallazgos pasan por varias capas de auto-verificación y se entregan con severidad y confianza. Los parches exigen aprobación humana. En el plano técnico, la compañía dice incorporar detección dentro del propio modelo, con “probes” que miden activaciones durante la generación y se amplían con señales específicas de ciberseguridad para rastrear posibles abusos. En el plano operativo, habla de intervención en tiempo real, incluyendo bloqueo de tráfico identificado como malicioso.

No deja de ser llamativo que, ante preguntas sobre tasa de falsos positivos o mecanismos exactos de detección de uso ofensivo, la empresa haya evitado detalles para no ofrecer pistas a actores maliciosos. Es una postura comprensible, aunque complica a compradores que quieren comparar “promesas” con métricas.

Un patrón que se repite: OpenAI, Linux y OpenSSL como aviso

VentureBeat también encadena señales externas: el investigador Sean Heelan habría usado el modelo o3 de OpenAI para descubrir una vulnerabilidad use-after-free en el kernel de Linux (SMB) que herramientas clásicas no captaban porque exigía entender interacciones concurrentes. Por otro lado, la startup AISLE afirma haber encontrado las 12 vulnerabilidades zero-day del parche de seguridad de OpenSSL de enero de 2026, incluyendo un caso de alta severidad en parsing CMS. El mensaje no es que “todo lo anterior no sirve”, sino que el listón sube: cuando el razonamiento entra en el flujo, la “superficie detectable” crece.

Qué deberían preparar los equipos: presupuesto, procesos y límites claros

Si hoy tu programa de seguridad de código se parece a una línea de producción, el razonamiento introduce un inspector que no solo mira defectos conocidos: se pone a hacer preguntas incómodas sobre cómo funciona la fábrica. Eso obliga a replantear reparto de trabajo entre SAST basado en reglas y análisis razonador. Ambos tienen sitio: lo repetible debe seguir automatizado con rapidez; lo incierto necesita un motor que explore. La diferencia es que ese motor también exige límites: políticas de datos, aislamiento, logging, trazabilidad, criterios de éxito, y una definición explícita de qué repositorios y qué tipos de hallazgos se permiten en cada fase.

El consejo que se desprende de la propia narrativa de VentureBeat es casi táctico: empezar en un entorno controlado, con reglas de manejo de información claras y auditoría desde el primer día. Porque si estas herramientas aceleran algo, no es solo la detección: también aceleran la forma en que tus suposiciones quedan expuestas.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

PayPal confirma una exposición de datos de seis meses por un error en Working Capital

PayPal confirmó una exposición de datos durante aproximadamente seis meses vinculada a un error en su sistema de préstamos PayPal Working Capital. La información potencialmente expuesta incluiría PII sensible, lo que eleva el riesgo de fraude y robo de identidad para las personas afectadas.

Entry image

PayPal ha confirmado un incidente de exposición de datos relacionado con un error en el sistema asociado a su producto de préstamos para empresas PayPal Working Capital. Según lo publicado, el problema habría estado presente durante cerca de seis meses, permitiendo que información personal de algunos clientes quedara accesible de forma indebida. El encuadre del caso apunta a un fallo de aplicación/código o de proceso interno, más que a un ataque clásico con explotación de una vulnerabilidad identificable (no se citan CVE ni un vector técnico estándar en la información disponible).

La relevancia del incidente radica en el tipo de datos que se menciona como potencialmente expuesto. Se señala la posible afectación de PII de alta sensibilidad, incluyendo identificadores como el SSN y la fecha de nacimiento. Aunque este tipo de datos no implica por sí mismo que se hayan producido transacciones fraudulentas, sí incrementa de forma notable el riesgo de suplantación, phishing dirigido y account takeover, especialmente si los delincuentes combinan esa información con filtraciones previas o con ingeniería social. En la práctica, cuando un actor dispone de datos personales consistentes, puede aumentar la credibilidad de correos o llamadas que se hacen pasar por PayPal, por un supuesto equipo de soporte, o incluso por entidades financieras.

Un aspecto importante es que, con la información publicada, no queda claro el alcance exacto del incidente: no se aporta una cifra verificable de personas afectadas, ni un calendario detallado con fechas concretas de inicio y fin. Tampoco se describe evidencia de exfiltración por un actor externo; la narrativa se centra en una exposición derivada de un error del sistema. Aun así, desde una perspectiva defensiva, un episodio de este tipo se trata como un evento de riesgo alto, porque la mera accesibilidad indebida de PII sensible puede desencadenar abusos posteriores.

En términos de mitigación, el enfoque habitual en incidentes de information disclosure por fallos de autorización consiste en corregir el error, reforzar controles de acceso y segmentación de datos por cliente, y mejorar logging y alertas sobre accesos anómalos a información sensible. Para usuarios potencialmente afectados, es prudente activar o reforzar MFA, revisar actividad reciente de la cuenta, extremar precauciones ante comunicaciones que invoquen Working Capital y, cuando proceda, valorar medidas contra fraude y robo de identidad.

Más información

La entrada PayPal confirma una exposición de datos de seis meses por un error en Working Capital se publicó primero en Una Al Día.



☞ El artículo completo original de Hispasec lo puedes ver aquí