25 de febrero de 2026

No es que la IA nos haga tontos: es que nos estamos rindiendo a ella

No es que la IA nos haga tontos: es que nos estamos rindiendo a ella

A medida que la inteligencia artificial se va integrando en nuestras vidas, hay una pregunta que va adquiriendo más relevancia.  ¿Está la IA volviéndonos tontos? Quizás tontos no sea la palabra adecuada, sino más bien vagos, o al menos es la dirección en la que apunta un reciente estudio de la Universidad de Pensilvania.

Rendición cognitiva. Es como han llamado al fenómeno que surge cuando usamos la IA "con un escrutinio mínimo, anulando la intuición y la deliberación".  Los investigadores realizaron tres experimentos en los que los participantes debían responder tests de reflexión cognitiva, en los que la respuesta intuitiva tiende a ser errónea y la deliberada es correcta (preguntas trampa, vaya). Un grupo sólo podía usar su cerebro y el otro tenía acceso a ChatGPT, aunque estaba manipulado para que la mitad de las veces fallara a propósito.

El resultado fue que, cuando la IA daba una respuesta incorrecta, las personas la copiaban el 80% de las veces. Y lo que es peor: la seguridad de los participantes que tenían acceso a la IA era superior a pesar de estar acumulando respuestas incorrectas. Dicho de otro modo, los participantes hicieron suya la gran seguridad con la que la IA formulaba sus respuestas y dejaron de comprobar si eran correctas. 

Un nuevo sistema . El estudio toma como punto de partida la teoría del sistema 1 y sistema 2 de Daniel Kahneman, en la que el sistema 1 es el pensamiento rápido o intuición y el sistema 2 es el pensamiento lento o deliberación. El problema de esta teoría, especialmente en el momento actual, es que ignora el hecho de que cada vez más estamos delegando el proceso cognitivo a la IA generativa. Por tanto, los investigadores proponen añadir un tercer sistema, al que han llamado "cognición artificial" y que hace referencia al pensamiento o razonamiento que ocurre fuera de nuestra mente, es decir, en la IA.

Captura De Pantalla 2026 02 24 154817 Los tres sistemas de cognición, según el estudio de la Universidad de Pensilvania

Rendirnos o delegar. El estudio hace una distinción entre la rendición cognitiva y la descarga cognitiva, es decir, no es lo mismo aceptar sin más lo que nos dice la IA, que usarla como una herramienta de ayuda. Lo primero sería usar el sistema 3 con un poco del sistema 1 (intuición), mientras que su uso como herramienta también implica el uso del sistema 2 (deliberación o razonamiento). Usar la IA para delegar ciertas tareas es comparable a usar una calculadora o buscar algo en Google. En el experimento, un 73% aceptó las respuestas equivocadas (se rindió) y  un 17% la corrigió (delegó en ella, pero sin aceptar a ciegas lo que decía). 

Los investigadores advierten que la rendición cognitiva puede erosionar el pensamiento crítico y hacer que perdamos la costumbre de desconfiar y comprobar las cosas por nosotros mismos.

La deuda cognitiva. En junio de 2025 se viralizó un estudio del MIT llamado "Tu cerebro en ChatGPT: acumulación de deuda cognitiva al utilizar un asistente de IA al escribir un ensayo". En el experimento, monitorizaron a los participantes mediante encefalografía mientras realizaban la tarea. Los resultados fueron que el grupo que usó ChatGPT dio los peores resultados de actividad cerebral y se fue haciendo más perezoso conforme avanzaba la prueba. 

La IA no nos hace tontos. A lo largo de los años han surgido muchos estudios que buscaban comprobar si la tecnología está mermando nuestras capacidades, pero también hay otros que apuntan a todo lo contrario. Volviendo al estudio del MIT, tiene sentido que haya menos actividad cerebral si estamos usando una herramienta de apoyo (y además una tan potente como la IA). También habrá menos actividad si usamos una calculadora que si hacemos las operaciones a mano, pero no significa necesariamente que seamos peores en matemáticas. Eso sí, si necesitamos la calculadora para sumar 2+2, ahí  tenemos un problema. 

La clave no está en si usar la IA nos hace tontos, sino en cómo la usamos, si nos rendimos a ella o si delegamos en ella.

Imagen | Andrea Piacquadio, Pexels

En Xataka | EEUU está obsesionada con alcanzar la Inteligencia Artificial General antes que China. A China no podría importarle menos

-
La noticia No es que la IA nos haga tontos: es que nos estamos rindiendo a ella fue publicada originalmente en Xataka por Amparo Babiloni .



☞ El artículo completo original de Amparo Babiloni lo puedes ver aquí

El derecho internacional fue escrito pensando en humanos que deciden. La IA acaba de romper esa cadena y nadie sabe quién responde ahora

El derecho internacional fue escrito pensando en humanos que deciden. La IA acaba de romper esa cadena y nadie sabe quién responde ahora

La amenaza de Pete Hegseth a Dario Amodei tiene un subtexto que va mucho más allá del contrato de 200 millones de dólares que el Pentágono puede cancelar: si el ejército de Estado Unidos despliega armas autónomas controladas por IA sin las salvaguardas que Anthropic exige, habrá eliminado el único cortafuegos que históricamente ha impedido que una orden ilegal se ejecute.

Por qué es importante. Todo el sistema legal y ético de las fuerzas armadas estadounidenses descansa sobre un principio que parece obvio pero que tiene consecuencias importantes: un soldado puede y debe desobedecer una orden manifiestamente ilegal.

Es el mecanismo que, en teoría, impide los crímenes de guerra. Un drone autónomo controlado por IA no tiene ese mecanismo. No puede negarse. No puede dudar. No puede ser juzgado en un consejo de guerra.

Entre líneas. Amodei habla de "armas autónomas que disparan sin intervención humana" para señalar un vacío jurídico. Si una IA toma la decisión de matar, ¿quién responde penalmente? ¿El programador? ¿El general que activó el sistema? ¿El presidente que firmó la orden?

El derecho internacional humanitario (Convenios de Ginebra incluidos) fue redactado pensando en seres humanos que toman decisiones. Y ahora la IA disuelve esa cadena de responsabilidad.

El telón de fondo. El argumento de la vigilancia masiva también es un trago amargo. La Cuarta Enmienda de la Constitución estadounidense protege a los ciudadanos de búsquedas e intervenciones sin orden judicial. Funciona, entre otras razones, porque el Estado nunca ha tenido la capacidad física de procesar todo lo que ocurre en el espacio público.

Y de la misma forma, con la IA ese límite operativo desaparece: pasamos a millones de conversaciones grabadas en tiempo real, transcritas, clasificadas y conectadas en apenas segundos. Lo que antes era imposible por falta de recursos humanos se vuelve rutinario con un LLM. La protección constitucional hasta ahora ha dependido, en parte, de la ineficiencia del Estado, de sus limitaciones.

Sí, pero. El Pentágono tiene un argumento que no es descartable: otras democracias también están desarrollando estas capacidades, y China o Rusia no van a esperar a que Estados Unidos resuelva sus dilemas éticos.

La pregunta práctica es si tener esas capacidades sin restricciones te hace más seguro o simplemente más peligroso para tus propios ciudadanos.

La gran pregunta. OpenAI y Google han aceptado las condiciones del Pentágono, "todos los usos legales" sin excepciones específicas, y xAI acaba de recibir autorización para operar en sistemas clasificados. Anthropic se ha quedado sola en su posición.

Y lo que está en juego ahora no es si Claude sobrevive como proveedor militar o no, es si la industria de la IA va a fijar algún límite a lo que vende al Estado, o si ese debate lo zanjará directamente el Congreso, los tribunales o, en el peor de los casos, el primer incidente grave que nadie haya podido prever. Parece cuestión de tiempo.

En Xataka | La IA ya es un campo de batalla: Anthropic acaba de acusar a DeepSeek y a otras empresas chinas de “destilar” Claude

Imagen destacada | Xataka

-
La noticia El derecho internacional fue escrito pensando en humanos que deciden. La IA acaba de romper esa cadena y nadie sabe quién responde ahora fue publicada originalmente en Xataka por Javier Lacort .



☞ El artículo completo original de Javier Lacort lo puedes ver aquí

Discord quiso implementar un sistema de verificación de edad. Hasta que el mundo se le echó encima

Discord quiso implementar un sistema de verificación de edad. Hasta que el mundo se le echó encima

Discord ha dado marcha atrás en uno de sus planes más polémicos de los últimos años. La plataforma de mensajería y voz, con más de 200 millones de usuarios activos, ha retrasado su sistema de verificación de edad global hasta la segunda mitad de 2026 después de que su anuncio inicial desatara una tormenta de críticas. Cuando la gente ha empezado a irse en masa y a buscar otras alternativas, la compañía se lo ha pensado dos veces.

Caos. Discord anunció hace unas semanas que implementaría un sistema de verificación de edad para garantizar que el contenido para adultos solo llegara a usuarios adultos. La idea era que todas las cuentas partieran de una configuración "apropiada para adolescentes" por defecto, a menos que pudieran demostrar ser mayores de edad. El problema: la comunicación fue tan horrorosa que una parte importante de la comunidad entendió que la plataforma iba a pedir escaneos faciales y documentos de identidad a todo el mundo para poder seguir usándola. El resultado fue el caos.

Desconfianza. En octubre del año pasado, Discord confirmó que había sufrido una brecha de seguridad en uno de sus proveedores externos. Esto expuso datos sensibles, incluyendo fotografías de documentos de identidad, de aproximadamente 70.000 usuarios. Ese antecedente estaba muy fresco cuando llegó el anuncio del nuevo sistema.

A eso se sumó que entre los socios que se barajaban para implementar la verificación aparecía Persona, una empresa con vínculos financieros con Peter Thiel, cofundador de Palantir, una compañía conocida por sus contratos con agencias de inmigración y vigilancia del gobierno estadounidense. Y claro, para muchos usuarios, esta combinación era sencillamente inaceptable.

Lo que Discord dice que realmente iba a pasar. En un comunicado publicado el martes, el CTO de Discord, Stanislav Vishnevskiy, afirmó que más del 90% de los usuarios nunca habría necesitado verificar nada, porque la mayoría no accede a contenido restringido por edad ni modifica la configuración de seguridad por defecto. 

Además, asegura que la plataforma ya cuenta con sistemas internos capaces de determinar la mayoría de edad de muchos usuarios de forma automática, analizando señales como la antigüedad de la cuenta, si tiene un método de pago vinculado o el tipo de servidores a los que pertenece. Según Vishnevskiy, ese sistema no lee mensajes ni analiza el contenido publicado por los usuarios.

Reconociendo errores, con matices. "La manera en que esto aterrizó hizo que muchos de vosotros creyerais que estábamos exigiendo escaneos faciales y subidas de documentos a todo el mundo", escribió Vishnevskiy. "Eso no es lo que está pasando, pero el hecho de que tanta gente lo crea nos dice que fallamos en lo más básico: explicar claramente qué estamos haciendo y por qué". Dicho esto, conviene recordar lo que señala el medio PC Gamer, pues Discord no hizo ninguna de estas concesiones hasta después de la avalancha de críticas.

Qué cambia ahora. La plataforma promete varias cosas antes de relanzar el sistema de forma global. Entre ellas, añadir más opciones de verificación, incluyendo medios de pago, publicar en su web información detallada sobre cada proveedor externo y sus prácticas con los datos, y exigir que cualquier empresa que ofrezca estimación de edad facial lo haga íntegramente en el dispositivo del usuario, sin enviar datos biométricos a ningún servidor.

Sobre Persona, Discord confirma que realizó una prueba limitada con ellos en el Reino Unido en enero y que decidió no continuar, precisamente porque no cumplía ese último requisito.

Una dirección a nivel global. Lo de Discord no es nuevo, y está ocurriendo en un contexto mucho más amplio. Reino Unido, Australia y Brasil ya tienen legislación que obliga a las plataformas a verificar la edad de sus usuarios para acceder a contenido para adultos. Europa y varios estados de EE.UU. van en la misma dirección. Discord argumenta que, construyendo su propio sistema, puede demostrar a los reguladores que es posible verificar la edad sin recopilar datos de identidad. En los países donde ya hay obligación legal, el sistema seguirá activo independientemente del retraso global.

Imagen de portada | Discord y montaje propio

En Xataka | "No inundaremos nuestro ecosistema con basura de IA sin alma". Ya sabemos qué quiere hacer Asha Sharma como CEO de Microsoft Gaming

-
La noticia Discord quiso implementar un sistema de verificación de edad. Hasta que el mundo se le echó encima fue publicada originalmente en Xataka por Antonio Vallejo .



☞ El artículo completo original de Antonio Vallejo lo puedes ver aquí

Anthropic tiene líneas rojas para su IA. El Pentágono acaba de exigir que las borre todas

Anthropic tiene líneas rojas para su IA. El Pentágono acaba de exigir que las borre todas

El Pentágono acaba de darle a Anthropic hasta este viernes a las 17:01 para aceptar su uso sin restricciones de sus modelos de IA para todo tipo de aplicaciones, incluyendo las de espionaje y las militares. La empresa se ha negado hasta ahora, pero la administración Trump amenaza con invocar una norma de hace 75 años para "apropiarse" de la tecnología de IA de Anthropic.

Líneas rojas. El conflicto tiene su origen en las líneas rojas impuestas por las normas éticas de Anthropic. La empresa, liderada por Dario Amodei, se niega a que sus modelos se utilicen para vigilancia masiva de ciudadanos estadounidenses —no dice nada de otros— o en el desarrollo y uso de armas letales autónomas controladas totalmente por la IA. 

El Pentágono quiere usar la IA (casi) sin límites. Este tipo de salvaguardas chocan frontalmente con la postura del Pentágono, que exige que sus proveedores de tecnología abran el uso de sus soluciones software y hardware para cualquier propósito legal definido por los militares, sin vetos externos. Mientras la constitución y las leyes de EEUU lo permitan, una empresa privada no debería poder imponer límites al uso de su tecnología, indican en el Gobierno de EEUU.

Tensión tras el incidente Maduro. Las cosas empezaron a torcerse cuando se supo que el modelo Claude fue utilizado en una operación de las fuerzas especiales de EEUU en enero para capturar al expresidente venezolano, Nicolás Maduro. El incidente puso bajo la lupa la dependencia que el ejército tiene de Claude: actualmente Anthropic es la única empresa de IA que opera en los sistemas clasificados del Pentágono, lo que le otorga una posición de poder notable que ahora quiere ser quebrada por parte de el gobierno estadounidense.

Esto huele mal. La estrategia del Pentágono resulta inquietante desde el punto de vista legal. Hay tres grandes posibilidades de actuación: 

  1. Cancelar el contrato de Anthropic y comenzar a trabajar con otra (u otras) empresas de IA dispuestas a aceptar sus términos. Ayer supimos que xAI ya ha firmado un acuerdo para que el DoD pueda usar su modelo Grok, en sistemas clasificados. Google parece ser también una opción con la que están trabajando.
  2. Identificar a Anthropic como un riesgo para su cadena de suministro. Eso es muy peligroso, porque haría que un enorme número de empresas en EEUU no pudieran trabajar con Anthropic. Sería una especie de veto como el que EEUU impuso a Huawei, pero aplicado a una empresa nacional. El impacto para Anthropic y sus inversores (Amazon y Google entre ellos) sería catastrófico.
  3. Activar el Título 1 de la Defense Production Act de 1950, una ley especial teóricamente diseñada para el control de la economía durante guerras y emergencias. Se utilizó por ejemplo durante la pandemia de COVID-19 para impulsar la producción de suministros médicos y acelerar la producción de vacunas. Parece poco probable que puedan hacer algo así

Cómo empezó todo este embrollo. La administración Biden impulsó medidas y límites éticos para la restringir la aplicación de la IA, pero todo cambió con el mandato de Donald Trump. En junio de 2025 Anthropic lanzó Claude Gov, una serie especializada de modelos de IA específicamente diseñados para ser usados por parte de las agencias nacionales de EEUU en seguridad, defensa e inteligencia. 

IA con aplicaciones militares y de inteligencia. Estos modelos estaban preparados para operar con entornos con información clasificada. Anthropic los ofreció además por un precio simbólico de 1 dólar para asegurarse que el Gobierno los preferiría frente a los de otros competidores. Poco después el DoD le concedió a la empresa un contrato por valor de 200 millones de dólares, y desde entonces la empresa se ha ido integrando con los sistemas de Palantir que se usan en las agencias gubernamentales estadounidenses.

Dos posturas enfrentadas. Anthropic se postula por tanto como una defensora de ciertos límites para el uso de sus modelos de IA. El Departamento de Defensa (DoD) no está de acuerdo, y su argumento es que el uso militar de cualquier tecnología solo debe ceñirse a la Constitución o las leyes de EEUU. La empresa sostiene que busca apoyar la misión de seguridad nacional, pero solo dentro de lo que sus modelos pueden hacer de forma fiable y responsable. 

El dilema. Si el Pentágono cumple su amenaza, se sentará un precedente donde el Estado puede intervenir la propiedad intelectual de una empresa de software bajo el argumento de emergencia nacional. Esto obligaría a todas las Big Tech a decidir si están dispuestas a ceder el control total de sus desarrollos tecnológicos a los militares... o a arriesgarse a ser intervenidas por una ley de hace casi 80 años.

Imagen | Ben White | Anthropic

En Xataka | IBM lleva décadas viviendo de que nadie podía matar a COBOL. Anthropic tiene otros planes


-
La noticia Anthropic tiene líneas rojas para su IA. El Pentágono acaba de exigir que las borre todas fue publicada originalmente en Xataka por Javier Pastor .



☞ El artículo completo original de Javier Pastor lo puedes ver aquí

Rusia montó una red secreta para vender 90.000 millones en petróleo. Ha caído por usar el mismo servidor de correo

Rusia montó una red secreta para vender 90.000 millones en petróleo. Ha caído por usar el mismo servidor de correo

En el ajedrez geopolítico de las sanciones internacionales, donde los gobiernos occidentales diseñan complejas legislaciones para asfixiar la maquinaria bélica de Vladímir Putin, a veces el jaque mate no llega por una brillante maniobra diplomática, sino por la tacañería corporativa. 

Toda una red global de contrabando, diseñada milimétricamente para ser invisible a los ojos de Washington y Bruselas, ha caído como un castillo de naipes por no querer pagar facturas separadas de correo electrónico. Un simple ahorro en infraestructura informática ha dejado al descubierto un monumental flujo de dinero negro.

Un colosal IT blunder (un error informático garrafal) ha sacado a la luz una red de contrabando que ha movido al menos 90.000 millones de dólares en petróleo ruso. Como revela una exhaustiva investigación del Financial Times, esta trama es la principal responsable de financiar al Kremlin en su guerra contra Ucrania.

El medio británico ha identificado un entramado de 48 empresas que, sobre el papel, operaban de forma totalmente independiente desde distintas direcciones físicas. Sin embargo, en la práctica, actuaban al unísono para disfrazar el origen del crudo, especialmente el de Rosneft, la petrolera controlada por el estado ruso. La necesidad de ocultar estas exportaciones se volvió de vida o muerte para el Kremlin en octubre de 2025, cuando Estados Unidos impuso sanciones directas a Rosneft y Lukoil.

Desde ese momento, una empresa hasta entonces desconocida llamada Redwood Global Supply se coronó repentinamente como el mayor exportador de crudo ruso del mundo. Esta firma, junto al resto del entramado, está vinculada a un grupo de empresarios de origen azerbaiyano con acceso privilegiado a la cúpula de Rosneft, liderados por figuras como Tahir Garayev y Etibar Eyyub.

El medio ruso independiente The Moscow Times se ha hecho eco de este hallazgo, subrayando un dato demoledor: en noviembre de 2024, más del 80% de las exportaciones marítimas de Rosneft se movieron a través de esta red. Sergey Vakulenko, exjefe de estrategia de Gazprom Neft y actual investigador del Centro Carnegie, explicaba a este medio que usar medio centenar de empresas fantasma es "un viejo truco de los 90" para evadir impuestos, pero confiesa su sorpresa ante el hecho de que una sola red se haya vuelto tan inmensamente crucial para un gigante como Rosneft.

El triunfo de los intermediarios en la sombra

La existencia de esta red significa, simple y llanamente, que el sistema de sanciones occidentales está lleno de agujeros y que Rusia ha logrado industrializar la evasión. Según detalla la investigación, el éxito de esta red de 90.000 millones de dólares se basaba en la separación estricta de roles para borrar el rastro del dinero. El entramado utilizaba un grupo de empresas fantasma exclusivamente para comprar los cargamentos de crudo en Rusia, y otro grupo de empresas, totalmente distintas sobre el papel, para venderlos en mercados clave como India o China.

De esta forma, en los documentos aduaneros casi nunca coincidía el comprador inicial con el vendedor final. Además, en la mayoría de los casos, el crudo se etiquetaba bajo nombres genéricos como "mezcla de exportación", lo que destruía cualquier posibilidad de rastrear su origen o de comprobar si se estaba respetando el tope de precios impuesto por el G7.

Como ya explicamos en su momento en Xataka, este modus operandi no es nuevo y se apoya en una arquitectura de evasión que lleva años gestándose en lugares como Emiratos Árabes Unidos. Algo muy parecido ocurrió con el caso de Christopher Eppinger, un joven trader alemán que ilustra a la perfección cómo funciona este submundo.

Tal y como detallamos en nuestro reportaje, mientras Europa presumía de soberanía energética, un ejército de nuevos intermediarios se trasladó a Dubái —jurisdicción que no aplica sanciones a Moscú— para hacerse de oro. La red descubierta ahora por el medio británico utiliza exactamente las mismas herramientas que ya analizamos: la creación exprés de sociedades opacas, el uso de la "flota fantasma" (barcos envejecidos que apagan sus transpondedores al acercarse a cargar el crudo ruso) y las transferencias de petróleo en alta mar para mezclarlo y falsificar su procedencia.

La única diferencia es que la red de Rosneft destapada por el FT operaba a una escala industrial sin precedentes... Hasta que cometieron un error de principiante en internet.

El error del novato

Todo este sofisticado entramado internacional se derrumbó por un detalle absurdo que roza la comedia. El Financial Times descubrió que estas 48 empresas multimillonarias compartían un único servidor privado para sus correos electrónicos: mx.phoenixtrading.ltd

Al tirar de este hilo digital, los periodistas del FT lograron identificar 442 dominios web que compartían funciones administrativas de back-office en ese mismo servidor. El siguiente paso fue pura minería de datos: compararon los nombres de esos dominios con los registros aduaneros de Rusia y la India. Así, descubrieron que el dominio foxton-fzco.com correspondía a Foxton FZCO (con sede en Dubái), compradora de 5.600 millones de dólares en petróleo; y que advanalliance.ltd era Advan Alliance, que vendió 1.500 millones a la India.

El afán por crear y destruir empresas rápidamente para despistar a los sancionadores —según The Moscow Times, la vida útil media de estas firmas es de solo seis meses— llevó a la red a centralizar su infraestructura informática para abaratar costes. Un ahorro que les ha costado su anonimato.

El espectáculo debe continuar

A corto plazo, la estrategia de los implicados es la negación y la adaptación. Como recoge el Financial Times, tanto Tahir Garayev como Etibar Eyyub han negado categóricamente su participación en la evasión de sanciones, calificando las acusaciones de "infundadas" (curiosamente, Eyyub envió su desmentido desde una dirección de correo alojada en el servidor comprometido). La empresa original que fundó la red, Coral Energy (ahora 2Rivers), también se ha desvinculado de las operaciones.

Sin embargo, entre bastidores, la maquinaria ya busca nuevas vías. Un alto ejecutivo energético ruso, amparado en el anonimato, resumió la situación en la investigación con crudeza: "Crea costes e inconvenientes adicionales. Pero al final del día, el espectáculo debe continuar". El Reino Unido ya ha reaccionado a la investigación del medio británico sancionando a cerca de 300 entidades vinculadas a esta "telaraña oscura", bloqueando barcos y bancos rusos.

La caída de esta inmensa red de 90.000 millones de dólares demuestra que, en el siglo XXI, el secretismo bancario y las banderas de conveniencia no sirven de nada si el administrador de sistemas decide ahorrar unos dólares compartiendo un servidor. Ha sido una victoria monumental para los reguladores occidentales, servida en bandeja de plata por la tacañería de la propia red.

No obstante, sería ingenuo pensar que este es el fin del contrabando. Como advierten los propios ejecutivos rusos, la maquinaria ya está buscando nuevas rutas, nuevos testaferros y nuevas jurisdicciones opacas. El crudo ruso seguirá fluyendo por las grietas del sistema mientras haya compradores dispuestos a mirar hacia otro lado. La próxima vez, eso sí, se asegurarán de pagar por correos electrónicos separados.

Imagen | Freepik

Xataka | El petróleo ruso fluyó pese a las sanciones. Y un joven alemán lo convirtió en un negocio millonario

-
La noticia Rusia montó una red secreta para vender 90.000 millones en petróleo. Ha caído por usar el mismo servidor de correo fue publicada originalmente en Xataka por Alba Otero .



☞ El artículo completo original de Alba Otero lo puedes ver aquí