26 de diciembre de 2025

Un cofundador del campeón europeo de la IA 'open source' usó millones de libros con copyright cuando trabajaba en los modelos de Meta

Un cofundador del campeón europeo de la IA 'open source' usó millones de libros con copyright cuando trabajaba en los modelos de Meta

La IA nos ofrece modelos cada vez más potentes y capaces, pero ¿de dónde provienen los datos que hacen todo eso posible? Documentos judiciales, correos internos y testimonios de antiguos empleados, revelados recientemente por el medio francés Mediapart, arrojan nueva luz sobre una práctica ya conocida como el uso masivo de libros pirateados para entrenar modelos de lenguaje, pero también sobre la participación en la misma de quien hoy es una figura central de la IA europea.

El corazón del escándalo: LibGen y los modelos LLaMA

En el centro de las revelaciones se encuentra Library Genesis, conocida como Library Genesis (LibGen), una 'biblioteca no autorizada' que reúne millones de libros protegidos por derechos de autor, accesibles sin autorización de los titulares legales.

Según la investigación de Mediapart, Meta habría recurrido de forma reiterada a LibGen para entrenar su familia de modelos LLaMA, destinados a competir con sistemas como ChatGPT. Los documentos analizados indican que las descargas comenzaron en octubre de 2022, alcanzando un volumen estimado en 70 terabytes de datos, es decir, decenas de miles de libros digitalizados.

El uso de estas fuentes no habría sido marginal ni accidental. Correos electrónicos internos y fragmentos de código sugieren que la práctica fue conocida y discutida dentro de los equipos, pese a las dudas expresadas por algunos empleados sobre su legalidad.

La responsabilidad de la dirección de Meta

Las revelaciones no se limitan a iniciativas individuales. Según los documentos judiciales, la dirección de Meta estaba informada: algunos archivos sugieren incluso que Mark Zuckerberg respaldó el uso de estos conjuntos de datos, en un contexto donde adquirir licencias legales para millones de libros habría supuesto costes astronómicos y largos plazos de negociación.

El laboratorio FAIR, dirigido entonces por el reconocido investigador Yann LeCun, aparece como el espacio donde se tomaron muchas de estas decisiones. Tras el lanzamiento de LLaMA, Meta habría considerado brevemente regularizar el acceso a contenidos licenciados, antes de volver a recurrir a fuentes 'gratuitas'.

Guillaume Lample, de Meta a Mistral AI

Uno de los nombres que emerge con fuerza es el de Guillaume Lample, entonces investigador en el laboratorio FAIR (Fundamental AI Research) de Meta y hoy cofundador y director científico de Mistral AI.

De acuerdo con los documentos revelados durante el juicio que enfrenta a Meta con varios autores, entre ellos el escritor Richard Kadrey, Guillaume Lample habría impulsado activamente el uso de LibGen dentro de Meta. En intercambios internos, citados por Mediapart, se le atribuye la afirmación de que "todo el mundo usa LibGen", mencionando a OpenAI, Google y DeepMind como ejemplos.

Cuando otros empleados plantearon la necesidad de consultar al departamento legal, Lample habría respondido que no había hecho preguntas, asumiendo que se trataba de una práctica común en el sector.

Mistral AI y sus promesas de transparencia bajo sospecha

El interés mediático por Guillaume Lample no se explica solo por su pasado en Meta: en 2023, fundó Mistral AI, una start-up francesa que se convirtió en tiempo récord en uno de los actores más influyentes del ecosistema europeo de la IA, con una valoración multimillonaria.

Desde su creación, Mistral AI ha defendido una estrategia basada en datos 'de alta calidad' y acuerdos de licencia, firmando alianzas con instituciones como la AFP, el INA o la Biblioteca Nacional de Francia.

Sin embargo, ex empleados de Meta citados por Mediapart sostienen que LibGen también pudo haber sido utilizado en las primeras fases de desarrollo del modelo Mistral 7B, aunque no existe por ahora prueba documental que lo confirme. La empresa, tras ser contactada por Mediapart, asegura entrenar sus modelos con

"Información públicamente disponible, conjuntos de datos licenciados y datos sintéticos generados internamente".

Un debate que va más allá de lo tecnológico

Este caso se inscribe en un conflicto más amplio: tanto en Estados Unidos como en Europa, autores, editoriales y artistas multiplican las demandas judiciales contra empresas de IA, acusándolas de apropiarse de obras protegidas sin compensación.

Las revelaciones sobre Meta y LibGen muestran que el problema no es marginal, sino estructural. Entrenar grandes modelos de lenguaje requiere cantidades colosales de datos, y el acceso legal a ese material choca con los intereses económicos y la velocidad del mercado.

En última instancia, todo se resume a una pregunta: ¿puede la innovación tecnológica justificarse a costa de los derechos de los creadores?

Vía | Mediapart

Imagen | Marcos Merino mediante IA

En Genbeta | Pidieron a ChatGPT que escribiera un libro de ‘Juego de Tronos’. El resultado fue tan bueno que acabará en los tribunales

-
La noticia Un cofundador del campeón europeo de la IA 'open source' usó millones de libros con copyright cuando trabajaba en los modelos de Meta fue publicada originalmente en Genbeta por Marcos Merino .



☞ El artículo completo original de Marcos Merino lo puedes ver aquí

Podcasts de Física estrena nueva temporada y celebra más de 130 mil reproducciones

La reconocida iniciativa de divulgación científica dirigida por el profesor del Departamento de Física de la FCFM, Rodrigo Soto, inició un nuevo ciclo que se extenderá durante todo 2026. Desde la relación entre la física y la minería, hasta los secretos de la física de partículas y los hallazgos del Observatorio ALMA, serán parte de esta temporada, cuyo primer capítulo ya se encuentra disponible.

Más de cinco años han pasado desde que Podcasts de Física comenzó a transformar la forma en que docentes de física y ciencias acceden a contenido actualizado sobre los avances más relevantes de la disciplina. Con más de 50 episodios publicados y cerca de 130 mil reproducciones acumuladas, el programa de divulgación científica —dirigido por el académico del Departamento de Física de la Facultad de Ciencias Físicas y Matemáticas (FCFM) de la Universidad de Chile, Dr. Rodrigo Soto— acaba de estrenar su nueva temporada, consolidándose como una plataforma clave de divulgación científica en Chile y Latinoamérica.

Nacido en 2020 como una forma de mantener a profesores y profesoras al día con los descubrimientos fundamentales de la física moderna, el podcast ha ampliado progresivamente su audiencia hacia un público general interesado en comprender los avances de una disciplina que está en la base de numerosos desarrollos tecnológicos presentes en la vida cotidiana.

Avances de la ciencia

Rodrigo Soto explica que “el podcast está orientado principalmente a profesores, como una manera de ofrecer una actualización continua en física”. Agrega que una de las claves de su éxito “ha sido combinar un tono cercano con un lenguaje técnico adecuado para docentes”. Además del público chileno, el programa cuenta con auditores de países como México, España, Argentina, Colombia y Perú.

“En cada capítulo, especialistas abordan un tema específico relacionado con investigaciones y hallazgos de las últimas décadas. Las temáticas se definen con la participación del público, a partir de sugerencias de profesores y profesoras, quienes pueden escribir al programa para proponer temas de interés”, añade Soto.

Entre sus episodios destacados se encuentran series dedicadas a los Premios Nobel de Física, en las que se entrevistó a expertos y expertas para comprender en qué consistieron estos descubrimientos. También están disponibles capítulos sobre ciencias de la Tierra, inventos, microscopía y, en la temporada más reciente, observatorios astronómicos.

La nueva temporada

A diferencia de años anteriores, la nueva temporada no estará organizada en torno a una temática única, sino que abordará un tema distinto en cada episodio. El primer capítulo ya está disponible y cuenta con la participación de Alejandra Álvarez, física con más de 20 años de experiencia en el área de la minería. En el episodio, relata cómo su formación —que incluye una colaboración con un Premio Nobel de Física— le ha permitido aplicar conceptos de física de fluidos, plasma y materiales en diversos proyectos del sector minero.

Durante diciembre se estrenarán nuevos episodios, entre ellos uno dedicado al Observatorio ALMA, con la astrónoma del Instituto de Astrofísica UC, Viviana Guzmán, especialista en astroquímica, formación estelar y planetaria; otro sobre microfluídica, con la participación de la académica del DFI María Luisa Cordero; y un capítulo especial centrado en física de partículas.

Con temáticas que van desde los fenómenos en los confines del universo hasta la investigación en el interior de un laboratorio y el sorprendente mundo cuántico, Podcasts de Física invita a docentes, estudiantes y entusiastas de la ciencia a escuchar, aprender y proponer nuevas temáticas. Quienes deseen sugerir temas pueden hacerlo escribiendo a fisicapodcasts@gmail.com o a través de las cuentas del programa en X, Instagram y Facebook.

La nueva temporada de Podcasts de Física ya está en marcha y promete seguir acercando la física a las aulas, a la comunidad científica y a todas las personas interesadas en comprender los mecanismos fundamentales que gobiernan la naturaleza y el universo.

La entrada Podcasts de Física estrena nueva temporada y celebra más de 130 mil reproducciones se publicó primero en Revista Ecociencias.



☞ El artículo completo original de Revista Ecociencias lo puedes ver aquí

Esta IA encuentra reglas simples donde los humanos solo ven caos

noticia1_ai_chaos

El desarrollo de una nueva inteligencia artificial en la Universidad de Duke está ayudando a descifrar algunos de los sistemas más enmarañados de la naturaleza y la tecnología. Esta herramienta no se limita a hacer predicciones: revela las leyes internas que gobiernan la evolución de sistemas extremadamente complejos, desde circuitos eléctricos hasta redes neuronales.

El aporte clave de esta IA radica en su capacidad para identificar reglas matemáticas simples a partir de datos abrumadoramente complejos. En lugar de ofrecer cajas negras ininterpretables, como ocurre con muchos modelos de aprendizaje profundo, este sistema ofrece ecuaciones comprensibles que explican el comportamiento de sistemas dinámicos.

De Newton a Koopman: inspiraciones matemáticas del pasado

El enfoque parte de una tradición científica que busca reducir lo complejo a lo esencial. Tal como Newton formuló las leyes del movimiento para describir la trayectoria de una manzana cayendo del árbol, esta IA busca desentrañar los principios ocultos que regulan fenómenos caóticos.

El concepto matemático que sustenta esta tecnología proviene de Bernard Koopman, quien en la década de 1930 demostró que incluso los sistemas no lineales pueden representarse mediante modelos lineales, siempre que se amplíe el número de variables. Esta transformación, aunque elegante, generaba una complejidad inabarcable para los humanos. Allí es donde entra en juego la inteligencia artificial.

Reducción de dimensiones sin perder lo esencial

El sistema desarrollado por el equipo de Boyuan Chen, publicado en la revista npj Complexity, combina redes neuronales profundas con restricciones inspiradas en la física. Analiza datos temporales, como los que provienen de experimentos científicos, y detecta los patrones más relevantes de evolución en el tiempo.

Imaginemos un circuito eléctrico con cientos de componentes o un sistema meteorológico con miles de variables en juego. Esta IA puede analizar su comportamiento y condensarlo en un conjunto reducido de ecuaciones que, aunque simplificadas, siguen representando con fidelidad el sistema real. Es como pasar de una novela de mil páginas a un resumen que no omite los giros argumentales cruciales.

Pruebas con sistemas diversos y complejos

Para evaluar su eficacia, los investigadores sometieron la IA a distintos escenarios: desde el movimiento oscilante de un péndulo doble (un clásico ejemplo de caos en física) hasta modelos de redes neuronales o sistemas climáticos. En todos los casos, la IA logró identificar un conjunto de variables ocultas que dominaban el comportamiento del sistema.

Uno de los resultados más notables fue la capacidad del modelo para reducir la complejidad hasta en un factor de 10 respecto a otros métodos de aprendizaje automático, manteniendo al mismo tiempo una alta precisión en sus predicciones a largo plazo.

Ventajas para la ciencia: interpretabilidad y eficiencia

Más allá de la precisión, lo que realmente entusiasma a los científicos es la interpretabilidad de los modelos generados. Al obtener ecuaciones simples, los resultados pueden relacionarse directamente con teorías físicas, químicas o biológicas ya existentes. Esto permite una colaboración natural entre el conocimiento humano acumulado durante siglos y la potencia de cálculo de la inteligencia artificial.

Según Chen, la IA actúa como un puente entre científicos humanos y sistemas demasiado complejos para ser descritos con lápiz y papel. Y como lo mencionó Sam Moore, coautor del estudio, descubrir los llamados atractores (estados estables a los que tiende un sistema) es como hallar puntos de referencia en un territorio desconocido. Una vez identificados estos «faros», el resto del paisaje se vuelve comprensible.

Aplicaciones futuras y más allá de las ecuaciones

El potencial de esta IA no se limita a interpretar datos pasivos. Los investigadores planean dotarla de la capacidad para guiar experimentos, seleccionando qué datos recolectar para descubrir más rápidamente las estructuras ocultas de un sistema.

Otro paso será aplicarla a datos más complejos, como videos, señales auditivas o bioseñales. En el caso de sistemas biológicos, donde muchas veces las leyes fundamentales no se conocen con claridad, esta herramienta podría ofrecer una visión sin precedentes.

El proyecto forma parte de una ambiciosa meta del laboratorio de robótica general de Duke: crear «científicos automáticos» que ayuden a acelerar el descubrimiento en distintas disciplinas. No se trata de sustituir el conocimiento humano, sino de ampliar su alcance frente a problemas demasiado complejos para la mente humana sola.

Esta colaboración entre IA y ciencia recuerda a tener un asistente extremadamente atento, capaz de leer millones de libros y ofrecer una versión concisa que el investigador pueda usar para generar nuevas hipótesis, diseñar experimentos o prevenir inestabilidades en sistemas vitales como el clima o el corazón humano.


La noticia Esta IA encuentra reglas simples donde los humanos solo ven caos fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.


☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Un nuevo hito en computación cuántica: chips atómicos de silicio alcanzan una fidelidad del 99,99%

noticia2_quantum_chip

Una startup australiana llamada Silicon Quantum Computing (SQC) ha logrado un avance que podría tener implicaciones profundas para el futuro de la computación cuántica. La compañía, con sede en Sídney, ha desarrollado lo que denomina la primera arquitectura cuántica escalable basada en átomos, alcanzando una fidelidad sin precedentes del 99,99% en un chip cuántico construido con silicio y átomos de fósforo.

La clave de esta innovación radica en su nuevo diseño arquitectónico, denominado «14/15«, en referencia a los elementos de la tabla periódica implicados: silicio (14) y fósforo (15). Esta combinación permite un nivel de precisión que supera ampliamente el de otros sistemas cuánticos actuales. Los investigadores han logrado ubicar átomos individuales de fósforo dentro de obleas de silicio puro, generando qubits nucleares y atómicos con un control exquisito sobre su posición y comportamiento.

La diferencia está en el detalle atómico

Mientras que empresas como IBM o Google apuestan por qubits superconductores y laboratorios como PsiQuantum desarrollan qubits fotónicos, SQC se enfoca en una tecnología donde cada qubit es un átomo colocado de forma precisa dentro de una matriz de silicio. Esta aproximación permite una manipulación extremadamente fina, logrando lo que Michelle Simmons, directora de la compañía, describe como «la característica más pequeña que se puede fabricar en un chip de silicio». Con una escala de 0,13 nanómetros, este nivel de precisión es hasta cien veces menor que el de las tecnologías de fabricación más avanzadas actualmente.

Por qué la fidelidad es crucial

En computación cuántica, la fidelidad mide qué tan bien puede un sistema mantener la información cuántica sin errores. Una fidelidad del 99,99% implica que los errores son prácticamente inexistentes, una condición necesaria para lograr la anhelada tolerancia a fallos. El problema común de los sistemas cuánticos es su fragilidad: los qubits pueden colapsar ante mínimas perturbaciones externas como fluctuaciones de temperatura o interferencias electromagnéticas.

Para mitigar esto, se emplean complejos sistemas de corrección de errores cuánticos (QEC). Sin embargo, la innovación de SQC permite reducir la cantidad de qubits dedicados exclusivamente a esta tarea, ya que su arquitectura minimiza los errores tipo «bit flip», uno de los más comunes en otros enfoques. Como señala Simmons, su sistema solo necesita corregir errores de fase, lo que reduce significativamente la sobrecarga computacional.

Un enfoque escalable para el futuro

Aunque el prototipo actual de SQC opera con 11 qubits (nueve nucleares y dos atómicos), lo que impresiona es su capacidad para escalar. Gracias a la conectividad entre clusters atómicos, este diseño es una prueba de concepto que podría llevar a procesadores cuánticos con millones de qubits funcionales. A diferencia de otros sistemas que requieren grandes infraestructuras para escalar, esta tecnología permitiría dispositivos más pequeños, con menor consumo energético y mejor rendimiento.

Este enfoque modular recuerda a la forma en que se construyen las ciudades: primero se diseña un bloque eficiente y luego se replica manteniendo conexiones estratégicas entre zonas. SQC ha demostrado que estos bloques atómicos pueden operar con una fidelidad altísima incluso cuando se agrupan, lo cual es esencial para el escalado práctico.

Superando a Grover sin errores

Un indicador clave de la eficiencia cuántica es el algoritmo de Grover, una prueba diseñada para mostrar ventaja cuántica frente a la computación clásica en tareas de búsqueda. Mientras otras empresas requieren sistemas complejos de corrección para alcanzar buenos resultados, SQC logró una fidelidad del 98,9% en la ejecución del algoritmo sin aplicar ningún tipo de corrección de errores.

Esto representa un salto cualitativo frente a competidores como IBM o Google, que si bien operan con más qubits, enfrentan mayores dificultades para mantener la coherencia de sus sistemas. Es como si un violinista tocara una pieza perfecta sin necesidad de afinador, mientras que otros necesitan constantes ajustes para evitar desafinaciones.

Ventajas del silicio como materia prima

Una de las mayores fortalezas del proyecto de SQC es que está basado en tecnología de silicio, un material ampliamente conocido por la industria de semiconductores. Esto allana el camino para la compatibilidad con procesos de fabricación ya establecidos, reduciendo costes y facilitando una adopción más rápida en el futuro.

A diferencia de soluciones que requieren condiciones extremas como temperaturas cercanas al cero absoluto o sistemas de refrigeración sofisticados, los chips de SQC podrían beneficiarse de una infraestructura industrial ya existente, acelerando su entrada en aplicaciones prácticas.

Qué sigue en la carrera cuántica

Aunque el camino hacia una computadora cuántica plenamente funcional a gran escala aún presenta retos, el logro de SQC reconfigura las expectativas. Mientras gigantes tecnológicos siguen ajustando sus hojas de ruta, la startup australiana avanza con una estrategia de precisgicos siguen ajustando sus hojas de ruta, la startup australiana avanza con una estrategia de precis\u00i3n atómica y eficiencia en la corrección de errores que podría marcar una diferencia decisiva.

La computación cuántica está lejos de ser una carrera de velocidad; es una maratón donde la resistencia, la estabilidad y la capacidad de escalar son las claves. Y SQC, con su enfoque atómico y fidelidad casi perfecta, parece haber encontrado una ruta más directa y sostenible.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Un «sándwich espacial» revela cómo nacen los planetas en entornos extremos

noticia3_dracula_chivito

Astrónomos que trabajan con el telescopio espacial Hubble han captado la imagen más detallada hasta la fecha del mayor disco protoplanetario conocido, ubicado a unos 1.000 años luz de la Tierra. El objeto, catalogado como IRAS 23077+6707 y apodado con el curioso nombre de «Dracula’s Chivito», abarca cerca de 400.000 millones de millas de diámetro, unas 40 veces la extensión del sistema solar hasta el cinturón de Kuiper. Este descubrimiento ofrece una ventana sin precedentes para observar el nacimiento de planetas.

La imagen de este sistema recuerda a una hamburguesa vista de lado, con una franja oscura que representa la «carne» y dos capas brillantes de polvo y gas que hacen las veces de «pan». Esta estructura, que podría parecer simpática por su forma, es en realidad un laboratorio natural de enorme complejidad y dinamismo, donde están en juego los procesos primarios de formación planetaria.

Un laboratorio caótico en el cosmos

Lo que diferencia a Dracula’s Chivito de otros discos similares no es solo su tamaño descomunal, sino su estructura desordenada y asimétrica. Por primera vez en luz visible, Hubble ha logrado capturar filamentos de material que se extienden muy por encima y por debajo del plano central del disco, algo que rara vez se ha observado con tal definición. Sorprendentemente, estos filamentos solo aparecen en un lado del disco, mientras que el otro muestra un borde nítido sin estructuras elevadas visibles.

Este comportamiento tan desigual sugiere la influencia de procesos dinámicos extremos, como la caída reciente de polvo o gas desde el medio interestelar o posibles interacciones con otras estrellas o nubes cercanas. Esta asimetría está retando los modelos tradicionales sobre cómo se forman los sistemas planetarios.

Un posible sistema planetario a gran escala

El disco es tan masivo que se estima que contiene entre 10 y 30 veces la masa de Júpiter, una cantidad más que suficiente para formar múltiples gigantes gaseosos. Aunque todavía no se han detectado planetas dentro del sistema, los científicos creen que IRAS 23077+6707 podría ser una versión a gran escala del sistema solar primitivo, con la capacidad de generar una diversidad de mundos.

Estudiar este tipo de discos permite comprender mejor cómo se organizan los materiales durante la formación estelar y planetaria. En este caso, el disco está tan inclinado respecto a nuestra línea de visión que funciona como una especie de radiografía natural, permitiendo observar sus capas superiores con gran claridad.

Una hamburguesa intergaláctica

El apodo de Dracula’s Chivito refleja el humor y la diversidad del equipo científico. Uno de sus miembros proviene de Transilvania y otro de Uruguay, país donde el chivito es un plato nacional. La forma visual del disco, semejante a un sándwich con un centro oscuro y bordes brillantes, inspiró esta comparación gastronómica. En el centro se encuentra una franja diagonal de polvo que bloquea la luz de la estrella o estrellas en su interior, mientras que las capas superiores reflejan la luz estelar, creando el efecto visual de un pan brillante envolviendo el «relleno» oscuro.

Esta imagen no es solo una curiosidad visual: revela cómo las nubes de polvo reflejan la luz y se elevan en estructuras complejas, como si el disco respirara materia hacia arriba y abajo en un movimiento constante.

Una ventana al pasado de nuestro propio sistema solar

Todos los sistemas planetarios se forman a partir de discos de gas y polvo que rodean a estrellas jóvenes. Con el tiempo, el gas tiende a acumularse en la estrella central, mientras que el polvo restante forma planetas, lunas y asteroides. Al observar un objeto como IRAS 23077+6707, los astrónomos están presenciando una etapa muy temprana de este proceso, lo que podría ofrecer pistas sobre cómo se formaron la Tierra y sus vecinos hace miles de millones de años.

Este descubrimiento también recuerda que el universo es mucho más diverso de lo que solemos imaginar. Las condiciones en las que nacen los planetas pueden variar enormemente, y estudiar casos extremos como este permite ajustar y enriquecer nuestras teorías.

Colaboración internacional y tecnología de punta

El telescopio Hubble, que lleva más de tres décadas en funcionamiento, ha sido clave para avances como este. Desarrollado en conjunto por la NASA y la Agencia Espacial Europea (ESA), es operado desde el Centro de Vuelo Espacial Goddard en Maryland, mientras que sus operaciones científicas son gestionadas por el Instituto de Ciencias del Telescopio Espacial en Baltimore.

El descubrimiento de Dracula’s Chivito también se apoya en observaciones realizadas por el telescopio espacial James Webb, que ha detectado estructuras similares en otros sistemas. Pero lo que hace especial a este caso es la nitidez con la que puede observarse en luz visible, lo que permite estudiar directamente la interacción entre polvo, gas y luz estelar.

Este tipo de avances no solo nos ayudan a entender los procesos astronómicos, sino que también nutren nuestra comprensión de la historia de la Tierra y de la posibilidad de encontrar otros mundos habitables en el futuro.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí