27 de marzo de 2026

Ley de plásticos de un solo uso en plena implementación: ¿qué viene ahora? 

Ya entró en vigor la última etapa de esta ley que establece la prohibición de entregar cualquier desechable de plástico en locales de expendio de alimentos. De la misma manera, los supermercados deben destinar espacio en sus góndolas a botellas retornables.  

Por Gabriel Urbina Parraguez. 

El pasado 13 de febrero de 2026 comenzó a regir la etapa final de la Ley 21.368, conocida como ley Plásticos y Productos de un Solo Uso (PUSU). Esta norma dicta que los locales expendedores de alimentos, como restaurantes, bares o locales de comida rápida, no podrán entregar ningún elemento de material plástico desechable, incluyendo el plumavit, a sus clientes dentro del local, ya sean vasos, cubiertos, sachets, etc. 

Asimismo, la normativa obliga a los supermercados a tener el 30% de las vitrinas dedicadas a la venta de bebestibles con envases retornables, lo que se suma a la disposición de vender bebidas en este formato en todos los minimarkets y almacenes de barrio, obligación que rige desde el 13 de agosto del 2023, a pesar de ser una práctica más antigua. 

Originalmente, esta ley buscaba prohibir la entrega de todo tipo de desechables para el consumo dentro de los locales, sin embargo, luego de intentos por cambiar la normativa, se permitió la entrega de productos de papel, madera y cartón.  

Cristóbal Correa, director de campañas de contaminación marina de Ocena en Chile, señala que “La ley de plásticos de un solo uso no solo es importante porque fomenta la innovación, economía circular y el cuidado del medio ambiente, sino que también ha posicionado a Chile como uno de los ejemplos a seguir a la hora de generar regulación para enfrentar la crisis de contaminación por plásticos”. 

La implementación de esta norma significa una victoria para el combate contra la contaminación por plásticos de un solo uso, considerando que el 70% de la basura encontrada en las playas de Chile y el mundo corresponden a este tipo de desechos.  

Según un estudio realizado por Oceana en Chile, se estima que la implementación de la ley PUSU prevendrá el desecho de más de 23 mil toneladas anuales de plástico de un solo uso, generados en los locales de expendio de alimentos. 

Reutilización, un próximo desafío 

Desde Oceana explican que la ley PUSU es una primera etapa para disminuir la contaminación por plásticos. El siguiente paso para una economía verdaderamente circular es la reutilización de productos. “La Ley PUSU es mucho más que la prohibición del plástico desechable en los locales de comida”, comenta Cristóbal Correa. “Marca un hito importante para volver a los elementos reutilizables tradicionales como los que tenemos en nuestras casas, evitando así que desechemos a diario miles de toneladas de basura a nuestro planeta, especialmente a nuestro océano”, agrega. 

Oceana en Chile, la empresa de reutilización Algramo, el Pacto Chileno por los Plásticos y la Asociación Nacional de la Industria del Reciclaje, publicaron un informe en 2024, con el fin de promover la reutilización y reducir la producción de desechos. 

El estudio propone que los productores de envases, a través de los sistemas de gestión de la ley de Responsabilidad Extendida del productor (REP), destinen parte de su presupuesto a promover iniciativas concretas que permitan prevenir la generación de residuos, como la reutilización de envases. Este gasto económico sería inicialmente de un 1%, hasta alcanzar el 5%. 

Según este estudio, “la implementación de la política pública generará una reducción de entre 270.079 toneladas (escenario conservador) a 1.095.630 toneladas (escenario optimista) de envases introducidos al mercado durante los primeros 10 años”. Así se evita la generación de residuos de entre el 1.8% y el 8.9% de envases introducidos al mercado. 

Respecto a la campaña de la organización de conservación marina, Cristóbal Correa señala que “en Oceana, junto a diversos aliados, hemos trabajado en la elaboración e impulso de una propuesta de cambio regulatorio, bastante breve, para impulsar decididamente la reutilización. Con un pequeño cambio en un decreto, podríamos evitar más de 533 mil toneladas de envases de un solo uso cada año”. 

Con este desafío en vista, Chile podría volverse líder en la transición hacia un futuro más limpio. 

 

 

La entrada Ley de plásticos de un solo uso en plena implementación: ¿qué viene ahora?  se publicó primero en Revista Ecociencias.



☞ El artículo completo original de Revista Ecociencias lo puedes ver aquí

El COI tiene un nuevo método para excluir a las atletas trans de los Juegos Olímpicos. El problema es que la biología no funciona así

El COI tiene un nuevo método para excluir a las atletas trans de los Juegos Olímpicos. El problema es que la biología no funciona así

El Comité Olímpico Internacional ha anunciado a finales de este mes de marzo sin duda una de las decisiones más polémicas de su historia reciente: a partir de los Juegos Olímpicos de Los Ángeles 2028, ninguna atleta transgénero podrá competir en la categoría femenina. Pero más allá del debate social y político que se puede generar, hay que poner también el foco en el método elegido para determinar esta exclusión: un simple análisis genético donde se busca un solo gen. Y esto es algo muy discutido entre la ciencia. 

Su descubridor. El gen en cuestión, que va a ser analizado en las atletas que quieran participar en la categoría femenina, va a ser el SRY, que no es más que la "Región Determinante del Sexo Y". Un gen que fue descubierto en 1990 por el biólogo molecular Andrew Sinclair y que apuntaba que su presencia es un factor determinante del desarrollo sexual masculino. Es, literalmente, el padre científico de la prueba que ha elegido el COI para integrar en sus requisitos olímpicos. 

Pero la cuestión está en que él mismo está en contra de usarla para esto. 

Su desacuerdo. Esta decisión no es una gran novedad, puesto que si echamos la vista atrás, ya el organismo que rige el atletismo mundial, el World Athletics, adoptó en septiembre de 2025 este mismo test para participar en sus competiciones. Aquí el propio Sinclair no dudó en publicar un artículo de opinión donde dejó claro que el resultado no es algo definitivo, ya que lo único que puede decir el análisis es si el gen está presente o no. 

Por qué. De esta manera, hay que detallar que ser positivo en SRY no nos da información de si está funcionando para formar un testículo, si estimula la producción de testosterona o incluso si expresa los receptores necesarios para que la testosterona se pueda usar. 

Dicho de otra manera: saber que una atleta tiene el gen SRY no te dice nada concluyente sobre su fisiología, sus niveles hormonales ni, por extensión, sobre sus supuestas ventajas competitivas por tener testosterona. La biología del desarrollo sexual es infinitamente más compleja que la presencia o ausencia de un marcador genético, que ahora marcará el 'todo' ante el COI. 

Hay más evidencia. Este investigador no es el único que se opone a esta decisión, puesto que ya a principios de marzo se publicó un artículo firmado por 34 académicos para responder a la decisión del World Athletics. Aquí apuntaban a lo mismo: estamos ante un test que reduce todo a un solo gen cuando la biología es mucho más compleja. Y es que el sexo biológico es el resultado de una interacción muy compleja de la genética de los humanos, hormonas, receptores, tejidos... 

Además, el argumento del COI apunta a que este test protege de la equidad competitiva, pero para los académicos, apuntan a que no hay evidencia científica sólida que demuestre que la presencai del gen SRY se relacione de manera directa con tener una mayor ventaja deportiva. 

No es algo nuevo. Aunque ahora vemos un gran escándalo en el mundo deportivo por esta decisión, la realidad es que si miramos la hemeroteca, ya en los años 90 se hacía algo similar. Hace 30 años el COI decidió exigir a las mujeres que verificaran su sexo mediante pruebas cromosómicas y también con la determinación del gen SRY. Pero finalmente fueron pruebas retiradas por las limitaciones técnicas, la ausencia de evidencia médica y también por los problemas legales que podía tener. 

Un caso español. Debido a estas pruebas, la atleta española María José Martínez Patiño fue descalificada en 1985 tras dar positivo en el test cromosómico a pesar de no tener ninguna ventaja fisiológica por encima de sus compañeras. De esta manera, su carrera estaba prácticamente condenada, pero pudo recuperarla gracias a la ayuda de un genetista que pudo documentar su caso con evidencia científica que demostraba que no le estaba dando una ventaja por encima del resto de competidoras. 

El debate. Si la base para exigir el test genético es proteger la equidad competitiva, hay que preguntarse qué dice la ciencia sobre las ventajas reales de las atletas transgénero. Y en este momento se sabe mucho menos de lo que la población general cree. 

Uno de los estudios más importantes se realizó en 2015 por una investigadora transgénero que analizó los tiempos de carrera de ocho atletas antes y después de su transición. En este caso las marcas se ralentizaron y su rendimiento relativo respecto a corredoras del mismo sexo se mantuvo bastante estable.

Un estudio del COI. Publicado en 2024 y financiado parcialmente por el propio comité, arrojó resultados que no encajan con el discurso que no paramos de escuchar: las mujeres transgénero mostraron peores resultados que las mujeres cisgénero en fuerza del tren inferior y en función pulmonar. Pero lógicamente no significa que no pueda haber ventajas residuales en determinados deportes, que es algo que a día de hoy sigue siendo una pregunta que necesita una respuesta. 

¿Y ahora qué? Estamos sin duda ante una disputa sobre qué herramientas son válidas para resolver un problema genuinamente complejo. Ahora mismo la ciencia apunta a que el test del gen SRY no es la mejor herramienta, pero porque no nos da una respuesta completa, ya que el gen SRY puede estar presente y el cuerpo no responder a la testosterona. Pero esto es algo que a día de hoy se debe seguir investigando para lograr pruebas que puedan garantizar esta equidad, pero siempre con una base científica detrás. 

Imágenes | Umanoide Erik van Leeuwen 

En Xataka | Hemos aceptado que el deporte es "medicina" para el cuerpo. Ahora la ciencia está descubriendo sus efectos secundarios

-
La noticia El COI tiene un nuevo método para excluir a las atletas trans de los Juegos Olímpicos. El problema es que la biología no funciona así fue publicada originalmente en Xataka por José A. Lizana .



☞ El artículo completo original de José A. Lizana lo puedes ver aquí

Google pone fecha al “Q-Day”, cuando la computación cuántica podrá romper la criptografía actual antes de lo previsto

Google pone fecha al “Q-Day”, cuando la computación cuántica podrá romper la criptografía actual antes de lo previsto

La llegada de la computación cuántica nos acerca a un horizonte apasionante. Es un cambio de paradigma porque, si la computación clásica se basa en bits de 0 y 1, la cuántica usa cúbits que pueden estar en ambos estados a la vez. Traducción: si la computación clásica hace operaciones de una en una, la cuántica hace muchas al mismo tiempo. Eso abre un océano de posibilidades, y también permitirá romper cualquier sistema de cifrado actual en cuestión de segundos. Google lleva una década preparándose, y ha puesto una fecha para su llegada.

2029.

PQC. Son las siglas en inglés de criptografía poscuántica. Se trata de un conjunto de algoritmos de encriptación diseñados para poder resistir ataques de computadoras cuánticas y permitir que datos que deben estar cifrados como claves y firmas digitales se mantengan así a largo plazo. Esos algoritmos matemáticos complejos diseñados para resistir ataques cuánticos están diseñados para poder implementarlos en computadoras clásicas. Es decir, no se actualiza el hardware, sino la seguridad.

La criptografía cuántica es otro enfoque, pero también más experimental. Es la que usará todo el potencial de la computación cuántica para conseguir una seguridad, teóricamente, inquebrantable. La que nos interesa en estos momentos es la poscuántica, y tiene todo el sentido porque los ordenadores clásicos y los cuánticos coexistirán, y lo que se necesita es actualizar los sistemas de cifrado para que las empresas sigan teniendo ordenadores clásicos, pero con una seguridad que resista ataques cuánticos.

Q-Day. Las empresas llevan tiempo preparándose para esto y, como decimos, Google es una de ellas. Lleva desde 2016 invirtiendo en esa criptografía poscuántica, migrando algunos sistemas de intercambio de claves para el tráfico interno al estándar poscuántico. Hace un tiempo afirmaron que el intercambio de claves dentro de los servicios de Google ahora es resistente a la computación cuántica de forma predeterminada. Proton también está en ello.

Para no dejarlo ahí como una tarea pendiente que nunca se termina, acaban de marcar una fecha límite autoimpuesta para finalizar la transición. Para 2029 tendrán que completar esa migración de su seguridad a los sistemas PQC. De hecho, en su blog, han anunciado que Android 17 integrará un algoritmo que proporcionará firmas resistentes a la computación cuántica para proteger la integridad de software de arranque.

Es una forma de decir un “ey, que nosotros ya nos estamos preparando”, pero de fondo lo que hay es una apuesta por esa seguridad para una época que está cerca. Y no sólo será el sistema de arranque: las aplicaciones podrán generar y verificar firmas poscuánticas dentro del hardware seguro de los dispositivos y la propia Google Play también comenzará a generar claves seguras para las aplicaciones que opten por participar en el programa durante el ciclo de lanzamiento del nuevo sistema.

La industria se prepara. Aparte del anuncio, la compañía instó al resto de la industria tecnológica y a los gobiernos a ponerse las pilas para acelerar la adopción de estos sistemas de cifrado más resistentes. Y, aunque Google lleva varios años con el “que viene el lobo”, no son los únicos. Microsoft quiere empezar con la migración de sus sistemas para 2029, culminando en 2033. Las agencias federales estadounidenses también quieren hacerlo para la ventana 2030-2035 y la Comisión Europea ha metido prisa a los estados miembros para que la infraestructura crítica sea resistente para finales de 2030.

Con este movimiento, Google se ha marcado una fecha que parece ambiciosa y que es una declaración de intenciones. “Es nuestra responsabilidad dar ejemplo y compartir un cronograma ambicioso”, expone Google. También es evidente que, como proveedor de infraestructura digital, ofrecer un sistema de seguridad poscuántica antes que nadie les da una ventaja competitiva porque, si alguien no llega a tiempo, siempre podría comprar sus servicios.

Empresas como Telefónica también están trabajando en ello, pero cuando hablamos con ellos no nos dieron una fecha orientativa. Lo que sí comentaron es que están empezando a ver que hay partes de la industria que se están interesando en sus servicios de criptografía poscuántica

Que no cunda el pánico. Que la llegada de la computación cuántica suponga un quebradero de cabeza para todo lo que se encuentra cifrado (blockchain y criptomonedas, datos bancarios y transacciones y hasta las apps de mensajería) no implica que tengamos que entrar en pánico. Hace unos meses, Keith Martin, profesor del Grupo de Seguridad de la Información en la Universidad de Londres, comentó que, aunque la amenaza es real, los investigadores llevan años trabajando y la mayor parte del trabajo teórico está hecho.

Cuando aparezcan los ordenadores cuánticos relevantes desde un punto de vista criptográfico, las tecnologías de protección ya estarán listas y no tendremos que preocuparnos de nada. De hecho, a nivel de usuario… poco podemos hacer. No vamos a ser nosotros los que tengamos un ordenador cuántico en casa como para poder encriptar nuestra información. Básicamente, como decía hace unas líneas, es Google diciendo “preparaos porque esto va a venir y, como industria, hay que prepararse”.

Y ya han puesto fecha. No queda tanto…

Imagen | Xataka

En Xataka | Putin comparó la carrera cuántica con la nuclear de la Guerra Fría. China acaba de dar un salto en esa guerra del futuro

-
La noticia Google pone fecha al “Q-Day”, cuando la computación cuántica podrá romper la criptografía actual antes de lo previsto fue publicada originalmente en Xataka por Alejandro Alcolea .



☞ El artículo completo original de Alejandro Alcolea lo puedes ver aquí

Wikipedia ha prohibido usar IA para escribir o reescribir artículos en inglés. El conocimiento humano empieza a levantar barreras

Wikipedia ha prohibido usar IA para escribir o reescribir artículos en inglés. El conocimiento humano empieza a levantar barreras

La versión en inglés de la Wikipedia acaba de prohibir los artículos hechos con IA. En la última actualización de sus directrices son claros: el contenido generado con modelos de lenguaje viola las políticas de contenidos. La mayor enciclopedia de internet se posiciona como refugio de contenido creado por humanos.

IA no, gracias. El debate 'IA sí o IA no' lleva un tiempo generando tensión en Wikipedia y finalmente se han decantado por apoyar el contenido humano con mayoría aplastante 40 a 2. La nueva restricción impuesta dice así: "El texto generado por grandes modelos de lenguaje (...) suele infringir varias de las políticas fundamentales de contenido de Wikipedia". Esas políticas fundamentales a las que se refiere son la neutralidad de los contenidos, verificabilidad y que el contenido no puede ser una investigación original, sino que debe estar atribuido a fuentes fiables. Con este cambio, los editores tienen prohibido el uso de LLM "para generar o reescribir el contenido de los artículos".

Dos excepciones. Wikipedia contempla dos escenarios en los que el uso de IA sí que está permitido:

  • Sugerencias y correcciones de estilo básicas, siempre y cuando el LLM no introduzca contenido propio. Alertan de que hay que usarlo con cautela ya que los LLM suelen "ir más allá de lo que se les pide y alterar el significado del texto".
  • Traducción de artículos a otros idiomas, siempre y cuando lo revise una persona competente en los dos idiomas implicados. Aquí es importante señalar que Wikipedia ya ha tenido dramas en el pasado por culpa de las traducciones de IA

Por qué es importante. Wikipedia se ha posicionado como una reserva de contenido genuinamente humano en un internet que se inunda de contenido artificial. En un momento en que distinguir lo auténtico de lo sintético es cada vez más difícil, la enciclopedia más grande del mundo elige apostar por la autoría humana como garantía de fiabilidad. Hay algo ciertamente irónico y es que Wikipedia rechaza la IA, pero la IA sigue bebiendo de Wikipedia para dar respuestas, haciéndoles perder clicks y saturando sus servidores

Generado por IA vs hecho por humanos. Hasta hace poco pensábamos que la solución era marcar el contenido artificial en las plataformas con la clásica etiqueta' IA', pero ya estamos en un punto en el que resulta más valioso y útil resaltar lo contrario: que está hecho por humanos. El avance de las herramientas de generación de imagen y la cantidad de textos hechos con IA son abrumadores, hasta el punto de que está surgiendo una corriente anti-IA; Algunos artistas están empezando a diseñar "mal" para diferenciarse de la homogeneización de la IA, han creado extensiones para volver al internet de antes de ChatGPT, hay navegadores que filtran los resultados IA y hasta se ha creado la insignia 'Not by AI'. La cuestión es que es un David contra Goliat.

El caso Etsy. Es quizás uno de los casos más sangrantes de la inundación de contenido IA de baja calidad. La plataforma que se presentaba como un refugio de lo auténtico hoy es un mercadillo de IA que además intenta hacerse pasar por artesanal. Retratos estilo Ghibli por 20 euros, perfiles gestionados completamente por IA que dicen cosas como "estoy deseando dibujarte"... Etsy permite el contenido hecho con IA, pero dice que hay que etiquetarlo como tal. Nadie lo hace. Una prueba de que la etiqueta ya no sirve de nada.

Un detalle clave. El último párrafo de las directrices de Wikipedia es especialmente llamativo porque habla de posibles sanciones a quienes violen la norma, el problema es cómo piensan detectar quién usa IA. Wikipedia admite que "es posible que algunos editores tengan estilos de redacción similares a los de los modelos de lenguaje grande" y que "para justificar la imposición de sanciones se necesitan más pruebas que meros indicios estilísticos o lingüísticos". No tenemos ni idea de cómo van a hacerlo, lo que sí sabemos es que los detectores de texto IA fallan más que una escopeta de feria.

Imagen | Wikipedia, editada

En Xataka | La última barrera contra la IA es el buen gusto. El problema es que toda una generación está creciendo sin desarrollarlo

-
La noticia Wikipedia ha prohibido usar IA para escribir o reescribir artículos en inglés. El conocimiento humano empieza a levantar barreras fue publicada originalmente en Xataka por Amparo Babiloni .



☞ El artículo completo original de Amparo Babiloni lo puedes ver aquí

No contenta con reventar la demanda y los precios de la RAM, la IA ya apunta a otra víctima: las baterías

No contenta con reventar la demanda y los precios de la RAM, la IA ya apunta a otra víctima: las baterías

Si la pregunta es “de qué tienen hambre los centros de datos”, la respuesta es un simple “sí”. Llevábamos un tiempo sin hablar de la crisis de la memoria RAM no porque hubiera acabado, sino porque era tontería seguir reincidiendo en ello. El resumen es que la cosa sigue igual de mal que hace unas semanas y, aunque las máquinas estén a tope para crear más, toda va al mismo sitio: las plataformas de IA de los centros de datos.

Pero ya no es que se hayan roto el mercado de memoria RAM, SSD, discos duros y todo lo que tenga que ver con chips: es que ahora van a por las baterías.

El caso Panasonic. El gigante japonés anunció hace unas horas su plan para triplicar su capacidad de producción de celdas de iones de litio. Van a expandir sus instalaciones dedicadas a ello, pero también adaptarán algunas de sus plantas de fabricación de elementos para la industria automotriz para fabricar más baterías. Todas las baterías extra que puedan hacer serán pocas, hasta el punto de que no sólo plantean el cambio para las plantas japonesas: también en extranjeras como la de Kansas.

¿Por qué? La respuesta corta es que por la IA. La respuesta larga es que la IA no puede dejar de funcionar ni por un segundo, y por eso los equipos necesitan fuentes de energía de respaldo. Esa energía procede de baterías que se instalan entre los racks y de la que, ante cualquier corte o pico puntual, ‘tiran’ para poder seguir operando. Y como los equipos necesitan una cantidad demencial de energía para funcionar, se deben hacer muchas, muchísimas baterías de respaldo. 

Image 2 No dejan de ser módulos con cientos de "pilas" que se incrustan en los racks

Todo vendido. Es tal la previsión que la compañía japonesa estima que, para el próximo año fiscal, puede vender baterías por valor de 800.000 millones de yenes, unos 5.000 millones de dólares. Cuadruplicaría sus ventas actuales y eso implica algo más: está todo vendido. Sus clientes ya han comprado el 80% de la producción de Panasonic, lo que deja a los que aún no son clientes a pelear por apenas una quinta parte del volumen.

Eso encarecerá los precios, generará escasez y provocará lo mismo que está sucediendo con la RAM y otros componentes: no hay unidades, los precios se disparan, las empresas ven que hay demanda y destinan su producción a crear ese producto y el mercado de consumo sufre las consecuencias. Es exactamente lo mismo que hemos visto con los HDD, con Seagate y Western Digital apuntando que lo que iban a producir durante los próximos meses ya estaba vendido.

Y también ha pasado con la RAM. La situación con ellos se volvió tan desesperante que los principales fabricantes han empezado a pedir pagos con tres años de adelanto. Porque como apuntó el mandamás de SMIC -una de las grandes fundiciones de China- hace unos días, todos quieren tener la infraestructura de la próxima década para… ayer.

Supercondensadores. Al margen de las “malas” noticias, Panasonic también trabaja en algo nuevo. Frente a los condensadores tradicionales, la compañía japonesa tiene en desarrollo los supercondensadores para los centros de datos. Se trata de condensadores que pueden almacenar más energía, pero también entregarla más lentamente.

Son más densos que las baterías y se estima que serán elementos de alta fidelidad para respaldar los equipos de los centros de datos durante cortes o en picos de carga. Esperan tenerlos listos para 2027.

Las renovables. Al final, estas baterías de Panasonic (y de otros fabricantes) son simples elementos de seguridad para asegurar ese flujo ininterrumpido de energía en los racks de los hiperescaladores. ¿Cómo nos afecta? Pues porque los condensadores y equipos que fabrica Panasonic también se encuentra en hardware de consumo y si ahora se centran en los centros de datos, ocurrirá lo mismo que con los chips NAND y todo lo que use un chip de memoria. Y, de fondo, también están las baterías más convencionales para almacenar gran cantidad de energía procedente de las renovables. 

Porque ya hemos comentado que los centros de datos consumen muchísimo, tanto que hasta se ha vuelto al carbón, el gas es un recurso habitual y hay empresas que están abriendo sus centrales nucleares. Pero si se apuesta por las renovables, será necesario equipar los centros de datos con decenas de cientos de baterías capaces de absorber el golpe energético. De hecho, ya hay fabricantes de baterías para coches que se están reconvirtiendo.

En definitiva: todo mal… excepto para las empresas que fabrican esos componentes.

Imágenes | Panasonic

En Xataka | Si estabas pensando en montarte un NAS para crear tu propia nube, tenemos malas noticias: la IA tiene otros planes

-
La noticia No contenta con reventar la demanda y los precios de la RAM, la IA ya apunta a otra víctima: las baterías fue publicada originalmente en Xataka por Alejandro Alcolea .



☞ El artículo completo original de Alejandro Alcolea lo puedes ver aquí