23 de marzo de 2026

Lo que el viento se llevó… y terminó en la Antártica

Por Victoria Gómez-Aburto, Dra. en Ciencias Ambientales 

Durante décadas, la Antártica fue considerada uno de los últimos rincones prístinos del planeta, un laboratorio natural alejado de la influencia directa de la actividad humana. Sin embargo, la ciencia ha demostrado que incluso este continente remoto no está libre de contaminación. Entre ellos se encuentran los contaminantes orgánicos persistentes (COPs), un grupo de sustancias químicas altamente estables, capaces de viajar largas distancias y acumularse en el medio ambiente, en los organismos vivos y por decir lo menos tóxicas.

Victoria Gómez-Aburto

Una de las principales vías por las cuales los COPs alcanzan la Antártica es el transporte atmosférico de larga distancia. Estos compuestos, emitidos en regiones industriales o agrícolas a miles de kilómetros, pueden volatilizarse, adherirse a partículas en el aire y ser transportados por corrientes atmosféricas hasta depositarse en zonas polares.

Pero el aire no es el único medio afectado. Una vez depositados, los COPs pueden incorporarse a otros compartimentos ambientales como el agua, los suelos y los sedimentos marinos. En el océano Austral, estos contaminantes pueden asociarse a partículas en suspensión, hundirse y acumularse en los sedimentos, donde pueden persistir durante largos periodos. Asimismo, pueden ingresar a las cadenas tróficas, afectando desde microorganismos hasta organismos superiores, incluidos peces, aves y mamíferos marinos
como las ballenas.

El estudio de los COPs en la Antártica no solo permite comprender mejor los procesos de transporte y destino ambiental de estos compuestos, sino que también actúa como un indicador global del impacto de las actividades humanas. Lo que ocurre en este continente refleja, en gran medida, lo que estamos emitiendo al resto del planeta.

Sin embargo, no todas las noticias son negativas. Diversos estudios han mostrado que las concentraciones de muchos COPs han disminuido en las últimas décadas. Esta tendencia es una señal alentadora que evidencia el impacto positivo de acuerdos internacionales como el Convenio de Estocolmo y el Convenio de Basilea, los cuales han regulado y restringido la producción, uso y eliminación de estas sustancias peligrosas.

La disminución de estos contaminantes en un entorno tan sensible como la Antártica es, sin duda, una buena noticia. Demuestra que la acción coordinada a nivel global puede generar cambios reales y medibles en el medio ambiente. Aun así, el desafío continúa: es necesario mantener y fortalecer estos esfuerzos para asegurar que las futuras generaciones hereden un planeta más limpio y equilibrado.

La entrada Lo que el viento se llevó… y terminó en la Antártica se publicó primero en Revista Ecociencias.



☞ El artículo completo original de Revista Ecociencias lo puedes ver aquí

Reddit quiere verificar que eres humano: Face ID, Touch ID y el dilema de una plataforma que prometió anonimato

Ilustración colorida de una persona usando gafas inteligentes que emiten un rayo de escaneo facial hacia otra persona, representando el uso del reconocimiento facial en tecnología wearable.

Steve Huffman, CEO de Reddit, ha confirmado que la plataforma está explorando métodos de verificación de identidad para combatir el creciente problema de bots de IA que se hacen pasar por usuarios reales. En una entrevista con el podcast TBPN, Huffman detalló varias opciones que Reddit evalúa, desde las más ligeras —Face ID, Touch ID y passkeys— hasta las más intrusivas —servicios de verificación de terceros que requieren documentos de identidad oficiales—. La frase que resume la tensión: «Parte de nuestra promesa para los usuarios es que no sabemos tu nombre, pero sí queremos saber que eres una persona.»

Alexis Ohanian, cofundador de Reddit, reaccionó con escepticismo público: «Que RDDT requiera Face ID no estaba en mi tarjeta de bingo. No sé cómo vender escaneo facial a los redditors o incluso a los lurkers.»

¿Por qué ahora?

El detonante más visible fue un experimento académico que desplegó más de 1.700 comentarios generados por IA en el subreddit «Change My View», adoptando personas ficticias como supervivientes de abuso o identidades políticamente controvertidas. El experimento, diseñado para medir la capacidad persuasiva de la IA, fue condenado por Reddit como «impropio y altamente poco ético», y la empresa presentó una queja formal contra la universidad responsable.

Pero el problema de fondo es más amplio. Los bots de IA generativa son cada vez más sofisticados y difíciles de distinguir de humanos reales. Para Reddit, cuya marca se construye sobre la autenticidad —»Reddit es para humanos», repite Huffman—, la infiltración masiva de bots amenaza algo más que la experiencia de usuario. Amenaza el modelo de negocio: Reddit vende su contenido a OpenAI para entrenamiento de modelos. Si ese contenido está contaminado por bots, su valor se degrada.

Las opciones sobre la mesa

Huffman presentó un espectro de opciones. En el extremo más ligero: biometría de dispositivo como Face ID o Touch ID. Estas tecnologías confirman que hay un humano presente sin revelar su identidad —el dispositivo verifica localmente que alguien tocó o miró, sin enviar datos biométricos a Reddit—. También mencionó passkeys, el estándar de autenticación sin contraseña respaldado por Apple, Google y Microsoft.

En el medio: servicios de terceros descentralizados que verifican humanidad sin requerir documento de identidad. Aquí entrarían propuestas como World ID de Sam Altman, que usa escaneo de iris para crear identidad digital. Reddit ha explorado esta opción, aunque genera sus propias controversias de privacidad.

En el extremo más intrusivo: plataformas de verificación como Persona, Stripe Identity o Alloy, que típicamente requieren un documento oficial. Huffman las describe como un último recurso, reservado para requisitos regulatorios de verificación de edad que están avanzando en varios estados de EE.UU.

Un portavoz de Reddit no quiso detallar bajo qué circunstancias se requeriría verificación, ni qué servicios de terceros se usarían, ni qué información personal se solicitaría. Sí confirmó que Reddit ya toma medidas para prohibir bots «malos».

El dilema existencial: anonimato vs. autenticidad

Reddit fue fundada sobre una promesa implícita: puedes ser quien quieras, sin que nadie sepa quién eres realmente. Esa anonimidad ha permitido que personas compartan experiencias sensibles —adicciones, enfermedades, orientación sexual, problemas legales— en espacios donde no lo harían si su identidad fuera pública.

Cualquier sistema de verificación, por ligero que sea, erosiona esa promesa. No es difícil imaginar escenarios donde la información de verificación se convierta en un riesgo. TechCrunch recordó el caso de Nebraska en 2022, donde Meta entregó conversaciones privadas entre una madre y su hija adolescente sobre planes para interrumpir un embarazo, lo que resultó en cargos criminales para ambas. Si Reddit conoce la identidad real de sus usuarios, ¿qué ocurre cuando un fiscal solicita datos de alguien que preguntó sobre aborto en un estado donde es ilegal?

Huffman intenta cuadrar el círculo: «Nunca queremos saber tu nombre o quién eres.» Pero la presión viene de dos frentes simultáneos: bots de IA cada vez más convincentes y reguladores que exigen verificación de edad. Encontrar un sistema que confirme «es humano y es adulto» sin saber «quién es» es el santo grial de la identidad digital. Nadie lo ha resuelto aún.

Mi valoración: Reddit está atrapada entre dos fuerzas irreconciliables. Si no verifica, los bots degradan la plataforma y el contenido que vende a OpenAI pierde valor. Si verifica, arriesga la anonimidad que hace única a Reddit y que protege a sus usuarios más vulnerables. Face ID y passkeys parecen el compromiso menos dañino: confirman presencia humana sin revelar identidad. Pero la línea entre «verificar humanidad» y «verificar identidad» es fina, y la presión regulatoria empuja hacia el lado equivocado.

Preguntas frecuentes

¿Reddit va a exigir identificación para usar la plataforma? No está decidido. Huffman presentó un espectro de opciones, desde biometría de dispositivo (Face ID/Touch ID) hasta verificación con documento. La implementación y los requisitos específicos no se han definido.

¿Qué provocó esta decisión? Un experimento académico que infiltró más de 1.700 comentarios de bots de IA en el subreddit «Change My View», junto a la creciente presión regulatoria sobre verificación de edad en redes sociales.

¿Perderé el anonimato en Reddit? Huffman asegura que Reddit nunca querrá saber nombres ni identidades reales, pero los detalles de implementación son cruciales y aún no se han revelado.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Google está reescribiendo titulares de noticias con IA en los resultados de búsqueda (y los medios están furiosos)

ChatGPT Plus se apoya en Google Search,

Google ha confirmado que está probando titulares generados por inteligencia artificial en sus resultados de búsqueda tradicionales —los clásicos «diez enlaces azules»—, sustituyendo los titulares originales escritos por periodistas por versiones creadas por IA. El experimento, destapado por The Verge, ha provocado una reacción furibunda de medios y profesionales del SEO, que ven en la práctica una violación del contrato implícito que sustentaba la relación entre Google y los editores desde hace más de 25 años: el contenido que aparece en los resultados de búsqueda refleja lo que el editor publicó.

Sean Hollister, editor senior de The Verge, descubrió que Google había reducido su titular «I used the ‘cheat on everything’ AI tool and it didn’t help me cheat on anything» a solo cinco palabras: «‘Cheat on everything’ AI tool». El resultado: parecía que The Verge estaba recomendando un producto que en realidad desaconsejaba. Otro titular fue reescrito como «Copilot Changes: Marketing Teams at it Again», una frase que nunca apareció en el artículo original.

Hollister lo comparó con «una librería que arranca las portadas de los libros que exhibe y les cambia los títulos».

¿Qué está haciendo Google exactamente?

Google reconoce que se trata de un experimento «pequeño y limitado» que no ha sido aprobado para un lanzamiento amplio. Según tres portavoces de la compañía citados por The Verge, la IA identifica el contenido de una página y genera un título que considera «útil y relevante para la consulta del usuario», con el objetivo de mejorar el emparejamiento entre búsqueda y resultado y aumentar el engagement.

El experimento no se limita a medios de noticias; afecta a sitios web en general. Google no ha revelado cuántos usuarios están viendo estos titulares reescritos, pero confirmó que ejecuta «decenas de miles» de experimentos de tráfico en vivo simultáneamente.

Esto no es nuevo del todo. En enero, The Verge ya reportó que Google estaba reemplazando titulares en Google Discover, su feed de contenidos para móviles. Un mes después, Google confirmó que esa función había superado la fase de pruebas. Que ahora extienda la práctica a los resultados de búsqueda tradicionales —donde vive la mayor parte del tráfico de los editores— es una escalada significativa.

Los ejemplos que preocupan a los medios

Los casos documentados por The Verge ilustran por qué los editores están alarmados. En Google Discover, los titulares generados por IA ya habían producido resultados problemáticos: «BG3 players exploit children» (para un artículo sobre un truco de Baldur’s Gate 3 que no tenía nada que ver con explotación infantil) o «Steam Machine price revealed» (cuando no se había anunciado ningún precio).

La IA parece obsesionada con condensar titulares complejos en cuatro palabras o menos, perdiendo matiz, tono y contexto editorial. Cuando un titular irónico se reduce a una frase literal, el significado se invierte. Cuando un titular que desaconseja un producto se acorta hasta parecer una recomendación, la credibilidad del medio se ve comprometida sin que el medio haya hecho nada.

Para los profesionales del SEO, el impacto es doble. Primero, las estrategias de titulación SEO pierden relevancia si Google va a reescribir los títulos de todas formas. Segundo, los datos de rendimiento se vuelven infiables: si tu CTR baja, ¿es porque tu titular era malo o porque Google lo cambió sin avisarte?

¿Por qué es tan grave?

Un resultado de búsqueda es una promesa antes de la visita. Cuando Google muestra un titular que la redacción del medio no aprobó, esa promesa puede debilitarse. La brecha entre lo que dice el titular generado y lo que dice el artículo real erosiona la confianza del lector en el medio, incluso antes de que nadie haga clic.

Louisa Frahm, directora de SEO de ESPN, lo expresó así en LinkedIn: «Después de más de 10 años en SEO de noticias, he llegado a la conclusión de que el titular es el elemento más prominente para atraer lectores en ventanas de tiempo cortas. Si esa visión se altera y los hechos se tergiversan, la confianza del público a largo plazo se verá comprometida.»

El experimento llega en un momento donde los editores ya sufren caídas de tráfico orgánico del 30-60% por AI Overviews, la función de Google que responde directamente a las consultas sin necesidad de hacer clic. Ahora, además de perder tráfico, pierden el control sobre cómo se presenta su propio contenido al lector potencial.

Google dijo que si eventualmente lanzara algo basado en este experimento, no sería un modelo generativo de IA el que crease los titulares. Pero no explicó cómo funcionaría la alternativa. The Verge señaló que un «experimento» similar en Discover acabó convirtiéndose en funcionalidad permanente, lo que invita a tomarse la promesa con escepticismo.

Mi valoración: esto es, como lo describe The Verge, «el canario en la mina de carbón». Si Google puede reescribir titulares sin consentimiento y sin siquiera indicar al usuario que el título ha sido modificado, el siguiente paso es reescribir descripciones, resúmenes y, eventualmente, el contenido mismo. Los medios llevan años dependiendo de Google para su tráfico, y esa dependencia les deja sin poder de negociación real. Pero hay un punto donde la tolerancia tiene un límite, y para muchos editores, reescribir sus titulares —su voz, su marca, su decisión editorial— es ese punto. Este experimento merece mucha más atención de la que está recibiendo.

Preguntas frecuentes

¿Google está cambiando los titulares de las noticias en sus resultados? Sí, como experimento «pequeño y limitado». La IA genera titulares alternativos que sustituyen a los originales escritos por los editores, sin indicar al usuario que el título ha sido modificado.

¿Afecta solo a medios de noticias? No. Google dice que el experimento abarca sitios web en general, no solo publicaciones de noticias.

¿Cuándo empezó esto? Google ya reescribía titulares en Discover desde principios de 2026. La extensión a los resultados de búsqueda tradicionales es la novedad que ha destapado The Verge.

¿Qué pueden hacer los editores? Por ahora, poco. Google no ofrece un mecanismo para que los editores opten por no participar en el experimento. La comunidad de medios y SEO está presionando para que Google detenga la práctica o, al menos, añada transparencia sobre cuándo un titular ha sido modificado.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Hachette retira la novela de terror ‘Shy Girl’ por sospechas de uso de IA: el primer caso que sacude la industria editorial

Meta ganando juicio sobre uso de libros en IA

Hachette Book Group, una de las cinco grandes editoriales del mundo, ha anunciado que no publicará la novela de terror Shy Girl en Estados Unidos y que retirará la edición ya disponible en Reino Unido, tras determinar en una revisión interna que existe preocupación sobre el uso de inteligencia artificial en la generación del texto. Es la primera vez que una editorial de esta escala retira un libro ya publicado por sospechas de contenido generado por IA, y el caso establece un precedente que la industria literaria tendrá que digerir.

La novela estaba programada para su lanzamiento estadounidense esta primavera. Antes de la decisión de Hachette, reseñadores en GoodReads y YouTube ya habían señalado patrones en el texto —repeticiones estilísticas, inconsistencias narrativas, lenguaje genérico— que consideraban indicativos de generación por IA. The New York Times contactó a Hachette sobre las sospechas el día antes del anuncio oficial.

La defensa de la autora y las preguntas sin respuesta

Mia Ballard, la autora, negó haber usado IA para escribir la novela. En un correo electrónico al NYT, culpó a un conocido al que había contratado para editar la versión original autopublicada de Shy Girl. Según Ballard, esa persona habría introducido texto generado por IA durante el proceso de edición sin su conocimiento. Afirma estar emprendiendo acciones legales y describió las consecuencias personales: «Mi salud mental está en su peor momento y mi nombre está arruinado por algo que yo personalmente no hice.»

La historia plantea preguntas incómodas para la industria editorial. La más obvia: ¿cómo pasó un texto supuestamente generado por IA los filtros de una editorial de la talla de Hachette? El escritor Lincoln Michel y otros observadores del sector señalaron un detalle revelador: las editoriales estadounidenses raramente hacen edición extensiva cuando adquieren títulos que ya han sido publicados en otros formatos. Shy Girl existía previamente como obra autopublicada. Hachette la adquirió para publicación tradicional, pero el proceso de adquisición, por lo general, no incluye una revisión forense del texto en busca de generación automática.

¿Por qué importa este caso?

Porque establece el primer precedente real de una editorial importante retirando un libro por sospechas de IA. Hasta ahora, el debate sobre IA en literatura se había centrado en dos frentes: los autores que usan IA como herramienta de asistencia (corrección, brainstorming, estructura) y las plataformas de autopublicación como Amazon Kindle Direct Publishing, inundadas de libros generados íntegramente por IA que se venden por céntimos. El caso de Shy Girl es diferente: es un libro que llegó al sistema de publicación tradicional, pasó por un proceso de adquisición editorial y fue publicado en un mercado importante (Reino Unido) antes de que las sospechas lo derribaran.

La detección vino de la comunidad, no de la editorial. Fueron reseñadores en GoodReads y YouTubers literarios quienes identificaron los patrones sospechosos. Esto sugiere que las editoriales no tienen herramientas ni protocolos establecidos para detectar contenido generado por IA en manuscritos, una laguna que, dado el caso de Shy Girl, se volverá urgente de llenar.

La industria editorial ya estaba en tensión con la IA. Autores como Naomi Klein y organizaciones como The Authors Guild han demandado a empresas de IA por entrenar modelos con obras protegidas por copyright. Las grandes editoriales han incluido cláusulas anti-IA en sus contratos con autores. Pero detectar IA en un manuscrito terminado es un problema técnico diferente a proteger copyright, y mucho más difícil de resolver.

Las herramientas de detección de IA existentes —GPTZero, Originality.ai, Turnitin— tienen tasas significativas de falsos positivos y falsos negativos. Un texto generado por IA y luego editado por un humano puede pasar desapercibido. Un texto escrito por un humano con un estilo poco convencional puede ser marcado incorrectamente. La única «herramienta» fiable sigue siendo el ojo entrenado de lectores que conocen los patrones del texto generado: frases comodín, estructuras repetitivas, falta de voz autoral distintiva.

Mi valoración: el caso de Shy Girl es un canario en la mina de carbón para la industria editorial. Si un texto generado (o parcialmente generado) por IA puede llegar hasta la publicación en una de las cinco grandes editoriales del mundo, el problema es sistémico, no anecdótico. La historia de Ballard —una autora que culpa a un editor freelance por introducir IA sin su conocimiento— puede ser cierta o no, pero ilustra un riesgo que toda la cadena editorial necesita abordar: ¿quién es responsable cuando la IA se cuela en un manuscrito? ¿La autora? ¿El editor? ¿La editorial que no lo detectó? No hay respuestas fáciles, pero el precedente ya está sentado. Y la próxima vez que una editorial adquiera un libro autopublicado exitoso, mirará el texto con ojos muy diferentes.

Preguntas frecuentes

¿Qué es Shy Girl? Una novela de terror escrita por Mia Ballard, originalmente autopublicada, que fue adquirida por Hachette Book Group para publicación tradicional y luego retirada por sospechas de uso de IA en el texto.

¿La autora admitió usar IA? No. Ballard niega haber usado IA y culpa a un conocido que contrató para editar la versión autopublicada de haber introducido texto generado sin su conocimiento.

¿Es la primera vez que una editorial grande retira un libro por IA? Sí. Es el primer caso conocido de una editorial del calibre de Hachette retirando un título ya publicado por sospechas de contenido generado por inteligencia artificial.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

22 de marzo de 2026

A qué hora es mejor desayunar lleva años provocando debates: la ciencia de la "crononutrición" los está resolviendo

A qué hora es mejor desayunar lleva años provocando debates: la ciencia de la "crononutrición" los está resolviendo

Si hay una comida que ha polarizado a nutricionistas, médicos y entusiastas de las dietas, sin duda es el desayuno. Precisamente durante años nos han repetido el mantra de que es "la comida más importante del día", concebido sobre todo por las empresas que comercializan cereales. Pero luego esto pasó al lado opuesto, impulsado por la popularidad del ayuno intermitente que apuntaba que saltárselo no solo era malo, sino que podía ser beneficioso. Entonces el lío está servido. 

Muchas dudas. Aquí lo lógico es hacerse muchas preguntas: ¿Es bueno o malo? ¿Qué pasa en nuestro cuerpo si desayunamos a las 7:00 frente a hacerlo a las 11:00? La respuesta a este gran debate no está solo en qué comemos, sino en cuándo lo hacemos, y es donde entra en juego una de las áreas de investigación más fascinantes de los últimos años, como es la crononutrición.

Un reloj interno. Nuestro organismo no procesa los alimentos de la misma manera a las 8 de la mañana que a las 3 de la tarde, al igual que tampoco lo hace por la noche, donde se ralentiza la digestión. Todo está mediado al detalle por nuestro reloj circadiano, controlado en parte por la famosa melatonina, y también por hormonas como el cortisol, que es conocida popularmente como la hormona del estrés. 

Aquí se ha visto cómo el cuerpo humano experimenta un pico natural de cortisol entre las 8:00 y las 9:00 de la mañana para ayudarnos a despertar y activarnos. El problema surge cuando retrasamos el desayuno más allá de las 9:00, puesto que al no recibir alimento, el organismo interpreta esta falta de energía con la ingesta de alimentos como una situación de estrés y prolonga artificialmente el pico de cortisol

Las consecuencias. Aquí se activa un proceso llamado gluconeogénesis, donde el cuerpo empieza a fabricar su propia glucosa y empeora la sensibilidad a la insulina. Por el contrario, un ensayo clásico demostró que desayunar reduce los niveles de cortisol tras un episodio de estrés en comparación con mantenerse en ayunas, mejorando la respuesta endocrina.  

La hora del desayuno. Más allá de la teoría hormonal, los grandes estudios poblacionales están arrojando cifras contundentes. Si el ayuno intermitente matutino tenía defensores, la epidemiología a gran escala está empezando a inclinar la balanza hacia los madrugadores. 

Esto es lo que apuntó un gran estudio liderado por el Instituto de Salud Global de Barcelona que analizó los datos de más de 103.000 personas. En estos casos sacaron como conclusión que desayunar después de las 9 de la mañana aumenta en un 59% el riesgo de desarrollar diabetes tipo 2 en comparación con aquellos que desayunan antes de las 8:00. Y todo por la acción de la insulina. 

Y concuerda. Con los metaanálisis previos que integran las rutinas de miles de pacientes, como por ejemplo el publicado en el  British Journal of Nutrition que confirman que saltarse sistemáticamente el desayuno eleva el riesgo de padecer diabetes entre un 21% y un 48%. Es por ello que desincronizar nuestras comidas altera profundamente las hormonas y los lípidos normales en nuestro organismo y es por eso que desayunar de manera irregular o incluso no hacerlo favorece el almacenamiento de grasa abdominal.

No vale cualquier cosa. Saber que debemos desayunar temprano es solo la mitad de esta ecuación, puesto que enviar esa señal de "seguridad" metabólica al organismo requiere un combustible de calidad. De esta manera, un desayuno óptimo debe suponer entre el 20 y el 30% de nuestra ingesta calórica diaria, y la ciencia tiene una idea de lo que sienta mejor. 

Lo que apuntan que se debe priorizar son las proteínas de alta calidad, los huevos, el yogur griego, el queso, pescado o las legumbres. Y es muy importante, puesto que la proteína matutina estabiliza la glucemia, reduce los antojos durante el resto del día y modula el cortisol. Aunque no hay que tomarlo de manera aislada, sino que habría que combinarlo con grasas saludables y fibra. 

A evitar. En el otro lado de la balanza podemos encontrar azúcares simples y ultraprocesados que conforman la clásica bollería industrial, galletas o cereales azucarados. Estos alimentos provocan un pico de glucosa inmediato seguido de una caída brusca, lo que dispara de nuevo el cortisol y nos deja sin energía y con hambre a media mañana, lo que condiciona a la toma de más alimento y a caer en los antojos. 

No es malo el ayuno. El gran debate que hay ahora mismo encima de la mesa es el que busca mantener un equilibrio entre las corrientes del ayuno y las de las cinco comidas al día. Es por ello que la crononutrición no descarta los beneficios de dejar de descansar al sistema digestivo, pero propone desplazar ese ayuno. De esta manera, lo que se propone aquí es que lo recomendable es mantener un ayuno nocturno de 12 horas, cenando temprano y desayunando también a primera hora de la mañana. 

Imágenes | Rachel Park 

En Xataka | Hemos pasado de "el desayuno es la comida más importante del día" a "pillo algo rápido y voy tirando". Y eso tiene problemas

-
La noticia A qué hora es mejor desayunar lleva años provocando debates: la ciencia de la "crononutrición" los está resolviendo fue publicada originalmente en Xataka por José A. Lizana .



☞ El artículo completo original de José A. Lizana lo puedes ver aquí