21 de enero de 2026

La productividad se había convertido en una obsesión. Hasta que el ocio ha empezado a dar mejores resultados en el trabajo

La productividad se había convertido en una obsesión. Hasta que el ocio ha empezado a dar mejores resultados en el trabajo

La presión constante por rendir al máximo ha marcado la vida laboral durante mucho tiempo, dejando el descanso casi en el olvido. Un estudio reciente muestra cómo reservar tiempo de ocio bien planificado cambia la percepción de las rutinas diarias y contribuye a mejorar el rendimiento en el trabajo.

Expertos han comprobado que organizar el tiempo libre de forma activa a través de manualidades u otras formas de abstracción aporta mejoras a la creatividad y la motivación en sus tareas del trabajo. Este hallazgo cuestiona la creencia de que solo trabajando sin parar se consiguen buenos resultados laborales.

Dejar que el cerebro cree cosas. Un grupo de investigadores de la Universidad de East Anglia en Reino Unido y la Universidad Erasmus de Róterdam en Países Bajos investigó sobre los efectos de un entretenimiento creativo basado en manualidades durante el tiempo de ocio de los empleados.

El resultado del experimento no fue la mejora en el ánimo y la motivación de los empleados que participaron en el estudio, sino que contribuyó a que estos empleados ofrecieran una respuesta más creativa en la resolución de los problemas que se les planteaba en el trabajo.

Mejoras en el día a día laboral. Los trabajadores que participaron en el estudio sentían que, al ejercitar nuevas habilidades manuales apreciaban mejor los procesos de su manualidad, haciendo que estos cobraran valor. Lo curioso es que el cambio fue más grande en el ámbito laboral que en su vida personal, y eso que era su tiempo de ocio. "Nos sorprendió ver que las manualidades tuvieron un mayor impacto en el trabajo que en la vida personal. Esperábamos beneficios similares en ambas áreas", explica el profesor George Michaelides, de la Escuela de Negocios de Norwich de la UEA.

Curiosamente, el grupo que más notó esa mejoría fue el formado por los empleados más veteranos, los mayores de 61 años. La explicación para este fenómeno lo encontramos en la aptitud cognitiva, una condición del cerebro que se activa durante los procesos de aprendizaje.

Gimnasia para el cerebro. Tal y como recogen los estudios de los profesores Gilkey y Kilts, de las facultades de medicina y negocios de la Universidad Emory, realizar distintas actividades creativas que requieran una combinación motora y cognitiva, como tocar la guitarra, hacer malabarismos o aprender un nuevo idioma, contribuye a expandir el sistema neuronal y lo vuelve más comunicativo.

Es decir, el desarrollo de las nuevas habilidades a través de las manualidades, estaba mejorando la "forma física" del sistema cognitivo de los empleados, y los resultados eran más visibles en aquellos más propensos al declive cognitivo y al deterioro de la memoria por la edad. Mantener "en forma" la aptitud cognitiva mejora el rendimiento en la toma de decisiones y en la resolución de problemas, así como en la generación de nuevas ideas.

La capacidad de abstracción. Una de las claves del uso de las manualidades o actividades de ocio placenteras es que actúan como un reductor natural para el estrés y los síntomas depresivos. "Ya se sabe que los pasatiempos son buenos para el bienestar. Pero nuestro estudio demuestra que los pasatiempos no solo te hacen más feliz, sino que también pueden ayudarte a sentirte más realizado y creativo en el trabajo. Esto va más allá de simplemente relajarse o divertirse (como ver Netflix sin parar) y convierte el pasatiempo en algo que ayuda a las personas a crecer", dice el doctor Paraskevas Petrou, el autor principal del estudio.

Más allá de la mejora cognitiva derivada del desarrollo del sistema neuronal, un estudio de la Universidad de Cardiff descubrió que el uso de manualidades o actividades repetitivas, como tejer, induce al cerebro a un estado de atención plena que incrementa hasta en un 25% la actividad de pensamiento abstracto que contribuye a la generación de nuevas ideas y mejora la resolución de problemas.

En Xataka | Sentirte superado en el trabajo es normal, pero no es lo ideal: seis técnicas para evitarlo y ser mucho más productivo

Imagen | Unsplash (Elena Mozhvilo)

-
La noticia La productividad se había convertido en una obsesión. Hasta que el ocio ha empezado a dar mejores resultados en el trabajo fue publicada originalmente en Xataka por Rubén Andrés .



☞ El artículo completo original de Rubén Andrés lo puedes ver aquí

Un “láser” que no emite luz, sino vibraciones

phonon_laser

Cuando oyes la palabra láser, es normal imaginar un haz rojo cruzando el aire. El dispositivo que han presentado investigadores vinculados a la Universidad de Colorado Boulder, la Universidad de Arizona y Sandia National Laboratories se parece en su lógica, pero cambia el protagonista: no genera fotones (luz), sino fonones, que son la forma en que la física describe las vibraciones dentro de un material. En vez de una linterna, piensa en un “megáfono microscópico” que ordena a un chip que vibre de una manera extremadamente precisa.

El trabajo, publicado en Nature a mediados de enero de 2026 y difundido por ScienceDaily a partir de materiales de la Universidad de Colorado Boulder, describe un láser de fonones capaz de producir ondas acústicas de superficie a escala de microchip. La promesa es clara: si hoy muchos sistemas inalámbricos dependen de componentes voluminosos o de configuraciones con varios chips, un generador integrado y eficiente podría ayudar a construir radios más compactas y con menor consumo.

Las ondas acústicas de superficie que ya usas sin saberlo

Las ondas acústicas de superficie (conocidas como SAW, por sus siglas en inglés) se mueven por la “piel” de un material, no por su interior. Si un terremoto grande hace ondular la corteza terrestre, una SAW hace algo parecido, pero en miniatura: recorre la superficie de un cristal o una capa piezoeléctrica con un patrón controlado.

Lo interesante es que esto no es ciencia ficción aplicada a un futuro lejano: las SAW ya están dentro de muchos smartphones, mandos de coche, receptores GPS y sistemas de radio. En el móvil, su papel más habitual es el de filtros de radiofrecuencia. Dicho de forma cotidiana: cuando tu teléfono “escucha” la red, llega una mezcla de señales, como si encendieras una radio en una ciudad con mil emisoras solapadas. Los filtros SAW ayudan a separar lo que interesa (tu canal) de lo que estorba (ruido e interferencias) convirtiendo parte de ese trabajo en vibración mecánica y devolviéndolo luego al dominio eléctrico.

Matt Eichenfield, autor sénior del estudio, lo expresaba en el comunicado como una tecnología crítica en gran parte de la electrónica inalámbrica moderna. Y ese punto es clave para entender por qué un avance en cómo se generan SAW puede tener impacto: no se trata de inventar un ingrediente nuevo para el móvil, sino de mejorar uno que ya está en el corazón de su conectividad.

Cómo se fabrica un “microterremoto” en un chip

El prototipo descrito es un dispositivo alargado, de aproximadamente medio milímetro, construido como un sándwich de materiales con funciones muy específicas. La base es silicio, el suelo fértil donde crece casi toda la electrónica. Encima se coloca una capa muy fina de niobato de litio, un material piezoeléctrico: cuando vibra, produce campos eléctricos oscilantes; si le aplicas un campo eléctrico, puede vibrar. Es una puerta giratoria entre electricidad y movimiento.

La capa superior es aún más particular: una lámina extremadamente delgada de arseniuro de indio y galio (InGaAs). Este material permite que los electrones se aceleren con facilidad incluso con campos eléctricos relativamente débiles, algo útil si quieres interacción intensa sin pagar una factura energética alta.

La idea del equipo es que las vibraciones que viajan por la superficie del niobato de litio “hablen” directamente con esos electrones rápidos del InGaAs. Esa conversación, bien orquestada, es la que permite que aparezca el comportamiento de láser, solo que en vez de amplificar luz se amplifica una onda mecánica.

El truco del láser: reflectores, ganancia y una salida controlada

Un láser de diodo convencional funciona como una sala de espejos: la luz rebota entre dos reflectores y, en cada ida y vuelta, se refuerza gracias a un medio activo alimentado por corriente. Aquí ocurre un paralelismo: la onda acústica avanza por la superficie, golpea un reflector, vuelve, y ese trayecto repetido permite amplificarla hasta que parte de la energía “sale” por un extremo, como el haz de un láser.

Hay un matiz técnico que el propio equipo subraya y que ayuda a poner los pies en el suelo: la onda no se comporta igual en ambas direcciones. Según explicaba Alexander Wendt, primer autor, el diseño pierde una fracción enorme de potencia cuando la onda viaja hacia atrás, cerca del 99%. Para compensarlo, el dispositivo se concibe para ofrecer mucha ganancia en el sentido “bueno”, el avance, como si empujaras un columpio justo en el momento exacto en que va hacia ti, y evitaras empujarlo cuando vuelve desacompasado.

Esta asimetría no es un detalle menor: muestra que el resultado no sale “gratis”. Hay ingeniería fina para lograr que el balance total sea positivo y que la oscilación crezca de forma sostenida, que es lo que convierte un fenómeno interesante en una fuente utilizable.

Por qué importa el salto de frecuencia

El experimento reporta ondas en torno a 1 GHz (mil millones de oscilaciones por segundo). Puede sonar a cifra típica en tecnología, pero para SAW tiene relevancia porque muchos componentes comerciales se mueven en rangos que, según el texto de divulgación, suelen llegar a unos pocos gigahercios. La ambición del equipo es empujar el concepto hacia decenas o incluso cientos de gigahercios.

Traducido a sensaciones: si hoy imaginas un filtro como un colador de cocina que separa agua y pasta, subir la frecuencia y mantener control y eficiencia sería como pasar de un colador a un tamiz ultrafino capaz de separar partículas mucho más pequeñas sin atascarse. En radio, eso se relaciona con manejar bandas más altas, canales más estrechos, selectividad mejor y, potencialmente, arquitecturas más integradas para 5G avanzadas y lo que llegue con 6G. No es una promesa automática de “más barras de cobertura”, pero sí una pieza que podría ayudar a diseñar radios más flexibles y compactas.

Menos piezas, menos conversiones, menos consumo

En un teléfono actual, el camino de una señal puede implicar varias etapas y, en algunos diseños, múltiples componentes dedicados que convierten, filtran y reconvierten. El argumento del equipo es que un láser de fonones integrado en un solo chip podría simplificar parte de ese ecosistema: si puedes generar SAW en el propio chip con un esquema alimentado por batería (al estilo de un láser de diodo), reduces dependencia de montajes externos o de configuraciones más aparatosas.

Eichenfield hablaba de la posibilidad de fabricar los componentes necesarios para una radio “en un chip” usando la misma clase de tecnología de ondas de superficie. Ese objetivo encaja con una tendencia general de la industria: integrar para ahorrar espacio, coste y energía, del mismo modo que antes teníamos cámaras separadas y hoy un mismo módulo agrupa sensor, estabilización y óptica en un volumen mínimo.

Aun así, conviene leerlo como dirección de viaje, no como especificación de producto. Entre un prototipo de laboratorio y un módulo listo para millones de unidades hay caminos de fiabilidad, fabricación, compatibilidad con procesos industriales y resistencia a variaciones de temperatura o envejecimiento.

Retos realistas antes de verlo en tu próximo móvil

Que algo funcione en un artículo de Nature no significa que mañana esté en un catálogo. Este tipo de dispositivos necesita demostrar estabilidad, repetibilidad y tolerancia al ruido del mundo real. Si la onda se amplifica como en un láser, también hay que controlar cuándo arranca, cómo se modula, qué tan limpia es la señal y cómo se integra con el resto de la electrónica de radiofrecuencia sin crear interferencias internas.

Otro punto es el propio apilado de materiales: silicio, niobato de litio y InGaAs en una misma estructura suena muy bien en términos de función, pero la manufactura a gran escala siempre pregunta lo mismo: ¿se puede hacer de forma consistente, con buen rendimiento y coste aceptable? La industria ha aprendido a domar combinaciones complicadas, pero cada capa “exótica” añade preguntas sobre disponibilidad, defectos y compatibilidad con líneas de producción.

Lo que sí parece firme es el valor conceptual: han mostrado un mecanismo para generar ondas acústicas de superficie mediante inyección eléctrica con comportamiento análogo a un láser. Si esa pieza era, como sugería Eichenfield, el dominó que faltaba para una arquitectura más integrada, su caída abre opciones para que otros grupos e ingenierías intenten empujar el rendimiento, la frecuencia y la integrabilidad.


La noticia Un “láser” que no emite luz, sino vibraciones fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.


☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Y2K38: El próximo reto para la continuidad de sistemas críticos e IoT

El conocido “problema del año 2038” (Y2K38) se consolida como una amenaza silenciosa pero real para miles de sistemas tecnológicos en todo el mundo. Aunque la fecha parece lejana, expertos advierten que infraestructuras críticas como los sistemas de pago, equipos médicos, automatización industrial y dispositivos IoT podrían verse gravemente afectados si no se toman medidas a tiempo.

Ilustración de relojes y circuitos con advertencia sobre el bug del año 2038 (Y2K38) en sistemas críticos.

Este fenómeno, también llamado “Epochalypse”, es comparable al histórico error Y2K del año 2000. Su origen está en el uso de enteros de 32 bits para almacenar el tiempo, una práctica aún común en sistemas heredados. Cuando el contador de tiempo Unix alcance su valor máximo el 19 de enero de 2038, se producirá un reinicio de fecha, generando fallos impredecibles en múltiples plataformas.

El problema no es meramente teórico. Muchos sistemas embebidos y entornos industriales siguen operando con arquitecturas antiguas por razones de compatibilidad, coste o falta de actualización. Al superar el límite de los 2.147.483.647 segundos desde 1970, estos sistemas podrían “volver al pasado”, mostrando fechas incorrectas y provocando errores en procesos automatizados, certificaciones de seguridad y control de operaciones.

Principales riesgos asociados al Y2K38

Entre los impactos más relevantes que podría generar este fallo se encuentran:

  1. Interrupciones en sistemas de pago, con transacciones rechazadas o mal registradas.

  2. Fallos en equipos médicos, afectando diagnósticos, registros de pacientes o funcionamiento de dispositivos críticos.

  3. Errores en la automatización industrial, con paradas inesperadas en fábricas y plantas de producción.

  4. Problemas en infraestructuras IoT, como sensores, cámaras y sistemas de control remoto.

  5. Desajustes en certificados de seguridad, que pueden invalidar autenticaciones y comunicaciones cifradas.

  6. Daños reputacionales y pérdidas económicas para organizaciones que no estén preparadas.

Las empresas con activos legacy y sin un inventario tecnológico actualizado son las más expuestas. En muchos casos, estos sistemas operan en segundo plano, lo que dificulta detectar su vulnerabilidad hasta que ocurre un fallo.

¿Cómo prepararse ante el Y2K38?

Los especialistas en ciberseguridad y gestión de infraestructuras recomiendan una estrategia preventiva basada en varios pilares:

  • Identificar todos los sistemas dependientes de 32 bits, incluyendo hardware, software y dispositivos embebidos.

  • Formar al personal técnico para que comprenda el impacto del problema y sepa cómo actuar.

  • Migrar a arquitecturas de 64 bits siempre que sea posible.

  • Aplicar parches y soluciones temporales en equipos que no puedan actualizarse.

  • Implementar monitorización continua con herramientas de detección y respuesta (EDR).

  • Realizar pruebas de fecha simuladas para evaluar el comportamiento de los sistemas.

Más allá de la tecnología, el Y2K38 representa un desafío estratégico. Requiere planificación a largo plazo, coordinación entre departamentos y compromiso institucional. No se trata solo de evitar errores técnicos, sino de proteger la continuidad operativa y la confianza de usuarios y clientes.

El reloj avanza, y aunque 2038 parezca lejano, la preparación debe comenzar ahora. Anticiparse es la única forma de evitar una nueva “epocalipsis” tecnológica.

Más información

La entrada Y2K38: El próximo reto para la continuidad de sistemas críticos e IoT se publicó primero en Una Al Día.



☞ El artículo completo original de SOC lo puedes ver aquí

El combate entre la RAE, Pérez-Reverte y el Cervantes visibiliza un problema linguístico: todos quieren mandar en el español

El combate entre la RAE, Pérez-Reverte y el Cervantes visibiliza un problema linguístico: todos quieren mandar en el español

La Real Academia Española atraviesa su peor crisis institucional en décadas. El 11 de enero, Arturo Pérez-Reverte, académico desde 2003, publicó en El Mundo una columna que varios miembros han calificado como "el ataque más grave desde que hay memoria". El novelista acusó a la institución de capitular ante las presiones mediáticas y de practicar una política lingüística "laxa y ambigua", señalando directamente al director Santiago Muñoz Machado. Pero este episodio es solo la manifestación más visible de un conflicto más profundo que sacude los cimientos de la institución tricentenaria.

El detonante. El domingo 11 de enero, Arturo Pérez-Reverte publicó en El Mundo una tribuna titulada 'Por qué ni fija, ni limpia, ni da esplendor' que provocó la crisis. En el texto, el académico denunciaba que la RAE practica una normativa "laxa y ambigua" y acusaba a la institución de haberse rendido ante lo que llamó "los talibanes del todo vale". Entre sus críticas figuraban la falta de contundencia en debates como el lenguaje inclusivo, la acentuación de "solo" o "guion", y el uso de mayúsculas. Según Pérez-Reverte, la Academia se limita a registrar usos impulsados por las redes sociales o la corrección política, abandonando su función normativa. "Cualquier cateto audaz puede imponerse, si persevera, a Cervantes, Galdós o García Márquez", escribió.

El momentum. El momento elegido para la publicación agravó el malestar: la tribuna apareció la víspera de la entrega de los Premios Zenda, galardones literarios fundados por el propio Pérez-Reverte. La ceremonia, celebrada el 13 de enero con presencia de la reina Letizia, reunió a numerosos académicos que habían confirmado su asistencia y se encontraron atrapados en el núcleo de la polémica. Muñoz Machado, de hecho, no acudió.

El pleno del jueves 16 de enero confirmó la fractura. Pérez-Reverte asistió y expuso sus argumentos de forma sintética, pero varios académicos intervinieron para mostrar su "rechazo" a que un miembro se expresara de esa manera en un medio de comunicación. Algunos le reprocharon su "desconocimiento" del trabajo diario de la institución, mientras otros defendieron la labor del actual director. La sesión quedó inconclusa por falta de tiempo y el debate continuará la próxima semana.

Una crisis. La polémica de Pérez-Reverte evidencia tensiones estructurales acumuladas durante décadas en la RAE. La institución mantiene una composición que varios académicos describen como "tres tercios oficiosos": creadores literarios, filólogos y un grupo heterogéneo de juristas, médicos o científicos. Este reparto, considerado durante años un signo de pluralidad, ahora se cuestiona tanto desde dentro como desde fuera de la Academia.

Los directores. El último director que fue principalmente escritor, Dámaso Alonso, accedió al cargo en 1968 y permaneció hasta 1982. Desde entonces, la dirección ha estado en manos de filólogos: Fernando Lázaro Carreter (1991-1998), Víctor García de la Concha (1998-2010), José Manuel Blecua (2010-2014) y Darío Villanueva (2014-2018). Santiago Muñoz Machado, jurista especializado en Derecho Administrativo, rompió en 2018 esta secuencia de cuatro décadas. Su gestión rescató a la institución de una crisis financiera provocada por los recortes del gobierno de Mariano Rajoy.

Versus. Varias voces internas rechazan el diagnóstico de Pérez-Reverte. "Aquí no hay una guerra entre escritores y filólogos. Lo que hay son filias y fobias personales", señalan académicos consultados por El País. Otros defienden el funcionamiento institucional: la RAE opera como un "régimen confederal" junto a las 23 academias americanas, más Filipinas y Guinea Ecuatorial. Ninguna palabra entra al diccionario sin pasar por comisiones delegadas, consulta panhispánica y, solo en caso de discrepancia, debate en pleno. Pero el calendario añade presión. En diciembre de 2026 debe elegirse al próximo director. Muñoz Machado podría presentarse, pero necesita dos tercios de los votos para un segundo mandato consecutivo, una mayoría que hoy parece fuera de su alcance.

El frente Cervantes. La crisis de la RAE no se limita al choque interno. Desde octubre de 2025, la institución mantiene abierta una guerra con el Instituto Cervantes que ha derivado en ruptura institucional. El 9 de octubre, cinco días antes del X Congreso Internacional de la Lengua Española (CILE) en Arequipa, Luis García Montero, director del Cervantes, atacó públicamente a Muñoz Machado, diciendo que la RAE está en manos de "un catedrático de Derecho Administrativo experto en llevar negocios desde su despacho para empresas multimillonarias", lamentando la distancia con el actual director.

Reacción inmediata. Ese mismo día, el pleno de la RAE manifestó por unanimidad su "absoluta repulsa" ante las que calificó como "incomprensibles manifestaciones", subrayando que resultaban "especialmente lamentables" por producirse en vísperas de un evento organizado por ambas instituciones. El conflicto se reactivó en diciembre con la polémica sobre Panamá como sede del CILE 2028, o en la reunión anual del Patronato del Instituto Cervantes, presidida por los reyes. 

Dineros. El contexto presupuestario añade otra dimensión: el Instituto Cervantes maneja 143 millones de euros anuales frente a los 11 millones de la RAE. Esta desproporción de recursos, sumada a la dependencia del Cervantes del Ministerio de Asuntos Exteriores (circunstancia que Pérez-Reverte ha denunciado como intento de "colonización"), transforma lo que comenzó como un desencuentro personal en un conflicto sobre quién lidera la política lingüística española en el exterior.

arturo Arturo Pérez-Reverte. Imagen de Canal Sur Media en Flickr

Historial de polémicas. La crisis actual no es la primera. La RAE arrastra un historial de controversias que marcan su relación con el poder político y los cambios sociales. El momento más crítico llegó con los recortes del gobierno de Mariano Rajoy en 2012-2013, que redujeron el gasto en cultura un 30%. Santiago Muñoz Machado dedicó sus primeros años a la recuperación económica buscando mecenazgo privado, tarea que le valió reconocimiento pero también alimentó las críticas posteriores sobre su perfil empresarial.

Batallas culturales. Más allá de lo presupuestario, la RAE ha estado en el centro de batallas culturales recurrentes. El lenguaje inclusivo la convirtió en objetivo de sectores progresistas, que interpretan su posición técnica (el masculino genérico es gramaticalmente inclusivo) como resistencia al cambio social. Otras polémicas fueron más especializadas pero igual de divisivas: suprimir la tilde de "solo" y "guion" provocó rechazo incluso entre académicos. La admisión de extranjerismos frente a la defensa del purismo genera tensiones constantes. Y el equilibrio entre prescribir normas o registrar usos reales es un debate sin resolver.

La paradoja: mientras la RAE ha sido criticada desde la izquierda por conservadurismo lingüístico, Pérez-Reverte la ataca ahora desde el purismo por lo contrario. La acusa de permisiva, de registrar lo que imponen las redes en lugar de defender normas claras. La institución se encuentra atrapada entre dos fuegos: quienes la acusan de obsoleta y quienes la acusan de capitular ante la corrección política.

En Xataka | El idioma español está en caída libre en EEUU pese al aumento de la inmigración latina


-
La noticia El combate entre la RAE, Pérez-Reverte y el Cervantes visibiliza un problema linguístico: todos quieren mandar en el español fue publicada originalmente en Xataka por John Tones .



☞ El artículo completo original de John Tones lo puedes ver aquí

¿Dice el ARN lo que hace una célula? Lecciones inesperadas de neuronas del pez cebra

noticia3 (4)

Durante años, la biología ha perseguido una pregunta que suena sencilla y se vuelve resbaladiza en cuanto intentas responderla: ¿qué es, exactamente, un tipo celular? En el laboratorio, una respuesta muy práctica ha sido mirar qué ARN mensajero (los “mensajes” que salen de los genes para fabricar proteínas) aparece dentro de cada célula. Con técnicas de transcriptómica de célula única, hoy se puede leer ese “buzón de salida” a gran escala y agrupar células por patrones similares de expresión génica.

La idea tiene lógica. Si dos células envían mensajes parecidos, uno esperaría que construyan herramientas parecidas y, por tanto, que hagan un trabajo parecido. Es como clasificar a la gente por el contenido de su cesta de la compra: si ambas llevan pasta, tomate y queso, imaginas una cena similar. El problema aparece cuando recuerdas que con los mismos ingredientes se cocinan platos muy distintos, según el horno, el tiempo y la receta. En células pasa algo comparable: el mismo “inventario” de transcritos no garantiza la misma función, ni la misma forma, ni las mismas conexiones.

Esa tensión entre lo molecular y lo funcional es el corazón del debate que plantean M. Neşet Özel y Claude Desplan en un análisis publicado en Nature: definir tipos por transcritos es útil y escalable, pero puede ocultar diferencias importantes cuando intentamos entender cómo trabaja un tejido, en especial el cerebro.

Cuando dos neuronas “iguales” hacen cosas distintas

En neurociencia, clasificar neuronas es casi una obsesión saludable: sin un buen catálogo, es difícil explicar cómo se procesa la información. Históricamente se miraba la morfología neuronal; la “silueta” de una neurona (dendritas, axón, ramificaciones) fue el gran criterio desde los tiempos de Ramón y Cajal. Luego llegaron mediciones de actividad para distinguir neuronas por su “comportamiento eléctrico”. En la última década, el foco se desplazó con fuerza hacia lo molecular: perfiles de ARN para etiquetar neuronas por su firma de genes activos.

El choque viene cuando intentas superponer esos mapas. En muchos sistemas nerviosos, la etiqueta molecular no encaja de forma limpia con la forma o con la función. No es un detalle académico: si un grupo de neuronas se agrupa en un atlas por parecer “el mismo tipo” en el plano transcriptómico, pero dentro de ese grupo unas detectan movimiento y otras color, el atlas se vuelve un mapa de metro con líneas mezcladas. Puedes orientarte, sí, pero te equivocas justo cuando más necesitas precisión.

El pez cebra como banco de pruebas

Para poner a prueba esta relación entre expresión génica y función, un equipo liderado por Shainer y colaboradores se fue a un escenario ideal: el cerebro del pez cebra (Danio rerio), un modelo muy usado porque permite observar neuronas vivas con relativa facilidad. El trabajo se centró en una región de procesamiento visual (el tectum óptico), donde la posición de las neuronas y su participación en circuitos visuales se pueden estudiar con gran detalle.

La pregunta no era si la transcriptómica sirve; ya lo hace. La pregunta era más incómoda: cuando dos neuronas son muy parecidas en su perfil de ARN, ¿estamos viendo el mismo “tipo” o solo una apariencia, como dos llaves que por fuera se parecen pero abren puertas distintas?

Cómo se conectó el rompecabezas: genes, forma y actividad

El valor del estudio de Shainer et al. está en que no se quedó en una sola capa. Midieron respuestas visuales de miles de neuronas con imagen de calcio a dos fotones (una forma de ver actividad neuronal mediante cambios de fluorescencia), emparejaron esa actividad con perfiles de transcriptómica y, para una parte de las neuronas, añadieron un tercer eje: morfología y conectividad, usando líneas transgénicas específicas para identificar neuronas de un mismo grupo transcriptómico.

El resultado central es tan intuitivo como incómodo: neuronas muy similares en términos de ARN pueden diferir en su forma, en con quién se conectan y en cómo responden a estímulos visuales.  Dicho con una metáfora doméstica, es como agrupar herramientas por el color del mango: dos destornilladores rojos pueden parecer el mismo objeto hasta que intentas usarlos y descubres que uno es plano y el otro de estrella.

Un detalle especialmente interesante es el componente espacial: el estudio describe variación “topográfica”, es decir, relacionada con la posición dentro de la región cerebral analizada. En la práctica, esto sugiere que el vecindario importa: células con la misma firma transcriptómica pueden “especializarse” según el lugar donde viven y las entradas que reciben.

Lo que cambia para los atlas celulares

La biología está construyendo grandes atlas celulares para mapear órganos y organismos completos. Es un esfuerzo monumental: catalogar células, ubicarlas, describir estados y trayectorias. La transcriptómica es la columna vertebral de muchos atlas porque es sistemática y comparativa. El trabajo discutido en Nature no desmonta esa estrategia; la matiza.

La implicación es clara: un atlas basado solo en ARN puede ser un excelente mapa político (fronteras generales) y, a la vez, un mapa pobre para conducir por calles pequeñas. Si quieres entender cómo un circuito visual transforma luz en conducta, necesitas integrar al menos tres dimensiones: el “texto” molecular, la “arquitectura” de la célula (su forma y conectividad) y su “conducta” (función). Özel y Desplan subrayan justo esa desconexión histórica entre descripciones moleculares, morfológicas y funcionales, y celebran el intento de cruzarlas en un mismo sistema.

Este punto también toca el problema de la “granularidad”: ¿cuánto hay que subdividir? Si haces categorías demasiado finas, acabas con un diccionario de miles de etiquetas que nadie puede usar. Si haces categorías demasiado amplias, pierdes diferencias relevantes. El estudio aporta evidencia de que, al menos en algunos circuitos, la etiqueta transcriptómica puede ser un paraguas que cubre varios “subtipos funcionales”.

Qué significa para medicina y neurotecnología

Estas diferencias no son solo filosóficas. En investigación biomédica, se buscan marcadores para identificar células implicadas en enfermedades y para diseñar terapias dirigidas. Si un marcador transcriptómico agrupa células con funciones distintas, el riesgo es tratar como una única diana a un conjunto heterogéneo. En neurotecnología ocurre algo parecido: si intentas manipular un “tipo” neuronal con herramientas genéticas basadas en promotores o firmas de expresión, podrías estar activando varias funciones a la vez.

La lectura más equilibrada es que la expresión génica sigue siendo una brújula muy potente, pero no es el destino. La función de una neurona depende de su cableado, de su historia de actividad, del entorno y de estados internos. El ARN ofrece una foto del “plan de producción” en un momento; la función es una película donde cuentan las conexiones y el contexto.

Hacia una definición más útil de “tipo celular”

Si hay una lección práctica, es que conviene pensar en los tipos celulares como categorías “con apellidos”. “Neurona tipo X” puede ser un buen comienzo, pero quizá haga falta añadir “en tal región”, “con tal patrón de conectividad” o “con tal respuesta a estímulos”. En el día a día del laboratorio, esto se traduce en un cambio de hábito: no conformarse con que el clúster de single-cell RNA-seq sea bonito, sino preguntar qué hace ese clúster cuando el animal ve, decide y actúa.

El estudio de Shainer et al. en Nature pone un espejo delante de una práctica extendida y recuerda algo que la biología ya sabía por experiencia: las categorías humanas son útiles, pero la naturaleza no siempre las respeta. Y el comentario de Özel y Desplan encaja como una advertencia amable: si queremos comprender el cerebro, necesitamos que las etiquetas moleculares conversen con la forma y con la función, no que las sustituyan.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí