30 de enero de 2026

Cuando un “:-P” se cuela en el código: el riesgo de los fallos silenciosos en los LLM

Si alguna vez has pedido ayuda de programación por chat, es probable que hayas escrito como lo harías con una persona: con un tono informal, algún “gracias :)” o una carita para suavizar una petición. El problema es que, para un modelo de lenguaje (un LLM), esa carita no siempre es “solo” una carita. Un estudio reciente describe una vulnerabilidad a la que llama confusión semántica de emoticonos: ciertos emoticonos ASCII pueden interpretarse como parte de la instrucción y desviar la respuesta hacia acciones no deseadas, incluso potencialmente destructivas.

La idea resulta inquietante por lo cotidiana. Es como dejar una nota en la nevera que dice “Compra pan” y dibujar al lado un guiño “;)”. Para ti es un gesto simpático; para alguien que lee con reglas raras, ese guiño podría parecerle un símbolo de “hazlo de otra manera” o “cambia el plan”. En programación, esa “otra manera” puede acabar en un script que toca rutas equivocadas, borra un directorio que no debía o altera permisos sin que te des cuenta a primera vista.

Qué son los fallos silenciosos y por qué asustan

El trabajo destaca un tipo de error especialmente traicionero: los fallos silenciosos. No hablamos de respuestas que “se rompen” con un error de sintaxis o un mensaje rojo al ejecutar. Al contrario: el código que produce el modelo suele ser válido, se ejecuta, pasa chequeos superficiales… y aun así no cumple la intención del usuario. Dicho de forma simple, es como seguir una receta que está bien escrita y que te deja un plato comestible, solo que no era el plato que querías cocinar.

Los autores señalan que, cuando el modelo se confunde por el emoticono, la gran mayoría de esas respuestas confundidas derivan en fallos silenciosos: salidas correctas “por forma” pero desviadas “por sentido”. Esto conecta con un riesgo práctico: en entornos reales, muchos equipos confían en que el asistente genere fragmentos de código que luego se integran con prisa. Si el resultado parece profesional y compila, la revisión humana puede relajarse justo donde no debería.

Cómo probaron el problema: miles de prompts, escenarios reales

Para medir el fenómeno con cierta amplitud, el equipo diseñó una tubería automatizada de generación de datos y construyó un conjunto de 3.757 casos de prueba orientados a código. Esos casos cubren 21 “metaescenarios” inspirados en situaciones de uso real, cuatro lenguajes de programación y distintos niveles de complejidad contextual.

En cada prompt introdujeron emoticonos ASCII de dos o tres caracteres, del estilo “:-O” o “:-P”, integrados en el texto como lo haría una persona en una conversación. Después evaluaron varios modelos populares de uso extendido en asistencia de programación. El resultado central es que la confusión no parece anecdótica: reportan una tasa media de confusión superior al 38%.

Por qué un emoticono puede “cambiar” una instrucción

Aunque el estudio se centra en la evidencia empírica, el fenómeno tiene una explicación intuitiva: los LLM no “ven” emoticonos como los vemos nosotros; ven secuencias de caracteres con patrones aprendidos. En algunos contextos, símbolos como “:” “-” “/” “)” se parecen a elementos con significado operativo en código, rutas, comentarios, expresiones regulares o formatos de configuración.

Piensa en un asistente que aprende a predecir texto y código a partir de millones de ejemplos. Si en su entrenamiento ciertos patrones cercanos a “:-)” aparecen en contextos técnicos (por ejemplo, comentarios irónicos, marcadores, separadores, trazas copiadas de terminal), el modelo puede “enganchar” asociaciones equivocadas. El usuario cree que está aportando emoción; el modelo lo interpreta como pista de estructura.

Lo delicado es que estas confusiones no siempre se manifiestan como un disparate evidente. Pueden convertirse en pequeñas decisiones: elegir una función peligrosa en lugar de una segura, ampliar el alcance de un borrado, asumir que “limpiar datos” implica eliminar archivos en vez de depurar registros, o modificar una configuración global cuando se pedía algo local.

Riesgo en herramientas con “agencia”: cuando el código no se queda en el papel

El trabajo también advierte que la vulnerabilidad se transfiere con facilidad a marcos de agentes, sistemas donde el modelo no solo redacta código, sino que planifica pasos y puede activar herramientas. En ese contexto, el daño potencial crece: ya no es “solo” una sugerencia que tú ejecutas, sino una cadena de acciones que el sistema podría llevar a cabo con permisos reales.

Aquí conviene matizar con objetividad: el estudio evalúa respuestas generadas, no un “bot” borrando servidores por sí mismo en todos los casos. El riesgo aparece cuando el flujo de trabajo permite que un resultado “plausible” llegue a producción o se ejecute con confianza excesiva.

Por qué los parches “de prompt” no bastan

Un reflejo común cuando algo se tuerce con un LLM es intentar corregirlo con más texto: “no hagas X”, “ignora símbolos”, “trata emoticonos como emoción”. Los investigadores observan que las mitigaciones basadas únicamente en prompts son, en general, poco eficaces para eliminar una ambigüedad que parece enraizada en cómo el modelo representa e interpreta señales.

Dicho con una metáfora doméstica: si tu GPS confunde sistemáticamente “Calle Mayor” con “Camino Mayor”, repetirle “no te equivoques” no arregla el mapa. Puede ayudar en casos puntuales, pero la fuente del fallo está en cómo interpreta la señal.

Qué pueden hacer desarrolladores y equipos sin dramatizar

El valor del hallazgo no es alimentar pánico, sino poner un foco práctico en un ángulo poco explorado de la seguridad en IA: los símbolos pequeños y “humanos” pueden tener efectos extraños en tareas técnicas.

Para equipos que integran asistentes de programación, una medida razonable es tratar el texto de entrada como se trata el input de cualquier sistema: normalizar, sanear y delimitar. Si el usuario escribe una petición con emoticonos, el sistema podría preservarlos en un campo separado (tono) y pasar al modelo una versión donde queden claramente marcados como contenido no operativo. Otra estrategia útil es forzar plantillas donde el código y las instrucciones estén delimitados de forma estricta, reduciendo la posibilidad de que el modelo “mezcle” conversación y especificación.

En evaluaciones internas, tiene sentido incluir este tipo de pruebas en baterías de QA: no solo prompts “limpios”, también solicitudes con ruido realista (caritas, signos repetidos, mensajes pegados desde chats) para detectar fallos silenciosos antes de que lleguen a usuarios.

Para quien usa estos sistemas a diario, el consejo más pragmático es revisar con mentalidad de auditoría cuando el resultado toca archivos, rutas, borrados, permisos o credenciales. Un emoticono no debería cambiar nada, pero el hallazgo sugiere que, hoy, a veces puede hacerlo.

Una pista sobre el futuro de la fiabilidad en IA generativa

Este trabajo encaja en una tendencia más amplia: estamos aprendiendo que la fiabilidad de la IA generativa no depende solo de “si sabe programar”, sino de cómo maneja matices de comunicación humana. Los emoticonos son un caso claro porque son compactos y ambiguos. Mañana podrían ser otras señales: abreviaturas, marcadores, formatos de chat, o incluso convenciones culturales que para nosotros son obvias y para el modelo son estadística.

Como recordatorio práctico, cuando un sistema se usa para producir código, la apariencia de corrección no es suficiente. Lo que importa es la alineación con la intención, y ahí los símbolos diminutos pueden convertirse en una piedra en el zapato.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

¿Estamos preparados para una IA más inteligente que nosotros? Las dudas de Dario Amodei (Anthropic)

Ilustración de la convergencia entre el cerebro humano y la inteligencia artificial.

El director ejecutivo y cofundador de Anthropic, Dario Amodei, publicó un ensayo de decenas de páginas titulado The Adolescence of Technology en el que plantea una idea tan simple como incómoda: la inteligencia artificial avanza hacia capacidades que podrían desbordar la forma en que hoy organizamos la sociedad, la política y la tecnología. La imagen que sugiere es la de una adolescencia: una etapa de crecimiento acelerado, potencia desordenada y decisiones impulsivas, pero aplicada a herramientas que no se quedan en el ámbito personal, sino que se conectan con infraestructuras, estados, economía y seguridad global. La advertencia llega, curiosamente, desde alguien que lidera una empresa que compite por estar en primera fila en esa carrera, con productos como Claude.

En la cobertura de Gizmodo sobre el ensayo, se subraya el tono de alarma de Amodei: habla de un “rito de paso” para la especie, turbulento e inevitable, y deja caer una frase que condensa su temor principal: no está claro que nuestros sistemas sean lo bastante “maduros” para manejar “un poder casi inimaginable”. Lo relevante no es solo el dramatismo, sino el tipo de riesgos que enumera y la manera en que los conecta con escenarios concretos.

La madurez como cuello de botella

Amodei no se detiene tanto en el debate clásico de “si la IA será buena o mala”, sino en algo más prosaico: cómo reaccionan las instituciones cuando se les entrega una herramienta que multiplica capacidades. En el día a día, cualquiera ha visto ese patrón en pequeño: darle a un adolescente una moto potente no garantiza un accidente, pero sí eleva el coste de un error. Con sistemas que escriben, programan, planifican, persuaden y automatizan procesos, el “desliz” deja de ser una metedura de pata y puede convertirse en un problema sistémico.

El ensayo también introduce un miedo político explícito: el autoritarismo reforzado por inteligencia artificial. No hace falta imaginar robots patrullando calles para entender la idea; basta con pensar en un estado que pueda vigilar, perfilar, predecir y presionar a gran escala con herramientas baratas, rápidas y persistentes. Es el tipo de riesgo que no depende de una IA “malvada”, sino del uso que se haga de sistemas muy eficientes.

La “superinteligencia” como punto de inflexión

Amodei se suma a una narrativa habitual en el sector: la sensación de estar cerca de un salto cualitativo. Durante años se hablaba de AGI (inteligencia artificial general) y, según se comenta en el texto, algunas voces del sector han preferido moverse hacia el término superinteligencia, quizá porque describe menos “parecido a un humano” y más “mejor que un humano en casi todo”. Su tesis se apoya en la idea de crecimiento exponencial: si la mejora continúa como hasta ahora (y él reconoce que no es seguro), el momento en que la IA supere a las personas en la mayoría de tareas podría estar “a pocos años”.

Aquí conviene leerlo con una mezcla de atención y cautela. Atención, porque la velocidad de mejora reciente es real en muchos ámbitos. Cautela, porque extrapolar tendencias tecnológicas tiene un historial de aciertos y errores. La electricidad, Internet o los smartphones crecieron de forma intensa, sí, pero también chocaron con límites técnicos, económicos, regulatorios y sociales. El punto es que Amodei cree que, aunque no podamos fijar una fecha en el calendario con precisión, el umbral se acerca lo suficiente como para tratarlo como un problema presente, no como ciencia ficción.

Un país de genios en 2027: la metáfora de la seguridad nacional

El pasaje más llamativo del ensayo es una analogía: imaginar que en torno a 2027 aparece, de golpe, un “país de genios” con decenas de millones de mentes superiores a cualquier premio Nobel, líder político o tecnólogo. La imagen busca algo concreto: que pensemos en una amenaza de seguridad nacional que no tiene frontera física, pero sí ventaja estratégica. Amodei añade otro ingrediente: la velocidad. Si esos sistemas operan cientos de veces más rápido que los humanos, no solo serían más listos; también jugarían con un reloj trucado, como si una de las partes pudiera hacer diez jugadas mientras la otra aún está pensando la primera.

La comparación no pretende ser literal; funciona como una linterna que ilumina preguntas difíciles: ¿quién controla esa capacidad?, ¿cómo se audita?, ¿qué ocurre si se despliega de forma desigual entre países y empresas?, ¿qué incentivos crea? En el marco que propone, el “informe” de un asesor de seguridad sobre ese país lo catalogaría como la amenaza más seria en un siglo, quizá en la historia. El detalle que vuelve la metáfora incómoda es evidente: Anthropic y otras compañías están, en la práctica, intentando construir algo parecido a esa ventaja cognitiva.

Del metro de Tokio a la biología: el riesgo de uso indebido

Para explicar el peligro de que capacidades avanzadas caigan en manos equivocadas, Amodei recurre a un ejemplo histórico: el ataque con gas sarín de Aum Shinrikyo en el metro de Tokio en 1995. Su idea es que, hasta ahora, muchos planes destructivos fracasan no por falta de intención, sino por falta de conocimientos, disciplina o recursos. Si pones un “genio en el bolsillo”, ese freno se reduce. La preocupación no es solo el terrorista organizado; también la figura del “lobo solitario” que, con ayuda técnica guiada, podría escalar su daño.

Este tipo de argumento toca un nervio sensible porque conecta con un debate muy actual: qué significa que un modelo de lenguaje sea “útil” en ámbitos de química, biología o ingeniería. La cobertura de Gizmodo señala una coincidencia inquietante: en un informe técnico de Anthropic (su “system card” para una versión de Claude), se mencionaba una evaluación relacionada con ayudar a reconstruir un virus complejo. En términos de seguridad, estas pruebas suelen presentarse como control interno: comprobar hasta dónde llega la capacidad y qué barreras son necesarias. Para el público general, la lectura puede ser otra: si estás midiendo esto, es porque el sistema se acerca a terrenos delicados.

La paradoja de advertir mientras se compite

Una parte del interés mediático del texto no está en el miedo, sino en la tensión moral que expone: Amodei alerta sobre posibles consecuencias catastróficas, mientras su empresa sigue empujando el acelerador. Desde fuera, suena a quien explica los riesgos de una dieta de azúcar y, al mismo tiempo, abre una nueva pastelería. La crítica recogida en el artículo es directa: si el peligro es tan serio, ¿por qué construir la “máquina” que podría empeorar la situación?

Esta contradicción, sin embargo, también refleja un dilema real del sector. Si una compañía decide frenar, puede que otra no lo haga. Si un país regula duro, puede que otro atraiga inversión con reglas más laxas. El resultado es una carrera en la que todos tienen incentivos para moverse rápido, incluso cuando afirman que la velocidad es el problema. Por eso, cuando empresas piden regulación, aparece otra sospecha: ¿buscan protección genuina o una forma de captura regulatoria que consolide a los grandes actores y eleve barreras a competidores más pequeños?

Acceso, barreras y el “precio” de la responsabilidad

El debate se vuelve todavía más concreto cuando entra el tema de la disponibilidad. Si de verdad preocupa que personas con malas intenciones utilicen herramientas avanzadas, la pregunta práctica es qué fricción se introduce: verificación de identidad, límites de uso, monitorización de patrones peligrosos, restricciones por dominio, auditorías externas, transparencia sobre fallos. En la pieza citada se desliza una ironía: advertir sobre riesgos existenciales mientras se presume de usuarios activos mensuales puede sonar a mensaje mixto, como si el negocio y la prudencia tiraran en direcciones opuestas.

También aparece un dato político que complica el cuadro: según el texto, Anthropic ofreció su tecnología al gobierno federal estadounidense por un dólar al año durante la administración Trump. La lectura benevolente sería que quieren colaborar con el sector público. La lectura crítica es que las alianzas institucionales pueden otorgar legitimidad y peso político a una empresa que, al mismo tiempo, sostiene que la tecnología es potencialmente desestabilizadora.

Lo que está en juego cuando la herramienta supera al usuario

Si se toma en serio la hipótesis de Amodei, el problema no es únicamente “una IA inteligente”. Es la combinación de superinteligencia, acceso amplio, incentivos comerciales, competencia geopolítica y fragilidad institucional. Una calculadora no cambia la historia porque su poder está acotado; un sistema capaz de planificar, persuadir, descubrir vulnerabilidades y automatizar tareas complejas sí puede hacerlo, del mismo modo que un coche no es solo un objeto: es carreteras, normas, seguros, educación vial y cultura de conducción.

El debate, entonces, no debería quedarse en si confiamos o no en Anthropic, en Claude o en cualquier empresa concreta. La cuestión de fondo es qué reglas, auditorías y límites sociales decidimos antes de que la potencia de la herramienta haga que corregir sea más caro que prevenir. Y, sobre todo, si nuestra “madurez” colectiva puede crecer al ritmo de una tecnología que, según quienes la construyen, está entrando en su etapa más impulsiva.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Tras "aterrorizar" hipotéticamente a la Tierra en 2024, el asteroide YR4 tiene un nuevo objetivo: la Luna

Tras "aterrorizar" hipotéticamente a la Tierra en 2024, el asteroide YR4 tiene un nuevo objetivo: la Luna

Durante unas semanas al inicio de 2025, el nombre 2024 YR4 se convirtió en un protagonista absoluto entre las principales instituciones de todo el planeta. No era para menos, puesto que este objeto, con un tamaño estimado entre 40 y 60 metros, alcanzó el nivel 3 en la escala de Torino, un hito que no veíamos desde hacía mucho tiempo y que implica una probabilidad de colisión superior al 1% con capacidad de producir daños locales devastadores. 

Nos salvamos. Tras este miedo, la ciencia ha conseguido llegar a la conclusión de que la Tierra ahora mismo está a salvo. Sin embargo, la historia de 2024 YR4 no ha terminado, puesto que los últimos modelos sugieren que, si bien nos esquivará a nosotros, hay una probabilidad nada despreciable de que acabe estrellándose contra la Luna. 

Cómo lo supimos. En un primer momento, el Centro de Estudios de Objetos Cercanos a la Tierra (CNEOS) de la NASA mantuvo la respiración contenida a principios de 2025. Las primeras observaciones arrojaban un escenario preocupante para el año 2032 con este posible impacto, pero en el momento que se comenzó a prestar mayor atención a este objeto se vio que no iba a acabar en la Tierra.

La clave de poder respirar un poco más tranquilos nuevamente vuelve a estar en los 'hombros' del James Webb que comenzó a hacer observaciones en mayo de 2025. El telescopio espacial permitió refinar la órbita del asteroide con una mejora de precisión del 20%, confirmando que no existe riesgo de impacto contra nuestro planeta, ni tampoco una alteración orbital de la Luna que pudiera afectarnos secundariamente. Pero al cerrar una puerta, el JWST abrió una ventana fascinante y destructiva: la probabilidad de que 2024 YR4 impacte contra la Luna ha subido del 3,8% al 4,3%.

El juicio lunar. Según los estudios que se han publicado de manera reciente en arXiv, la fecha clave es el 22 de diciembre de 2032. Justo ese día es donde existe una probabilidad de aproximadamente 1 entre 23 de que veamos un espectáculo violento en la superficie lunar con un impacto que liberaría una energía de 6,5 megatoneladas de TNT

Esto es algo muy relevante, puesto que esta gran energía generaría un cráter de aproximadamente un kilómetro de diámetro y la eyección de 100 millones de kilos de escombros lunares con una nube de material equivalente al peso de unos 20.000 elefantes. 

Desde la Tierra. Lógicamente, este impacto aunque no se dé en el planeta, la verdad es que va a tener importantes consecuencias y no precisamente físicas, sino por un fenómeno visual. Los escombros que saldrán eyectados de la Luna podrían entrar en la atmósfera terrestre tiempo después, generando una lluvia de meteoritos inédita provocada por un impacto secundario. 

El uso de la tecnología. Con el paso del tiempo, la agencia Espacial Europea también ha validado estos datos, situando el tamaño del objeto más concretamente entre 53 y 67 metros y confirmando la probabilidad del 4% de tener un impacto en la luna. Aunque lógicamente también tenemos un 96% de que pase completamente de la Luna. 

Pero este asteroide ha tenido un punto muy positivo: ha reivindicado la necesidad de mejorar las herramientas de detección espaciales. Y es que ahora mismo estos objetos se esconden en el "punto ciego" del resplandor solar, aunque con este tuvimos la suerte de que el sistema ATLAS en Chile lo consiguió detectar. 

Una futura misión. Ante esta limitación que tenemos, la ESA ha visto necesario activar cuando antes la misión NEOMIR, ya que de haber estado activa ya, pues habría detectado el asteroide un mes antes, ofreciendo un tiempo de reacción vital si la amenaza hubiera sido contra la Tierra y no contra la Luna. 

Y ahora qué. De momento, toca esperar. El asteroide se ha alejado en este caso y no volverá a estar en una posición óptima para hacer una observación hasta 2028. Será entonces cuando los astrónomos podrán afinar este 4,3% de probabilidad y decirnos definitivamente si las Navidades de 2032 las pasaremos mirando a la Luna para ver cómo se forma un nuevo cráter en directo. 

Imágenes | Mike Petrucci  NASA Hubble Space Telescope

En Xataka | Japón ha perdido un satélite de cinco toneladas de la forma más insólita imaginable: “se le cayó” durante el lanzamiento

-
La noticia Tras "aterrorizar" hipotéticamente a la Tierra en 2024, el asteroide YR4 tiene un nuevo objetivo: la Luna fue publicada originalmente en Xataka por José A. Lizana .



☞ El artículo completo original de José A. Lizana lo puedes ver aquí

Día internacional de la tecla ESCAPE. Hay dos tipo de informáticos: Los de tecla ESC ROJA y otros.

Después de las experiencias que os conté en el artículo de "La "shittización" en contra de hacer las cosas simples", que luego evolucioné y escribí en El futuro está por hackear con el titulo de "Solo para Gente Smart", le estuve dando muchas vueltas a los nuevos interfaces de usuario que tienen una alta exigencia de Nivel Cognitiva, que obliga a las personas a conocer los significados de iconos, de textos, los movimientos de la pantalla, o los flujos de navegación, y saber qué es un flujo de navegación, una acción o un comportamiento "conocido". 

Día Internacional de la tecla ESCAPE.

Estas reflexiones me hicieron pensar en la tecla roja de los teclados AMSTRAD, la tecla de ESC o Escape. Una de los primeras teclas que, para los que veníamos de la máquina de escribir Olivetti era especialmente llamativa. Y molaba todo, la verdad. En las máquinas de escribir que tenían tecla roja, la ésta era para subir el carro de la cinta de tinta y escribir en ese color, como os enseñaré que hacía yo en mis primeros textos, que los tengo guardados y merecen la pena ser publicados.
La tecla ESC (Escape) es una de las teclas más antiguas y simbólicas de la informática moderna, que nació para resolver un problema muy concreto de interacción con los programas de una computadora y que se convirtió con el tiempo en un auténtico “botón de pánico” para muchos usuarios, y hoy sigue estando presente en casi todos los teclados, aunque en algunos dispositivos haya sido reemplazada por versiones táctiles o funciones virtuales - que no nos gusta a todos -.

La historia de la tecla ESC  

Pero dejadme que os cuente un poco la historia, al estilo de como son las historias del libro de "Microhistorias: anécdotas y curiosiades de la historia de la informática (y los hackers)" que publicaron mis amigos Fran Ramírez y Rafel Troncoso en nuestra querida 0xWord.

Figura 3: Libro de "Microhistorias: anécdotas y curiosiades de la historia
de la informática (y los hackers)" de Fran Ramírez y Rafel Troncoso 0xWord.

La tecla Escape fue creada a comienzos de la década de 1960 por Robert “Bob” Bemer, programador de IBM y figura clave en la estandarización del Código ASCII. Bob Bemer buscaba una forma sencilla de cambiar entre distintos conjuntos de códigos y protocolos de comunicación utilizados por fabricantes incompatibles entre sí. Es decir buscaba "cambiar de flujo" - y por eso me acordé de ella cuando hablaba de los flujos de navegación en la televisión - entre unos y otros, así que pensó en tener una tecla especial que le permitiera "escapar" del flujo actual.


Su propuesta se integró en el estándar ASCII como el carácter de control número 27, reservado para indicar que lo que venía después ya no era texto normal sino una instrucción especial. De este modo, la tecla ESC se convirtió en la puerta de entrada a las llamadas secuencias de escape, fundamentales en los scripts de sistemas operativos UNIX/LINUX durante muchos años. La gente le tiene tanto cariño, que puedes personalizarla, y se hacen diseños especiales para los teclados. En Amazon puedes comprarte algunas Teclas ESC Espectaculares.


A diferencia de las letras o los números, ESC no está pensada para escribir un símbolo visible, sino para generar un carácter de control. En ASCII, ese carácter 27 se interpreta como una señal que modifica el significado de los bytes siguientes, permitiendo cambiar de color, mover el cursor o alterar el formato en terminales antiguas. Es decir, ya no estamos en el flujo de datos imprimibles, sino en el flujo de datos de control. 

En los primeros sistemas basados en línea de comandos, como muchos entornos de UNIX y DOS, el uso de ESC permitía iniciar secuencias que controlaban directamente la pantalla o el dispositivo, más que el contenido del texto. Esa lógica se conserva en las “secuencias de escape ANSI” que todavía hoy emplean muchos emuladores de terminal. 

Misma tecla, utilidad para los usuarios

Pero no sólo para los "programadores" tenía sentido esta tecla, ya que la tecla ESC se volvió especial y ofrecía al usuario una forma rápida de recuperar el control cuando algo no iba como se esperaba. En muchas interfaces de usuario, los programadores decidieron darle una utilizad a nivel de usuario y comenzaron a interceptar esta tecla y darle una utilidad, por lo que pulsarla comenzó a significar para los usuarios mensajes de "cancelar, abortar o salir de una operación", lo que popularizó su fama de “botón de pánico”.

O para Philipe Lardy, que ha abierto una Quesería

Además, su posición fija en la esquina superior izquierda del teclado la hizo fácil de localizar sin mirar, lo que reforzó su papel como recurso inmediato ante errores o procesos indeseados. Con el tiempo, la metáfora de llamar a esta tecla como “escotilla de escape” se consolidó. Era y es una salida rápida para abandonar un estado incómodo del sistema del que no se sabe salir. Es decir, es como entrar y salir de una habitación.

En mis épocas de universitario, en la asignatura de "Sistemas Operativos", teníamos que programar un driver de teclado para un sistema UNIX, y había que controlar todas las posibles excepciones. El profesor, en la evaluación de la práctica se hacía un bonito paseo por la tecla ESC para ver si la habíamos tenido presente y si no... suspenso al canto.


Una anécdota llamativa en la historia reciente de la tecla ESC fue su desaparición física en algunos modelos de MacBook Pro, donde fue sustituida por un botón virtual en la Touch Bar. Este cambio generó debate entre usuarios y desarrolladores - incluido yo mismo que me tenía cabreadísimo no tener mi tecla de ESC - . Y la explicación era que se quería tener una tecla mecánica inmediata para cancelar acciones, y si genera secuencias de escape interpreta el sistema operativo, mejor que mejor.

Por suerte la polémica fue tal que versiones posteriores de portátiles de Apple recuperaron una tecla ESC física, lo que evidenció el apego emocional y práctico que la comunidad tiene a esta tecla. Yo la sigo utilizando, por supuesto.

Día Internacional de la tecla ESC

 Tanta fama tiene esta tecla que  se ha llegado a celebrar un “World ESCAPE Day” como reconocimiento a su relevancia histórica en la informática personal, que es.... a ver, a ver.. mira, justo hoy, así que aproveché a guardar este post hasta hoy por eso mismo.


Hoy en día, la tecla ESC sigue utilizándose para salir de la pantalla completa en navegadores y reproductores de vídeo, cancelar diálogos y detener ciertas operaciones en software de escritorio. En muchos programas de línea de comandos y editores de texto avanzados, continúa sirviendo para cambiar de modo, abortar comandos o volver a un estado neutro. Sin embargo, su presencia física se ve cuestionada en algunos dispositivos modernos, que tienden a interfaces táctiles o teclas programables, aunque el concepto de “escape” persiste como función lógica, incluso sin un botón dedicado.
Pese a todos estos cambios y transformaciones, la historia de ESC muestra cómo una pequeña tecla de control ha influido profundamente en la forma en que las personas interactúan con las máquinas, y la clave es que es fácil de entender para qué sirve, y está bien puesta. Un éxito del diseño de los interfaces de usuario que otras teclas como las Function Keys no han conseguido, a pesar de su clara utilidad.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  




☞ El artículo completo original de noreply@blogger.com (Chema Alonso) lo puedes ver aquí

Hemos convertido la tristeza en un trastorno psiquiátrico. Y eso es un problema que nos está devorando socialmente

Hemos convertido la tristeza en un trastorno psiquiátrico. Y eso es un problema que nos está devorando socialmente

Cuando Roland Kuhn descubrió el primer antidepresivo de la historia, la imipramina, los directivos de Geygi dudaron si ponerla en mercado porque la depresión era tan rara que no creían que pudiera llegar a ser un medicamento rentable (Healy, 1999). Eran los años 50 del siglo XX, pero parece una realdiad alternativa.

Hoy, la depresión es omnipresente. Solo en España, el consumo de antidepresivos ha crecido un 200% en los últimos quince años y no es sino el reflejo de una imparable tendencia internacional. ¿Cómo es posible que, en poco más de medio siglo, la depresión se haya convertido en algo "tan común"? ¿Estamos confundiendo la tristeza normal con un trastorno psiquiátrico, como dicen muchos expertos? ¿Estamos patologizando la vida cotidiana?

No voy a entrar en debates terminológicos, por muy interesantes y necesarios que puedan llegar a ser. Cuando se habla de "invención de las enfermedades mentales" o "patologización de la vida cotidiana" corremos el riesgo de minimizar problemas tan serios como la depresión y eso es algo que no está en cuestión. Al contrario, la idea es entenderla mejor para tratarla mejor.

Como decía el neurólogo Luis Querol, "si nos ceñimos al concepto convencional de enfermedad, cualquiera que haya visto SUFRIR a un depresivo melancólico [...] reconocerá que es una enfermedad". Es totalmente cierto: con eso basta por ahora. La depresión es un trastorno especialmente insidioso y destructivo. Según la OMS, no sólo se trata de la principal causa mundial de discapacidad, sino que afecta a 350 millones de personas y está detrás de 800.000 muertes cada año.

Sinopsis de una epidemia

Sin embargo, esto no explica por qué la depresión se ha convertido en una epidemia. Sobre todo, porque no es una enfermedad que "acabemos" de descubrir. La melancolía es uno de esos trastornos psiquiátricos tan viejos que ya fueron diagnosticados por Hipócrates y la medicina griega clásica.

Desde el siglo XIX, la tradición diagnóstica europea separaba la mayor parte de trastornos del ánimo de la melancolía profunda e incluía esta entre las enfermedades que acaban por consumir a la persona (como la demencia senil). A principios del siglo XX, la práctica psiquiátrica ya diferenciaba claramente entre depresión endógena o melancólica (que afectaba a entre un 1 y un 2% de los pacientes) y la reactiva o neurótica (mucho más común) que era producto del estrés, la pérdida o el dolor.

Photo 1675200317894 E52feaa03483 (Unsplash)

En 1980, en medio de una profunda crisis de reputación de la práctica psiquiátrica, el DSM-III cambió la forma en que concebíamos la depresión. Pasa de un modelos etiopatogénico (que se preguntaba por la causa de la enfermedad) a uno semiológico (que, en su pretensión de ateoricidad, se asentaba en la sintomatología). 

Una mirada poco atenta podría pensar que el cambio fue terminológico y que solo se sustituía "endógena" por "mayor" y "reactiva" por "distimia"; pero, en realidad, el DSM-III ampliaba el terreno de juego. La melancolía pasaba a ser uno de los cinco subtipos de la depresión mayor y, con ello, el trastorno depresivo base pasaba de tener una prevalencia de un 2% a una prevalencia de hasta el 17% (Kessler y otros, 2005).

En los últimos años, un buen número de historiadores (y activistas) han insistido que ese cambio y la presión comercial de las farmaceúticas (Horwitz y Wakefield, 2007) nos han llevado al sobrediagnostico actual de la enfermedad (Mojtabai, 2013Parker, 2007).

En su forma más fuerte, es un argumento difícil de rechazar. Sobre todo porque no es que se niegue la existencia de la depresión, sino que se argumenta que el fracaso de epidemiólogos, psiquiatras y científicos sociales a la hora de diferenciar 'tristeza normal' y 'trastorno depresivo' está llevando a políticas de salud que condenan muchas personas a medicarse innecesariamente y a cargar sobre sus espaldas el peso del estigma.

Porqués, dudas y conspiración

En el fondo, aunque no se suele decir claramente, estamos hablando de 'iatrogenia'; es decir, de un sufrimiento o daño para la salud causado por los propios profesionales sanitarios. La crisis actual de opiáceos en EEUU demuestra que, lejos de ser pura conspiranoia, las farmaceúticas y sus balances de resultados pueden crear un problema sanitario de dimensiones colosales.

Sin embargo, no debemos ser injustos, ni caer en un maniqueísmo banal. Aunque pueda parecer contraintuitivo y paradójico, muchos problemas solo aparecen cuando tenemos la solución a ellos. Sin antidepresivos ni terapias conductuales efectivas, la depresión era tristeza profunda, pena negra que brotasombra negra que me asombra. Algo que estaba entre nosotros y no había nada que pudiéramos hacer para evitarlo.

Photo 1548227725 0141254f3369 (Jacob Sedlacek/Unsplash)

Dicen Horwitz y Wakefield que "la tolerancia a emociones normales, pero dolorosas ha caído" en Occidente. Y puede ser verdad. Pero olvidan dos cosas fundamentales: que, por primera vez en la historia de la humanidad, podemos prescindir de ellas y que no es un problema personal, el mundo moderno ha tendido a priorizar el productivo optimismo y ha olvidado cómo convivir con la tristeza.

Llegados a este punto nos damos cuenta de que, si queremos aprender a separar mejor la "enfermedad" de la "normalidad", no se trata solo de impugnar el sobrediagnóstico depresivo, sino de reivindicar la tristeza. El problema es ese, ¿para qué querríamos reivindicar la tristeza? Y la respuesta, sinceramente, puede llegar a sorprendernos.

La tristeza, decía Lazarus (1991), promueve la reflexión personal después la pérdida. Centra nuestra mirada en nosotros mismos, promueve la resignación, invita a la aceptación (Izard, 1993). Nos permite perder tiempo para actualizar "nuestras estructuras cognitivas" (Welling, 2003);  es decir, para acomodarnos a la pérdida. 

Esa función reflexiva de la tristeza nos permite detenernos. Y sopesar acciones, revisar nuestras metas, modificar nuestros planes (Bonanno & Keltner, 1997Oatley y Johnson-Laird, 1996). Nos vuelve  más atentos al detalle, más precisos. Nos hace huir de las heurísticas y los estereotipos (Bodenhausen, Gabriel y Lineberger, 2000Schwarz, 1998) y desconfiar de las primeras impresiones (Schwarz, 2010).

La excitación fisiológica disminuye y nos hace más proclives para para el pensamiento lento (Overskeid, 2000). Además,  nos conforma como grupo. Provoca simpatía, empatía y altruismo en los demás (Keltner y Kring, 1998).

El complejo equilibrio entre la "normalidad" y la "enfermedad"

En 1843, Charles Darwin escribió una carta de pésame a un primo lejano en la que decía que "los afectos fuertes siempre me han parecido la parte más noble del carácter del hombre y la ausencia de ellos un fallo irreparable; quizás debiera consolarte saber que tu duelo es el precio necesario de haber nacido con ellos (porque estoy convencido de que no son aprendidos)".

Era, en realidad, una verdad a medias. Es cierto que los seres humanos nacemos con ciertas tendencias naturales, pero la cultura, la sociedad y la educación acaban por darles la forma definitiva. Hay muchos ejemplos que muestran cómo la distintas culturas han constreñido partes de la personalidad humana hasta hacerla casi patológica. La extraña forma de esperar el bus en Finlandia es divertida, pero no debemos olvidar que son solo una expresión de que un escandinavo tiene 13 veces más peligro de desarrollar 'ansiedad social' que un mediterráneo.

Photo 1584951899892 Ab77edd77a0e (Unsplash)

Como señalaba al principio, la depresión se trata de la principal causa mundial de discapacidad y su coste económico es de varias decenas de miles de millones de dólares solo en Estados Unidos (Wang, 2003). Además es profundamente dolorosa. Parece lógico (y humano, si me apuran) que haya una presión cultural para eliminar todo lo que tenga que ver con ella. Incluída la tristeza.

Sin embargo, si como señalan los investigadores, la tristeza tiene una función evolutiva que promueve actualizar nuestras estructuras cognitivas y nos permite adaptarnos a los cambios profundos de nuestro entorno, eliminarla podría ser un error. Sería, si me permiten la expresión, no dejar que cicatricen las heridas y eso, por muchos analgésicos que tomemos, deja marcas a nivel personal y social.

Ese, entre todo el ruido, es el problema de fondo. Cómo tratamos la depresión sin patologizar la tristeza y cómo convivimos con la tristeza sin descuidar la depresión. En resumen, se trata de un problema que siempre nos ha acompañado: cómo separar lo que nos mata de lo que nos hace más fuertes. Y en este campo nos queda mucho por aprender.

Imagen | Unsplash

En Xataka | Los nacidos entre 1950 y 1970 tienen una ventaja psicológica sobre las demás generaciones: están entrando en su "peak"

En Xataka | La generación Z es a un tiempo la más conectada y la que se siente más sola de la historia. Y no tiene nada de casual




-
La noticia Hemos convertido la tristeza en un trastorno psiquiátrico. Y eso es un problema que nos está devorando socialmente fue publicada originalmente en Xataka por Javier Jiménez .



☞ El artículo completo original de Javier Jiménez lo puedes ver aquí