13 de mayo de 2026

Google se ha puesto (aún) más exigente con los captchas. A la comunidad Open Source no le ha hecho ni pizca de gracia

Google se ha puesto (aún) más exigente con los captchas. A la comunidad Open Source no le ha hecho ni pizca de gracia

Una de las conversaciones del fin de semana ha estado protagonizada por desarrolladores de peso, como los de GrapheneOS. Las nuevas medidas de seguridad de Google relacionadas con el acceso a webs están empezando a implementarse en 2026 y, como resultado, tanto custom ROMs como sistemas operativos sin presencia de Google lo tienen crudo.

Google Cloud Fraud. Si a alguien le parecen bien los captchas de semáforos como medida de seguridad, te diría que no es de fiar. Google también tuvo claro que no siempre eran lo ideal, así que desarrolló una solución alternativa, la evolución de reCAPTCHA. Cuando el sistema detecta tráfico sospechoso no utiliza el sistema de captchas, pide al usuario que escanee un código QR con su smartphone.

Según Google, es la mejor forma de luchar contra bots y agentes no deseados, protegiendo ante ataques y posibles fraudes. Pero todo tiene una cara B. 

El problema. El problema es que, para que esta medida de seguridad funcione en Android, es obligatorio que el dispositivo cuente con Google Play Services instalado en una versión reciente. Uno de los puntos clave de las custom ROM como GrapheneOS es, precisamente, que son sistemas basados en Android Open Source, pero sin servicios de Google.

Google Play Services es la capa de software propietaria de Google que corre en los Android certificados y que proporciona, entre otras cosas, las APIs que verifican que un dispositivo está aprobado por Google. Sin ellos, no es posible satisfacer las peticiones de Play Integrity API, la encargada de aprobar los accesos a web.

El caso GrapheneOS. GrapheneOS es una de las ROMs más seguras del mundo, una que se ha ganado su reputación gracias a capas adicionales construidas sobre AOSP y, sobre todo, por no disponer de servicios de Google ni necesitarlos para su funcionamiento.

El equipo de GrapheneOS argumenta que esto no tiene nada que ver con la seguridad. Aseguran que Play Integrity API rechaza GrapheneOS y demás sistemas a pesar de que es técnicamente más seguro que la mayoría de dispositivos que sí pasan la verificación. Google's Play Integrity API permite dispositivos sin parches de seguridad desde hace años pero actualizados a Play Services, pero bloquea el uso de GrapheneOS a pesar de que es mucho más seguro a nivel técnico.

La entrada de Mega. Tras la queja no solo de Graphene, sino de Cyber Digest, Mega ha entrado a criticar la medida. Recuerda que en 2023 se intentó hacer algo similar con Web Enviroment Integrity (WEI). Esta fue una propuesta que Google tuvo que abandonar tras las críticas.

Ese año, Google trató de poner en marcha un mecanismo que permitiría a los sitios web comprobar si el software y el hardware del dispositivo del usuario estaban verificados por Google. La lógica era la misma que ahora: si tu configuración no se ajustaba a lo que Google consideraba aceptable, el acceso quedaba bloqueado. La propuesta generó un rechazo tan amplio entre desarrolladores, organizaciones de estándares web y usuarios que Google tuvo que retirarla. 

Y ahora qué. La pregunta relevante no es si Google está legitimada o no a hacer esto, porque lo está. La pregunta es qué ocurre cuando el estándar de facto para verificar en internet lo controla la misma empresa que vende el hardware y el software necesarios para superarlo. 

En Xataka | Hay una carrera por conseguir el primer teléfono con un software 100% libre: hasta ahora solo ha habido fracaso


-
La noticia Google se ha puesto (aún) más exigente con los captchas. A la comunidad Open Source no le ha hecho ni pizca de gracia fue publicada originalmente en Xataka por Ricardo Aguilar .



☞ El artículo completo original de Ricardo Aguilar lo puedes ver aquí

Estudio confirma presencia de químicos antropogénicos en todo el océano a nivel mundial

La contaminación química marina ya no es un fenómeno localizado. Un estudio liderado por la Universidad de California, Riverside, confirmó la presencia extendida de compuestos antropogénicos —sustancias producidas por actividades humanas— en ecosistemas marinos de todo el planeta, incluyendo áreas consideradas remotas y prístinas, como la Patagonia chilena.

La investigación, publicada en la revista científica Nature Geoscience, constituye uno de los análisis más completos realizados hasta ahora sobre contaminación química en ambientes costeros y oceánicos. El trabajo recopiló y analizó muestras de agua marina recolectadas durante una década en distintos puntos de los océanos Pacífico, Atlántico e Índico.

Entre las expediciones consideradas destaca Taitao, desarrollada en 2018 a bordo del buque oceanográfico AGS-61 Cabo de Hornos, donde participaron el Dr. Silvio Pantoja, investigador del Centro COPAS Coastal, y el entonces tesista Dr. Cristóbal Castillo, junto a la Dra. Lihini Aluwihare, del Instituto Oceanográfico Scripps de la Universidad de California.

Confirmando una presencia invisible

Los resultados sorprendieron al equipo científico, ya que evidenciaron que los químicos antropogénicos presentes en el océano son mucho más abundantes y diversos de lo documentado previamente. Según el estudio, prácticamente todas las muestras analizadas presentaron señales de contaminación química asociada a actividades humanas.

“Este estudio representa uno de los análisis más completos sobre contaminantes en ambientes costeros y oceánicos, y evidencia que la huella humana, antes invisible, está presente en el océano global”, señaló Silvio Pantoja respecto a la investigación colaborativa liderada por los bioquímicos Daniel Petras y Jarmo Kalinski.

Buque Cabo de Hornos

El equipo realizó un meta-análisis de 21 bases de datos públicas obtenidas mediante espectrometría de masas no dirigida, una técnica avanzada que permite detectar miles de compuestos químicos presentes en el agua sin limitarse a una lista predefinida. En total, se analizaron 2.315 muestras marinas recolectadas en diversos ambientes oceánicos y costeros alrededor del mundo.

La investigación detectó cerca de 260 compuestos orgánicos antropogénicos, incluyendo moléculas asociadas a productos industriales, pesticidas, fármacos y aditivos químicos presentes en plásticos y lubricantes. Los científicos identificaron, además, sustancias como ftalatos, organofosforados y polialquilenglicoles distribuidas ampliamente en distintos ecosistemas marinos, incluso lejos de las zonas urbanas o industriales.

“Prácticamente, no hubo ningún lugar en el que tomáramos muestras que no mostrara influencia química humana”, afirmó Kalinski.

Contaminantes que viajan por el océano

Uno de los hallazgos más relevantes fue la diferencia en la distribución de los contaminantes. Los pesticidas y productos farmacéuticos aparecieron principalmente en zonas costeras y estuarios, disminuyendo gradualmente hacia mar abierto. En contraste, ciertos compuestos industriales mostraron una presencia mucho más persistente y extendida, evidenciando la capacidad de algunos contaminantes para transportarse a escala global mediante corrientes oceánicas y procesos atmosféricos.

El estudio identificó 248 compuestos xenobióticos anotados, los cuales representaron una mediana del 2% de toda la materia orgánica disuelta detectada en las muestras marinas. En ambientes costeros, esta contribución alcanzó hasta un 20%, mientras que en el océano abierto descendió a aproximadamente un 0,5%.

Para Cristóbal Castillo, uno de los próximos desafíos científicos será comprender el comportamiento y degradación de estas sustancias en el océano. “Personalmente, me gustaría profundizar en la capacidad microbiana para metabolizar moléculas de difícil degradación, con miras a proyectos de biorremediación”, explicó.

Medidas desde tierra

Los investigadores enfatizan que la prevención desde ambientes terrestres será clave para reducir el ingreso de estos contaminantes al océano. Gran parte de los compuestos detectados provienen de productos de consumo cotidiano, plásticos, pesticidas, lubricantes y residuos industriales.

“Encontramos que los pesticidas y los productos farmacéuticos e industriales son más abundantes cerca de la costa, disminuyendo hacia el océano abierto. Esto significa que debemos tomar medidas en el ambiente terrestre. Por ejemplo, aplicar tratamientos específicos para minimizar la entrada de contaminantes al ambiente costero”, señaló Pantoja.

El científico advirtió además que remover contaminantes una vez dispersos en el océano resulta extremadamente complejo y costoso. “Cuando los contaminantes llegan al océano, se agravan los problemas”, concluyó.

Si bien los autores reconocen que este análisis es preliminar, esperan que sirva como base para futuras investigaciones sobre los efectos acumulativos de la contaminación química en ecosistemas marinos, microorganismos oceánicos y cadenas tróficas. Las bases de datos generadas quedaron disponibles públicamente en el repositorio MassIVE para que otros equipos científicos continúen profundizando en el estudio de la contaminación química global.

La entrada Estudio confirma presencia de químicos antropogénicos en todo el océano a nivel mundial se publicó primero en Revista Ecociencias.



☞ El artículo completo original de Revista Ecociencias lo puedes ver aquí

Los pulmones tienen una increíble capacidad para regenerarse tras dejar el tabaco. Pero el tiempo juega en contra

Los pulmones tienen una increíble capacidad para regenerarse tras dejar el tabaco. Pero el tiempo juega en contra

Fumar no es para nada sano y menos para nuestros pulmones, que se ven severamente afectados en su estructura por el daño lesivo del tabaco o al final de cualquier sustancia que no sea oxígeno. Esto es algo que está bastante bien interiorizado, pero la otra realidad es que cuando dejamos el tabaco podemos recuperar algo de lo perdido debido a su gran capacidad de regeneración impulsada por unas células sanas que reemplazan a las dañadas. 

Hay pruebas. El gran punto de inflexión en nuestra comprensión de este fenómeno llegó con un estudio pionero publicado en Nature en 2020, donde se analizaban las células que recubren nuestros bronquios entre fumadores, exfumadores y personas que nunca habían tocado un cigarrillo. 

Aquí lo que encontraron fue fascinante, puesto que vieron que en los pulmones de los fumadores había una gran cantidad de células que estaban mutadas y podían ser la antesala a un cáncer pulmonar. Sin embargo, al dejar este mal hábito, un grupo de células no mutadas y genéticamente similares a las de los no fumadores comenzaba a proliferar rápidamente.

Es una buena noticia. Entonces, en este momento las células sanas, que habían permanecido "escondidas" o protegidas del humo, se comienzan a multiplicar para sustituir a las dañadas que acaban muriendo para evitar que hagan un cáncer.

Aquí el estudio apuntó que hasta el 40 % de las células pulmonares en exfumadores son estas nuevas células de reemplazo, y lo más importante es que este proceso de reparación ocurre incluso en personas que han fumado un paquete diario durante 40 años, que es muchísimo. Es por eso que esta es la explicación que encontramos a la caída en picado del riesgo de padecer cáncer de pulmón tras dejar de fumar, aunque no se elimina lógicamente. 

La cronología. La regeneración no es solo genética, sino que también es mecánica y funcional, y lo vemos claramente en los diferentes eventos que van ocurriendo cuando se deja el tabaco. Por ejemplo, en las primeras 24 horas se produce una normalización de los niveles de monóxido de carbono en sangre y se va notando el efecto en la capacidad respiratoria o incluso en la tensión arterial. 

Semanas posteriores comienza la recuperación del tejido y la regeneración de los cilios, que son pequeñas "escobas" en los pulmones para poder expulsar el moco que se va acumulando hacia arriba, haciendo que se reduzcan drásticamente las infecciones respiratorias. Pero si nos vamos al primer año, vemos como la capacidad pulmonar experimenta una mejora medible en una espirometría. 

Hay que ser cautos. Pese a las buenas noticias, los expertos y sociedades como SEPAR son prudentes al apuntar que la regeneración pulmonar es parcial, no total. Esto quiere decir que el pulmón no vuelve a ser exactamente el de un recién nacido, y existen daños estructurales que son irreversibles.

Enfermedades como el enfisema o la fibrosis avanzada persisten, ya que el tejido destruido en esos niveles no puede regenerarse. Asimismo, en el caso de la EPOC dejar de fumar frena o enlentece significativamente la progresión de la enfermedad, pero no cura el daño obstructivo severo ya instaurado.

La edad influye. La capacidad de regeneración también disminuye con la edad y con los años acumulados como fumador. Las células sanas terminan dominando el epitelio tras años de abstinencia, pero siempre quedan riesgos residuales que no desaparecen. 

Esto nos debe hacer concienciarnos sobre lo importante que es dejar de fumar cuanto antes mejor para poder tener muchas menos 'papeletas' de tener una enfermedad grave en nuestro pulmón, como un cáncer. 

Imágenes | wirestock en Magnific

En Xataka | Más allá del tabaco: acabamos de descubrir que la alimentación también puede afectar al riesgo de desarrollar cáncer de pulmón

-
La noticia Los pulmones tienen una increíble capacidad para regenerarse tras dejar el tabaco. Pero el tiempo juega en contra fue publicada originalmente en Xataka por José A. Lizana .



☞ El artículo completo original de José A. Lizana lo puedes ver aquí

Fortinet corrige dos fallos críticos que permiten ejecución remota de código

Fortinet ha publicado dos avisos críticos que afectan a FortiAuthenticator y FortiSandbox, dos productos muy presentes en entornos corporativos. Ambos fallos pueden explotarse sin autenticación previa y abren la puerta a la ejecución de código o de comandos no autorizados, un escenario que obliga a revisar versiones y acelerar el despliegue de parches.

La compañía dio a conocer los avisos este 12 de mayo y la lectura, más allá del detalle técnico, es bastante directa: no se trata de fallos menores ni de esos problemas que pueden dejarse para la siguiente ventana de mantenimiento. En los dos casos, la propia documentación de Fortinet describe un escenario en el que un atacante no autenticado puede lanzar peticiones manipuladas para ejecutar código o comandos sobre sistemas vulnerables, una combinación especialmente delicada cuando estos equipos están expuestos o cumplen funciones críticas dentro de la red.

El primero de los fallos es CVE-2026-44277, una vulnerabilidad de control de acceso incorrecto en la API de FortiAuthenticator. Según el aviso oficial, afecta a las ramas 6.5, 6.6 y 8.0 en varias versiones concretas y queda corregido al actualizar a 6.5.76.6.9 y 8.0.3. La buena noticia para quienes usan la edición en la nube es que FortiAuthenticator Cloud no está afectado.

El segundo es CVE-2026-26083, un fallo de autorización insuficiente en la interfaz web de FortiSandboxFortiSandbox Cloud y FortiSandbox PaaS. En este caso, el problema también puede aprovecharse sin credenciales válidas mediante solicitudes HTTP manipuladas. Fortinet indica que las instalaciones locales afectadas deben actualizar, como mínimo, a FortiSandbox 5.0.2 o 4.4.9, mientras que en las variantes cloud y PaaS la recomendación pasa por migrar a una versión ya corregida.

La severidad no sorprende. Tanto FortiAuthenticator como FortiSandbox ocupan posiciones sensibles dentro de muchas arquitecturas empresariales: el primero en la capa de identidad y control de acceso, el segundo en tareas de análisis y contención de ficheros sospechosos. Cuando una vulnerabilidad de este tipo afecta a piezas tan centrales, el problema deja de ser solo técnico y pasa a ser operativo. No hace falta explotación masiva confirmada para que el parcheo suba al primer nivel de prioridad.

De hecho, el contexto tampoco invita a relajarse. BleepingComputer recuerda que los fallos en productos de Fortinet han sido aprovechados en otras ocasiones por actores ligados al ransomware y al espionaje, y que este fabricante acumula un historial reciente de vulnerabilidades críticas que han acabado entrando en circuitos de explotación reales. En esta ocasión, la firma no ha marcado estos dos fallos como explotados activamente, pero esa ausencia de evidencia pública no equivale a riesgo bajo cuando hablamos de dispositivos y plataformas que suelen estar muy expuestos.

Para los administradores, la recomendación práctica es clara. Conviene revisar de inmediato las versiones desplegadas, confirmar si existe exposición externa de estas consolas o servicios y adelantar la actualización allí donde sea posible. Si el parcheo no puede aplicarse en el corto plazo, tiene sentido reforzar controles perimetrales, restringir el acceso administrativo a segmentos de confianza y revisar la telemetría disponible para detectar peticiones anómalas contra las interfaces afectadas.

Los dos avisos publicados por Fortinet no describen un incidente abierto, pero sí un riesgo serio y muy utilizable si los sistemas siguen sin actualizar. En productos que gestionan autenticación y análisis de amenazas, una vulnerabilidad crítica sin autenticar merece muy poco margen. La mejor respuesta, en este caso, sigue siendo la de siempre: comprobar versiones, parchear cuanto antes y no dar por hecho que la falta de explotación pública ofrece tiempo de sobra.

Más información

La entrada Fortinet corrige dos fallos críticos que permiten ejecución remota de código se publicó primero en Una Al Día.



☞ El artículo completo original de Hispasec lo puedes ver aquí

Si la pregunta es si usar ChatGPT o Claude en inglés es más eficiente y ahorra tokens, la respuesta es: yes

Si la pregunta es si usar ChatGPT o Claude en inglés es más eficiente y ahorra tokens, la respuesta es: yes

Puede que no te hayas parado a pensarlo, pero hay una realidad llamativa en el mundo de los chatbots: es más caro hablar en español con la IA que hacerlo en inglés

La razón es sencilla: la IA no entiende de palabra, entiende de tokens. Y cuando hablas con GPT, Gemini, Claude o cualquier otro LLM, tú le hablas en un idioma, pero para entenderte él primero "traduce" lo que le estás diciendo y lo convierte en tokens. Y el problema es precisamente ese: que no todos los idiomas "cuestan" lo mismo en términos de tokens.

Tokens

Hay un ejemplo muy sencillo que podemos analizar gracias a herramientas como ClaudeTokenizer: la palabra "desarrollador", que en inglés es "developer" cuesta pocos o muchos tokens según el idioma en que la escribamos y también (importante) la versión del modelo de IA utilizada. En la imagen se ve claramente, pero por si acaso, resumimos:

  • Para ChatGPT (GPT-4o y GPT-5) la palabra "desarrollador" tiene tres tokens (des-arroll-ador),  pero la palabra "developer" solo cuesta uno.
  • Para Claude (Opus 4.7) la palabra "desarrollador" cuesta nada menos que 9 tokens (2 en Opus 4.6), pero "developer" cuesta "solo" 6 (1 en Opus 4.6).

¿Qué está pasando aquí?

Pues que cada modelo de lenguaje utiliza su propio "tokenizador", su "traductor" de un idioma convencional al idioma de tokens que entiende el modelo de lenguaje. Y esos tokenizadores favorecen precisamente los idiomas en los que estos modelos están creados. 

Tokensgpt Así entiende la IA cómo hablamos. Cada palabra se divide en tokens, y el inglés se entiende mucho mejor. "developer" solo cuesta un token en GPT-5, pero "desarrollador" se descompone en tres. Malas noticias para los hispanoparlantes.

De hecho, el inglés se ha convertido en el idioma oficial de la inteligencia artificial, lo queramos o no. La razón no es cultural, sino arquitectónica: el 95% de los datos de entrenamiento de los modelos frontera (GPT-5, Gemini 3.1, Claude Opus/Sonnet 4.7...) están en ese idioma.

Eso hace que el resto de idiomas sean "idiomas extranjeros", y eso hace necesario que al usarlos uno pague un extra, un peaje casi invisible en cada interacción. En términos prácticos, lo que pasa cuando usamos el español para hablar con un modelo de IA es sencillo: usamos más tokens, y por tanto usar español es sencillamente más caro que usar el inglés al trabajar con un gran modelo de lenguaje.

Si quieres ahorrar tokens, mejor usa el inglés

La pregunta, claro, es ¿Cuánto más nos cuesta hablar en español que en inglés con ChatGPT (GPT 5.x) o con Claude Opus 4.7? 

Es difícil decirlo porque cada palabra y cada frase es un mundo, pero lo cierto es que el inglés suele ser casi siempre el más "económico". Hemos utilizado una de las primeras frases de este artículo para comparar ese consumo de tokens, y al traducir la frase a distintos idiomas y consultar ese consumo en tokens para distintos modelos, los datos son claros.

Captura De Pantalla 2026 05 11 A Las 9 49 10

Es importante destacar que estos resultados no son concluyentes, pero sí dejan clara la tendencia: el inglés es el idioma más eficiente en cuanto a consumo de tokens, pero cuidado, porque el español no está tan mal, y suele ser el segundo más eficiente. Incluso es más eficiente que el inglés en Gemini, al menos según la herramienta consultada.

Pero de media lo normal es que haya un sobrecoste llamativo al usar distintos modelos. Una conversación con Claude Opus 4.7 ya es "cara" porque es uno de los modelos más caros actualmente, pero en español es casi un 30% más cara, y no digamos en árabe, un 76,3% más cara. 

De hecho según este ejemplo la diferencia entre Claude o GPT-4o en cuanto a eficiencia es clara: el tokenizador de OpenAI es "más económico", y aunque puede haber diferencias con GPT-5.x, lo que parece claro es que en Anthropic han preferido "gastar más" para obtener mejores resultados (o ese es el objetivo). Gemini es aún más ahorrador según estas pruebas, y puede que eso también tenga mucho que ver con la calidad de las respuestas, aunque esa cuestión da para otro tema.

Idiomas Hemos usado uno de los párrafos de este artículo en español y lo hemos tradudcido con Deepl al inglés, árabe, noruego, francés y chino para saber cuántos tokens "costaba" la frase en cada idioma. El inglés es sin duda el más eficiente


Los tokenizadores avanzan y evolucionan. Algunas veces lo hacen para ahorrarnos tokens, como pasó con el tokenizador de GPT-4o: en aquel momento OpenAI explicaba cómo esa herramienta usaba 1,1 veces menos tokens al hablar con ella en español pero hasta 2,9 veces menos en hindi o 3,5 veces menos en telugu. Con Claude Opus 4.7 ha pasado justo lo contrario: el tokenizador se ha rediseñado y consume más tokens (hasta 1,35 veces más, admitían) con el objetivo de procesar y entender mejor el texto. 

Tu chatbot piensa (y programa) en inglés

Aquí hay que destacar también algo importante: aunque podemos hablar con nuestro chatbot preferido en cualquier idioma y él nos contestará en ese idioma (salvo que le pidamos otra cosa), los modelos de IA "piensan en inglés".

Es decir: cuando tú conversas con ellos lo que hacen es traducir lo que les dices para luego razonar en inglés y finalmente traducen su respuesta al idioma en el que les estabas hablando. Eso consume tokens de razonamiento adicionales, pero además también tiene cierto impacto en la latencia (lo que tarda en empezar a pensar o en contestar el modelo). En tareas complejas eso puede influir claramente en los tiempos de respuesta por la sencilla razón de que el modelo de IA no para de traducir de "su idioma oficial" (el inglés) a nuestro idioma.

Esa preferencia por el inglés se nota también en los benchmarks: en el Humanity's Last Exam, en el que se realizan a los modelos todo tipo de preguntas de conocimientos generales con varias opciones para contestar, es razonable pensar que los modelos contestan mejor en inglés porque ese examen está diseñado en ese idioma. 

En tareas de programación ese uso del inglés también favorece los resultados. Hay estudios específicos que tratan el tema y dejan claro que si estás usando IA para programar, no es mala idea que "le hables" en inglés directamente. La razón sigue siendo la misma que habíamos mencionado: la inmensa mayoría de los datos de entrenamiento de programación precisamente están en inglés porque este ya era de facto el "idioma oficial" de los programadores antes de que apareciese la IA.

También hay diversos estudios que confirman desde hace años que el inglés es el idioma más eficiente a la hora de conversar con modelos de IA, pero también apuntaban a cómo soportar mejor varios idiomas puede contribuir a que el uso multiidioma sea no solo factible, sino eficiente. 

En este estudio del junio de 2025 de investigadores de Microsoft, los autores indicaban precisamente eso:  "el prompting multiidioma puede reducir el uso de tokens entre un 20 y un 40% sin que la precisión se vea comprometida, lo que plantea una estrategia simple y efectiva para mejorar la eficiencia de la inferencia sin necesidad de un reentrenamiento". 

En ese estudio se usaban modelos como Qwen o DeepSeek para indicar que razonar en español o en chino podía ser más eficiente, pero cuidado, porque insistimos: cada modelo es un mundo y lógicamente los modelos desarrollados en EEUU tienen una preferencia absoluta por el inglés en cuanto a datos de entrenamiento.

Pero entonces, ¿uso el inglés o puedo seguir en español?

Si uno se fija en esos datos, la conclusión parece clara: si podemos, deberíamos hablar con la IA en inglés directamente. La realidad es algo distinta.

Captura De Pantalla 2026 05 11 A Las 10 34 45 Cuando uno usa modelos de IA mediante las APIs (pagas lo que usas), quizás no es mala idea intentar usar el inglés para hablar con estos modelos. En la imagen, los precios para distintos modelos de Anthropic.

Sobre todo, porque los precios de uso de la IA no paran de caer y eso hace que el sobrecoste del uso de tokens que se usan al hablar en español sea probablemente irrelevante para el uso doméstico. No solo eso: la mayoría de usuarios aprovechan planes mensuales como ChatGPT Plus o Claude Pro (por ejemplo), y en esos planes tenemos una especie de "pseudotarifa plana".

Estos planes no son ilimitados, desde luego, y si los usamos de forma intensiva nos encontraremos con el temido "lo siento, tendrás que esperar hasta dentro de cinco horas para poder volver a seguir usando este modelo". Sin embargo llegar a esos límites es complicado para un uso moderado, y aquí usar los modelos en inglés o en español no es demasiado importante

Es cierto que en algunos ámbitos usar el inglés tiene ventajas, no solo a nivel de eficiencia (los tokens "nos duran" más), sino también de precisión. Eso puede ocurrir en tareas más complejas como la programación, y ahí usar prompts en inglés puede ayudar a obtener resultados que quizás en español u otros idiomas no acabamos de obtener. 

Las cosas cambian un poco si usamos modelos de IA mediante las APIs de estas plataformas. Aquí no hay pseudotarifas planas, y uno paga por lo que usa, así que ahorrar en tokens puede llegar a ser importante sobre todo si somos usuarios intensivos (y si usamos APIs suele ser porque los modelos se usan de forma especialmente intensiva). Ahí sí puede ser interesante utilizar los modelos directamente en inglés, porque eso lo notaremos claramente en el bolsillo. 

En Xataka | La “economía de los tokens” se ha roto: las tarifas planas de IA para programar son matemáticamente insostenibles

-
La noticia Si la pregunta es si usar ChatGPT o Claude en inglés es más eficiente y ahorra tokens, la respuesta es: yes fue publicada originalmente en Xataka por Javier Pastor .



☞ El artículo completo original de Javier Pastor lo puedes ver aquí