8 de diciembre de 2025

Para pillar a los estudiantes que hacen trampas con ChatGPT un profesor ha preparado su particular Caballo de Troya. Y funciona

Para pillar a los estudiantes que hacen trampas con ChatGPT un profesor ha preparado su particular Caballo de Troya. Y funciona

No es ningún secreto que la inteligencia artificial es la chuleta perfecta. Es cierto que la IA es magnífica para aprender conceptos que no sabes y prepararte para un examen, pero también es cierto que afecta a la forma de aprender y no bien precisamente. Ahora, si lo que quieres es trabajar menos, copiando trabajos o resolviendo preguntas de examen, es coser y cantar.

La de los trabajos es una cuestión peliaguda: diseñados para que el alumnado parta de una base teórica impartida en clase para interiorizarla, buscar fuentes ajenas y preparar un informe teniendo que organizar y sintetizar conceptos, eso se acabó. Si quieres hacerlo moderadamente rápido y bien (aquí depende de tu pericia con los prompts): se lo pides a ChatGPT, copias, pegas y a funcionar

En ese escenario el profesorado se está encontrando con que mandar trabajos ya no sirve. Pero igual que el alumnado recurre a la tecnología para la pillería, sus docentes también. ¿Cómo? Insertando instrucciones invisibles destinadas a pillar a los listillos.

Unas instrucciones invisibles para el ojo humano pero no para la IA

La historia la cuenta en primera persona Will Teague, un profesor universitario adjunto que lleva una década impartiendo clases de Historia. Data de 2023 (cabe recordar que ChatGPT se lanzó en noviembre de 2022) el momento en el que empezó a encontrar entregas hechas total o parcialmente con IA. Según sus palabras, antes las herramientas antiplagio funcionaban frente al copia y pega de Wikipedia, pero ahora fallan más que una escopeta de feria frente ChatGPT y similares.

Como en muchos casos solo tenía sospechas pero no pruebas a las que agarrarse, optó por una solución artesanal: introducir en los enunciados bloques de texto que son invisibles al ojo humano pero legibles para una IA cuando el alumno le proporciona el enunciado completo. Estos mensajes ocultos incorporaban una instrucción extra que daba el cante, como por ejemplo adoptar una lectura marxista del libro analizado. 

Y pone un ejemplo: un trabajo de primero de carrera del libro 'Gabriel's Rebellion', una obra que narra el intento de rebelión de esclavos en el año 1800 ubicado en Estados Unidos. De los 122 trabajos entregados, 33 tenían un enfoque marxista. Tras invocar a la honestidad a su alumnado, logró que otros 14 estudiantes confesaran haber usado IA. Casi un 40% de estudiantes había hecho trampas.

Por si fuera poco, algunos alumnos señalados como culpables de haber hecho trampas explicaban que simplemente estaban usando un estilo 'demasiado correcto', pero no fueron capaces de dar una explicación sobre esa perspectiva marxista. Premeditación y alevosía.

Hemos llegado a un punto tal que la American Historical Association no recomienda prohibir el uso de la IA, sino formar a los estudiantes en el análisis crítico de ensayos generados por máquinas. Pero Teague tiene sus reservas: si no tienen la base para comprenderlo, ¿cómo van a evaluarlo? Que no exista una normativa específica generalizada hace más compleja de abordar esta cuestión, más cuando hay alumnado que no siente que está haciendo trampa: considera que la IA les ayuda a sintetizar y redactar.

Después del varapalo de descubrir que el 40% de su clase hacía trampas con IA, les pidió leer un ensayo crítico sobre la IA. De las 47 persona implicadas, 36 entregaron este segundo trabajo y solo uno recurrió a la IA, según las pesquisas del profesor. En las entregas, alguna reflexión que da qué pensar: hay alumnado con miedo a no escribir lo suficientemente bien sin la IA

En Genbeta | El gran problema de usar la inteligencia artificial como estudiante no son las trampas: el drama está en el proceso de aprendizaje

En Genbeta | He probado el nuevo modo estudio de ChatGPT y lo tengo claro: este curso los profes particulares lo van a tener crudo

Portada | Shantanu Kumar en Pexels

-
La noticia Para pillar a los estudiantes que hacen trampas con ChatGPT un profesor ha preparado su particular Caballo de Troya. Y funciona fue publicada originalmente en Genbeta por Eva R. de Luis .

]]>

☞ El artículo completo original de Eva R. de Luis lo puedes ver aquí

Unos investigadores quitaron Instagram y TikTok a 300 jóvenes para ver si su ansiedad bajaba. Los resultados hablan solos

Unos investigadores quitaron Instagram y TikTok a 300 jóvenes para ver si su ansiedad bajaba. Los resultados hablan solos

El debate sobre si las redes sociales son el nuevo tabaco para la salud mental de la generación Z lleva años encendido. Son muchos los jóvenes que no pueden estar sin ver TikTok completando la racha con sus amigos, subiendo historias de lo que comen a Instagram o simplemente alejados del móvil. Y esto es algo que puede ser tremendamente perjudicial. 

Lo que sabíamos. Hasta ahora podíamos hacernos una de ella, y sin duda los padres recuerdan este mensaje cuando se pasa muchas horas delante del teléfono. Incluso las empresas ofrecen las herramientas para poder limitar la cantidad de tiempo que pasamos en una app e incluso nos aplica límites. 

Con números. Pero ahora la ciencia ha dado luz a este problema con un estudio publicado en JAMA Network Open que arroja datos concretos. La premisa fue sencilla: pedir a un grupo de jóvenes adultos (de 18 a 24 años) que redujeran su consumo de redes sociales durante esta semana. Una vez hecho, se quería ver si se disminuían los síntomas de ansiedad, depresión o insomnio. 

Y es que precisamente el uso excesivo de las redes sociales está relacionado con la depresión, puesto que genera aislamiento social, baja autoestima, ciberacoso o incluso trastornos del suelo por los efectos de la luz azul de la pantalla. Entonces... ¿Dejando el móvil también se mejora la calidad de la vida de los jóvenes?

El estudio. Para hacerlo no solo se centraron en lo que los usuarios decían que hacían con sus teléfonos móvil, puesto que mentir puede ser muy sencillo en este caso. Lo que hicieron fue registrar de manera pasiva lo que se hacía con el teléfono a través de la técnica 'fenotipado digital'. 

En total fueron 373 participantes los que formaron de este estudio, de los cuales solo 295 pudieron acabar la intervención, que era completamente voluntaria. Solo debían reducir el consumo durante una semana de las redes sociales principales: Facebook, Instagram, Snapchat, TikTok y X. 

Los resultados. En pocas palabras, los resultados mostraban una mejora clínica significativa entre áreas clave tras solo siete días. Los datos apuntaban a que los síntomas de depresión se reducían en un 24,8%, en la ansiedad el 16,1% y los problemas de sueño cayeron un 14,5%. 

Curiosamente, el estudio encontró que los efectos eran mucho más pronunciados en aquellos participantes que ya presentaban síntomas de depresión moderada o severa al inicio del experimento.

No se suelta el móvil. A priori se puede llegar a pensar que cuando un joven dejas las redes sociales apartadas automáticamente, el móvil no le servirá absolutamente nada. Pero nada más lejos de la realidad. El fenotipado digital reveló que, aunque el uso de redes sociales cayó de unas 2 horas diarias a solo 30 minutos, el tiempo total de pantalla aumentó ligeramente en un 4,5% y los participantes pasaron un 6,3% más de tiempo en casa.

De esta manera, los usuarios sustituyeron el scroll infinito de TikTok por otras actividades digitales como por ejemplo mensajería, navegación a través de internet o también jugar. Sin embargo, a pesar de seguir pegados a la pantalla, la salud mental mejoró. 

Esto refuerza una teoría que gana peso entre los expertos: el problema no es la pantalla en sí, sino cómo la usamos. El estudio señala que el tiempo de uso objetivo tiene una asociación débil con la salud mental, puesto que realmente daña es el "uso problemático", como la comparación social negativa o la adicción emocional a las plataformas.

Apps más fáciles de dejar. Todos podemos tener más 'cariño' por una red social en concreto, que seguramente sea más difícil de dejar de usar. En este caso se vió que a los usuarios le resultaba más sencillo reducir el tiempo que invertían en TikTok o en X. Pero Instagram o Snapchat fueron los "huesos duros" a batir. 

En concreto, el 67,8% de los usuarios de Instagram y el 48,8% de los de Snapchat no lograron cumplir con la reducción y siguieron usándolas significativamente durante el proceso de desintoxicación.

No es un tratamiento. Aunque los porcentajes suenan a victoria, es necesario mantener el escepticismo científico habitual. El Dr. John Torous, coautor del estudio, advierte en declaraciones recogidas por el New York Times que reducir las redes "ciertamente no sería tu primera o única forma de tratamiento [en los problemas de salud mental]", aunque vale la pena experimentar con ello.

Esto se centra en que el estudio tiene algunas limitaciones como la inexistencia de un grupo de control de referencia y tampoco se vio cuánto tiempo duró el proceso de desintoxicación de las redes sociales. Pero lo que no mejoró fue la soledad, puesto que eliminar estas redes sociales en las personas puede tener un efecto contrario al cortar también el vínculo de conexión que los une con otras personas. 

Imágenes | Panos Sakalakis Vitaly Gariev

En Xataka | Las redes sociales fueron un día un lugar donde contar nuestras vidas. Ahora la tendencia es otra: "cero posts"


-
La noticia Unos investigadores quitaron Instagram y TikTok a 300 jóvenes para ver si su ansiedad bajaba. Los resultados hablan solos fue publicada originalmente en Xataka por José A. Lizana .

]]>

☞ El artículo completo original de José A. Lizana lo puedes ver aquí

Este gráfico expone el consumo de café per cápita y nos deja una pregunta inquietante: qué pasa en Luxemburgo

Este gráfico expone el consumo de café per cápita y nos deja una pregunta inquietante: qué pasa en Luxemburgo

Sea por sus efectos energéticos, por sus beneficios en el organismo o hasta por sus efectos psicológicos, el café es la segunda bebida más consumida en el mundo. Es uno de los motores de la economía de países como Colombia o Brasil, así como un termómetro de la salud económica mundial. La cultura del café sigue en expansión, y en este gráfico podemos ver cuáles son los países cuyos habitantes beben más café cada día.

Sólo hay una pregunta: qué pasa con Luxemburgo.

Cafe Per Capita

Europa >> los demás. Pese a no ser productores (aunque el cambio climático puede cambiar eso más pronto que tarde), Europa da un repaso en consumo de café al resto del mundo. Incluyendo a potencias como Brasil, Costa Rica o Colombia. Los 10 primeros puestos en consumo de café corresponden a países europeos, y excepto una Grecia que ha logrado colarse en el TOP, todos son países del norte.

Fuera de ese ranking encontramos a un país que puede ser inesperado: Líbano. Luego tenemos Brasil, Canadá y otra retahíla de países europeos. Pero si hay un nombre propio en esta lista, ese es el de Luxemburgo.

Luxemburgo tiene truco. Visual Capitalist ha elaborado el gráfico tomando los datos de Cafely. Tras un impresionante despliegue de cifras, detallan que han tomado los datos de fuentes como la International Coffee Organization, así como de Wikipedia para calcular el consumo per cápita y de encuestas globales a más de 4.000 personas. Todo ello les ha llevado a calcular que Luxemburgo bebe café. Y mucho.

Que cada persona, de media, beba 5,31 tazas diarias parece una barbaridad. No llega a niveles preocupantes de consumo de cafeína (hay bebidas que no son café y tienen mucha más cafeína), pero es un dato que llama la atención. Sin embargo, tiene truco: la cifra per cápita de Luxemburgo se explica porque casi la mitad de quienes trabajan en el país viven fuera y beben café en los trayectos, así como para mantenerse despiertos, y aunque no son población del país, ese consumo sí se ha tenido en cuenta para los totales de Luxemburgo.

5,31 cafés diarios implica 118.227 tazas que cada persona toma a lo largo de su vida, y está muy por encima de los demás países:

Tazas consumidas a lo largo de la vida

Dinero gastado a lo largo de la vida

Luxemburgo

118.227

425.618

FInlandia

83.939

335.756

suecia

58.612

216.863

noruega

58.159

255.900

austria

45.198

149.153

dinamarca

44.676

241.250

suiza

42.318

211.591

países bajos

39.854

123.548

grecia

37.449

116.092

(27) España

23.988

46.057

(28) Costa Rica

22.229

56.683

(39) venezuela

12.844

20.423

(41) Colombia

12.264

13.981

Un dineral. El precio medio por taza, además, no es nada barato. Sin contar barbaridades que pueden pagarse en países como Japón (tampoco es producto y el transporte es caro) o Dubai (porque… es Dubai), el precio medio de la taza en los países del norte de Europa es bastante elevado. Contrasta con el precio medio a medida que vamos bajando a Portugal, Italia o España.

Y más interesante que el precio medio de la taza es la cuenta del dinero que nos dejamos en café a lo largo de nuestra vida, que también podemos ver en la tabla superior.

El gran ausente. Puede llamar la atención que países como México tengan un consumo de apenas 0,29 tazas, pero junto a Guatemala, Argentina o Perú, es de los países con menos arraigo del café. Por ejemplo, se estima que cada mexicano consume 2,1 kilos de café por año, mientras que los colombianos suben la cifra a 4,2 kilos. Pero el gran ausente en esta lista es… China. El gigante asiático no es un tradicional consumidor de café, pero la cosa está cambiando.

No sólo hay multitud de cafeterías y cadenas propias como Luckin Coffee que están presentes prácticamente en cada esquina de una gran ciudad, sino que están protagonizando el mayor crecimiento de la región en apertura de nuevas cafeterías de marca. Y no sólo están despuntando en la región: China se está haciendo con toneladas de café procedentes de Brasil debido a un mercado que está creciendo a una velocidad de doble dígito desde 2010, con un crecimiento medio anual de más del 20% que está muy por encima de un promedio mundial que apenas llega al 2%

Pero bueno, de la manera que sea, no hay quien tosa a Luxemburgo. Y si en algún momento te echan en cara que bebes mucho, ya puedes decir que estás intentando subir la media de tu país en esta curiosa competición.

En Xataka | La última fiebre para bajar de peso es añadir hongos al café. La ciencia no tiene claro que sea una buena idea

-
La noticia Este gráfico expone el consumo de café per cápita y nos deja una pregunta inquietante: qué pasa en Luxemburgo fue publicada originalmente en Xataka por Alejandro Alcolea .

]]>

☞ El artículo completo original de Alejandro Alcolea lo puedes ver aquí

Hace un cuarto de siglo un estudiante unió 32 tarjetas gráficas GeForce para jugar a Quake III. De allí salió CUDA

Hace un cuarto de siglo un estudiante unió 32 tarjetas gráficas GeForce para jugar a Quake III. De allí salió CUDA

En el año 2000 Ian Buck quiso hacer algo que parecía imposible: jugar a Quake III en resolución 8K. El joven Buck estaba estudiando informática en Stanford y especializándose en gráficos computerizados, y entonces se le ocurrió una idea loca: unir 32 tarjetas gráficas GeForce y renderizar Quake III en ocho proyectores colocados estratégicamente. 

"Aquello", explicó años más tarde, "era precioso". 

Buck contó esa historia en 'The Thining Machine', el ensayo publicado por Stephen Witt en 2025 que recorre la historia de NVIDIA. Y por supuesto una de las partes fundamentales de esa historia es el origen de CUDA, la arquitectura que los desarrolladores de IA han convertido en una joya y que ha permitido impulsar a la empresa y convertirla en la más importante del mundo por capitalización bursátil.

Y todo empezó con Quake III.

La GPU como supercomputadora doméstica

Aquello, por supuesto, solo fue un experimento divertido, pero para Buck fue una revelación, porque allí descubrió que quizás las chips gráficos especializados (GPUs, por Graphic Processing Units) podían hacer algo más que dibujar triángulos y renderizar fotogramas de Quake. 

Geforce 8800 Gts En 2006 la GeForce 8800 GTS (y su versión superior, la GTX) iniciaron la era CUDA.

Para averiguarlo se adentró en los aspectos técnicos de los procesadores gráficos de NVIDIA y comenzó a investigar sobre sus posibilidades como parte de su doctorado de Stanford. Reunió a un pequeño grupo de investigadores y, con una subvención del DARPA (Defense Advanced Research Projects Agency)  comenzó a trabajar en un lenguaje de programación d ecódigo abierto al que llamó Brook. 

Ese lenguaje permitía algo asombroso: lograr que las tarjetas gráficas se convirtieran en supercomputadoras domésticas. Buck demostró que las GPUs, teóricamente dedicadas a trabajar con gráficos, podían resolver problemas de propósito general, y hacerlo además aprovechando el paralelismo que ofrecían esos chips.

Así, mientras una parte del chip iluminaba el triángulo A, otro ya estaba rasterizando el triángulo B y otro escribiendo el triángulo C en memoria. No era exactamente lo mismo que el paralelismo de datos actual, pero aun así ofrecía una potencia de cálculo asombrosa, muy superior a cualquier CPU de la época.

Aquel lenguaje especializado acabó convirtiéndose en un paper llamado 'Brook for GPUs: stream computing on graphics hardware'. De repente la computación paralela estaba disponible para cualquiera, y aunque aquel proyecto apenas tuvo cobertura pública, se convirtió en algo que una persona tuvo claro que era importante. 

Esa persona era Jensen Huang.

Poco después de publicar ese estudio, el fundador de NVIDIA se reunió con Buck y lo fichó en el acto. Se dio cuenta de que aquella capacidad de los procesadores gráficos podía y debía explotarse, y comenzó a dedicar más y más recursos a ello. 

Nace CUDA

Cuando en 2005 Silicon Graphics se hundió —por culpa de una NVIDIA que estaba intratable en estaciones de trabajo— muchos de sus empleados acabaron trabajando para la compañía. 1.200 de ellos de hecho fueron directos a la división de I+D, y uno de los grandes proyectos de esa división era precisamente el de sacar adelante esa capacidad de estas tarjetas.

Nickolls Buck John Nickolls / Ian Buck.

Nada más llegar a NVIDIA, Ian Buck comenzó a trabajar con John Nickolls, que antes de trabajar para la firma había intentando —sin éxito— adelantarse al futuro con su apuesta por la computación paralela. Aquel intento fracasó, pero junto con Buck y algunos ingenieros más puso en marcha un proyecto al que NVIDIA prefirió dar un nombre algo confuso. Lo llamó Compute Unified Domain Architecture. 

Había nacido CUDA.

El trabajo en CUDA avanzó rápidamente y NVIDIA lanzó la primera versión de esta tecnología en noviembre de 2006. Aquel software era gratuito, pero solo era compatible con hardware de NVIDIA. Y como suele suceder con muchas revoluciones, CUDA tardó en cuajar. 

En 2007 la plataforma software se descargó 13.000 veces: los cientos de millones de usuarios de gráficas de NVIDIA solo las querían para jugar, y así siguió siendo durante mucho tiempo. Programar para sacar provecho de CUDA era difícil, y esos primeros tiempos fueron muy difíciles para este proyecto, que consumía mucho talento y finanzas en NVIDIA sin que se vieran beneficios reales. 

De hecho, los primeros usos de CUDA no tuvieron nada que ver con inteligencia artificial porque apenas se hablaba de inteligencia artificial en aquel momento. Quienes aprovecharon esta tecnología eran departamentos científicos, y solo años después se perfilaría la revolución que podría provocar esta tecnología. 

Un éxito tardío (pero merecido)

De hecho, el propio Buck lo apuntó en una entrevista en 2012 con Tom's Hardware en 2012. Cuando el entrevistador le preguntó qué futuros usos le veía a la tecnología GPGPU que ofrecía CUDA en el futuro, él dio algunos ejemplos. 

Habló de empresas que estaban usando CUDA para diseñar ropa o coches de última generación, pero añadió algo importante: 

"En el futuro, seguiremos viendo oportunidades en los medios personales, como la clasificación y búsqueda de fotos basadas en el contenido de la imagen, es decir, rostros, ubicación, etc., que es una operación que requiere una gran capacidad de cálculo".

Aquí Buck sabía de lo que hablaba, aunque no se imaginaba que aquello sí sería el principio de la verdadera revolución de CUDA. En 2012 dos jóvenes estudiantes de doctorado llamados Alex Krizhevsky e Ilya Sutskever desarrollaron un proyecto bajo la tutela de su supervisor, Geoffrey Hinton.

Aquel proyecto no era otro que AlexNet, el software que permitía clasificar imágenes de forma automática y que hasta entonces había sido un reto inútil por el coste de la computación que requería. Fue entonces cuando estos académicos entrenaron una red neuronal con tarjetas gráficas de NVIDIA y con el software CUDA. 

De repente la IA y CUDA comenzaban a tener sentido. 

El resto, como suele decirse, es historia.

En Xataka | Nos podemos ir olvidando de una IA sin alucinaciones por ahora. El director general de NVIDIA explica por qué

 

-
La noticia Hace un cuarto de siglo un estudiante unió 32 tarjetas gráficas GeForce para jugar a Quake III. De allí salió CUDA fue publicada originalmente en Xataka por Javier Pastor .

]]>

☞ El artículo completo original de Javier Pastor lo puedes ver aquí

Fracaso multimillonario en Corea del Sur: lo que nos enseña su experimento con libros escolares generados por IA

educación IA

En junio de 2023, el gobierno de Corea del Sur anunció con entusiasmo el «Plan de Promoción de Libros de Texto Digitales con IA», una iniciativa que buscaba marcar un antes y un después en la educación del país. Diseñado como una colaboración entre el gobierno y una docena de editoriales, el plan prometía llevar la inteligencia artificial al corazón de las aulas, con 76 libros digitales generados por IA para materias clave como matemáticas, inglés y programación.

La idea central era que estos libros permitieran una experiencia educativa personalizada, adaptada a las necesidades de cada estudiante, al tiempo que reducían la carga de trabajo de los docentes. El gobierno destinó 850 millones de dólares a la iniciativa, mientras que las editoriales invirtieron otros 567 millones para cumplir con las exigencias del plan. Sin embargo, lo que comenzó como una promesa de modernización, terminó en una de las implementaciones tecnológicas más criticadas del sistema educativo surcoreano.

Problemas desde el primer día

El lanzamiento de los libros se realizó en marzo de 2025, coincidiendo con el inicio del año escolar. Pero lejos de facilitar el aprendizaje, los materiales generaron caos. Errores conceptuales, falta de coherencia, problemas técnicos y diseños pedagógicos mal estructurados fueron las principales quejas por parte de estudiantes y docentes. Varios profesores reportaron que, en lugar de aligerar la carga, debían dedicar más tiempo a corregir, adaptar o explicar contenidos defectuosos.

Un estudiante de secundaria entrevistado por Rest of World confesó que sus clases se retrasaron constantemente debido a fallos técnicos. Y lo más preocupante: ni él ni sus compañeros sabían bien cómo usar los materiales. Lo que debió ser una herramienta para agilizar el aprendizaje, se convirtió en una barrera más. Un docente comentó que el seguimiento del progreso del alumnado mediante estos libros era casi imposible, dada la calidad deficiente del contenido y su evidente apresuramiento en la producción.

De obligatorios a optativos: un retroceso obligado

Inicialmente, el plan contemplaba que el uso de estos libros digitales fuera obligatorio en todas las escuelas. Esta imposición generó resistencia inmediata entre educadores, expertos y legisladores, forzando a que se reformulara como una prueba piloto voluntaria por un año. Sin embargo, a solo cuatro meses de su implementación, las críticas se volvieron tan contundentes que el Ministerio de Educación reclasificó los libros como materiales complementarios. Esto permitió que los centros educativos decidieran libremente si querían continuar utilizándolos.

La respuesta fue rápida y clara: más de la mitad de las 4.095 escuelas inscritas abandonaron el proyecto. Las promesas de personalización y eficiencia no se materializaron, y el descontento generalizado fue imposible de ignorar. Lo que debió ser un avance hacia el futuro educativo se convirtió en una experiencia frustrante para todos los involucrados.

El impacto en la industria editorial

Mientras muchas escuelas respiraban aliviadas al liberarse del experimento fallido, las editoriales enfrentaban otra realidad. Tras invertir millones para desarrollar libros que ahora nadie quería usar, formaron un colectivo llamado «Comité de Respuesta de Emergencia de Libros de Texto con IA», con el objetivo de presionar al gobierno a revertir la reclasificación.

La situación llegó a tal punto que presentaron una petición constitucional, argumentando que la decisión gubernamental ponía en peligro su supervivencia económica. Aunque el caso está ahora en manos de los tribunales, el daño ya está hecho: el proyecto, lejos de consolidarse, se volvió un ejemplo de cómo la implementación apresurada de tecnología puede sabotear sus propios objetivos.

La tecnología en la educación: ¿cuándo y cómo?

El fracaso de Corea del Sur no significa que la inteligencia artificial en la educación sea una mala idea en sí misma. Lo que se ha puesto en evidencia es que no basta con tener herramientas tecnológicas sofisticadas si no se integran con un enfoque pedagógico sólido, acompañadas de formación docente, pruebas de calidad y adaptación progresiva.

Es como pretender reemplazar a un chef profesional con una receta escrita por una IA sin haberla probado antes: puede sonar bien en teoría, pero si los ingredientes están mal medidos o las instrucciones son confusas, el resultado puede ser incomible.

Muchos países observan con interés las posibilidades de la IA en el aula, pero este caso es una advertencia clara de que la tecnología no es una varita mágica. Requiere planificación, validación y, sobre todo, respeto por las complejidades del proceso educativo. Obligar a usar materiales aún inmaduros solo contribuye a la frustración de docentes, el agotamiento de estudiantes y la pérdida de recursos valiosos.


]]>

☞ El artículo completo original de Natalia Polo lo puedes ver aquí