
Hachette Book Group, una de las cinco grandes editoriales del mundo, ha anunciado que no publicará la novela de terror Shy Girl en Estados Unidos y que retirará la edición ya disponible en Reino Unido, tras determinar en una revisión interna que existe preocupación sobre el uso de inteligencia artificial en la generación del texto. Es la primera vez que una editorial de esta escala retira un libro ya publicado por sospechas de contenido generado por IA, y el caso establece un precedente que la industria literaria tendrá que digerir.
La novela estaba programada para su lanzamiento estadounidense esta primavera. Antes de la decisión de Hachette, reseñadores en GoodReads y YouTube ya habían señalado patrones en el texto —repeticiones estilísticas, inconsistencias narrativas, lenguaje genérico— que consideraban indicativos de generación por IA. The New York Times contactó a Hachette sobre las sospechas el día antes del anuncio oficial.
La defensa de la autora y las preguntas sin respuesta
Mia Ballard, la autora, negó haber usado IA para escribir la novela. En un correo electrónico al NYT, culpó a un conocido al que había contratado para editar la versión original autopublicada de Shy Girl. Según Ballard, esa persona habría introducido texto generado por IA durante el proceso de edición sin su conocimiento. Afirma estar emprendiendo acciones legales y describió las consecuencias personales: «Mi salud mental está en su peor momento y mi nombre está arruinado por algo que yo personalmente no hice.»
La historia plantea preguntas incómodas para la industria editorial. La más obvia: ¿cómo pasó un texto supuestamente generado por IA los filtros de una editorial de la talla de Hachette? El escritor Lincoln Michel y otros observadores del sector señalaron un detalle revelador: las editoriales estadounidenses raramente hacen edición extensiva cuando adquieren títulos que ya han sido publicados en otros formatos. Shy Girl existía previamente como obra autopublicada. Hachette la adquirió para publicación tradicional, pero el proceso de adquisición, por lo general, no incluye una revisión forense del texto en busca de generación automática.
¿Por qué importa este caso?
Porque establece el primer precedente real de una editorial importante retirando un libro por sospechas de IA. Hasta ahora, el debate sobre IA en literatura se había centrado en dos frentes: los autores que usan IA como herramienta de asistencia (corrección, brainstorming, estructura) y las plataformas de autopublicación como Amazon Kindle Direct Publishing, inundadas de libros generados íntegramente por IA que se venden por céntimos. El caso de Shy Girl es diferente: es un libro que llegó al sistema de publicación tradicional, pasó por un proceso de adquisición editorial y fue publicado en un mercado importante (Reino Unido) antes de que las sospechas lo derribaran.
La detección vino de la comunidad, no de la editorial. Fueron reseñadores en GoodReads y YouTubers literarios quienes identificaron los patrones sospechosos. Esto sugiere que las editoriales no tienen herramientas ni protocolos establecidos para detectar contenido generado por IA en manuscritos, una laguna que, dado el caso de Shy Girl, se volverá urgente de llenar.
La industria editorial ya estaba en tensión con la IA. Autores como Naomi Klein y organizaciones como The Authors Guild han demandado a empresas de IA por entrenar modelos con obras protegidas por copyright. Las grandes editoriales han incluido cláusulas anti-IA en sus contratos con autores. Pero detectar IA en un manuscrito terminado es un problema técnico diferente a proteger copyright, y mucho más difícil de resolver.
Las herramientas de detección de IA existentes —GPTZero, Originality.ai, Turnitin— tienen tasas significativas de falsos positivos y falsos negativos. Un texto generado por IA y luego editado por un humano puede pasar desapercibido. Un texto escrito por un humano con un estilo poco convencional puede ser marcado incorrectamente. La única «herramienta» fiable sigue siendo el ojo entrenado de lectores que conocen los patrones del texto generado: frases comodín, estructuras repetitivas, falta de voz autoral distintiva.
Mi valoración: el caso de Shy Girl es un canario en la mina de carbón para la industria editorial. Si un texto generado (o parcialmente generado) por IA puede llegar hasta la publicación en una de las cinco grandes editoriales del mundo, el problema es sistémico, no anecdótico. La historia de Ballard —una autora que culpa a un editor freelance por introducir IA sin su conocimiento— puede ser cierta o no, pero ilustra un riesgo que toda la cadena editorial necesita abordar: ¿quién es responsable cuando la IA se cuela en un manuscrito? ¿La autora? ¿El editor? ¿La editorial que no lo detectó? No hay respuestas fáciles, pero el precedente ya está sentado. Y la próxima vez que una editorial adquiera un libro autopublicado exitoso, mirará el texto con ojos muy diferentes.
Preguntas frecuentes
¿Qué es Shy Girl? Una novela de terror escrita por Mia Ballard, originalmente autopublicada, que fue adquirida por Hachette Book Group para publicación tradicional y luego retirada por sospechas de uso de IA en el texto.
¿La autora admitió usar IA? No. Ballard niega haber usado IA y culpa a un conocido que contrató para editar la versión autopublicada de haber introducido texto generado sin su conocimiento.
¿Es la primera vez que una editorial grande retira un libro por IA? Sí. Es el primer caso conocido de una editorial del calibre de Hachette retirando un título ya publicado por sospechas de contenido generado por inteligencia artificial.
☞ El artículo completo original de Natalia Polo lo puedes ver aquí
