30 de mayo de 2025

DeepSeek R1: un modelo de IA potente, pero con filtros ideológicos evidentes

Sin embargo, las pruebas realizadas por expertos independientes sugieren que este avance también trae consigo un mayor grado de censura y control ideológico, especialmente en temas políticamente delicados para el gobierno chino. Es un recordatorio de que el desarrollo de la inteligencia artificial no ocurre en el vacío: está profundamente influido por el contexto legal, cultural y político en el que se gesta.

¿Qué es DeepSeek R1-0528 y por qué importa?

El modelo R1-0528 es una actualización del ya conocido DeepSeek R1, diseñado para tareas complejas de razonamiento, similares a las que abordan los modelos multimodales y generalistas como ChatGPT. Este nuevo modelo ha superado marcas anteriores en pruebas de benchmark en codificación y razonamiento matemático, lo que lo convierte en una herramienta potencialmente poderosa para el desarrollo de software, educación y automatización de tareas.

Pero, como en un coche de lujo que solo puede conducirse por ciertas carreteras, su capacidad está condicionada por fuertes límites en cuanto a lo que puede decir o analizar.

La censura en los modelos de IA chinos

Desde 2023, las autoridades chinas han implementado regulaciones estrictas sobre los modelos generativos de lenguaje. Una ley específica prohíbe que estos modelos generen contenido que «dañe la unidad del país y la armonía social», un enunciado suficientemente amplio como para justificar el bloqueo de todo aquello que se perciba como crítico del gobierno o de su narrativa oficial.

Para cumplir con estas normativas, empresas como DeepSeek recurren a técnicas como filtros a nivel de prompt (que bloquean preguntas antes de que se procesen) o ajustes finos del entrenamiento del modelo. En la práctica, esto significa que la IA no responde —o lo hace de forma muy vaga o alineada con la postura oficial— a temas considerados sensibles.

Resultados de pruebas independientes

El desarrollador anónimo conocido como xlr8harder, creador de la plataforma SpeechMap, ha puesto a prueba la versión R1-0528 y reporta que se trata del modelo más censurado de DeepSeek hasta la fecha. En sus pruebas, el modelo evitó responder o respondió de forma sesgada a preguntas relacionadas con temas como:

  • Campos de internamiento en Xinjiang
  • Libertad de prensa y disidencia política en China
  • Liderazgo del Partido Comunista Chino

Por ejemplo, cuando se le pregunta directamente si el presidente Xi Jinping debería ser reemplazado, el modelo responde siguiendo fielmente la línea oficial, evitando cualquier crítica directa.

Aunque en algunas respuestas el modelo parece mencionar violaciones a los derechos humanos, estas son excepcionales y están cuidadosamente formuladas. En otras palabras, puede llegar a nombrar un problema, pero sin cuestionar la estructura que lo sostiene.

¿Por qué es preocupante este tipo de censura en IA?

El problema no se limita al contexto chino. Cada vez más desarrolladores occidentales están utilizando modelos como DeepSeek por su rendimiento técnico y su disponibilidad de código abierto. Pero al hacerlo, también están incorporando —consciente o inconscientemente— los sesgos y limitaciones ideológicas con los que fueron entrenados.

Clément Delangue, CEO de Hugging Face, ya advirtió sobre este fenómeno en 2024. Usar un modelo censurado como base para otros desarrollos puede conducir a la creación de productos que limitan el acceso a información crítica, normalizan visiones autoritarias y disminuyen el pluralismo informativo.

Es como construir una biblioteca muy avanzada, pero que oculta sistemáticamente ciertos libros.

¿Qué alternativas existen y cómo abordar el problema?

No todo está perdido. Existen formas de mitigar este tipo de problemas:

  • Auditorías independientes de los modelos antes de integrarlos en sistemas más amplios.
  • Transparencia en los datos de entrenamiento y los mecanismos de censura utilizados.
  • Desarrollo de modelos verdaderamente abiertos que no respondan a presiones políticas.

También es fundamental que quienes integran IA en sus productos —desde startups hasta grandes plataformas— tomen decisiones informadas sobre qué modelo están usando y con qué propósito.

Una inteligencia artificial útil no puede ser muda en lo importante

DeepSeek R1-0528 es una muestra del impresionante desarrollo técnico que se puede lograr incluso en contextos de control estricto. Pero también es un recordatorio de que una IA útil no debe ser simplemente poderosa: también debe ser honesta, transparente y abierta al debate.

Mientras la tecnología avanza, los valores que la acompañan determinarán si construimos herramientas para el empoderamiento o para el silenciamiento.


La noticia DeepSeek R1: un modelo de IA potente, pero con filtros ideológicos evidentes fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.


☞ El artículo completo original de Natalia Polo lo puedes ver aquí

No hay comentarios.:

Publicar un comentario