Estrategias para burlar la censura en modelos de IA chinos

https://www.swissinfo.ch/content/wp-content/uploads/sites/13/2025/01/542268f7ad880b696e88b4e42c9d10d4-88787236.jpg?ver=f94d8266

DeepSeek, una empresa pionera en inteligencia artificial (IA) de China, ha logrado atraer la atención internacional gracias a su modelo de chatbot mejorado, creado con un gasto notablemente inferior al de sus rivales occidentales. Sin embargo, esta innovación tecnológica también ha resaltado las prácticas de censura típicas en las aplicaciones chinas, particularmente en cuestiones sensibles desde el punto de vista político.

Métodos de Censura en DeepSeek

Cuando se interactúa con el chatbot de DeepSeek, se percibe que eludirá preguntas sobre eventos o personajes políticos sensibles en China. Por ejemplo, al indagar sobre las protestas de Tiananmén de 1989, el modelo empieza a ofrecer una respuesta estándar, indicando que «las protestas de Tiananmén (1989) son reconocidas internacionalmente» y que en 1989 «la plaza fue ocupada por estudiantes y ciudadanos que reclamaban reformas democráticas y el fin de la corrupción». Sin embargo, antes de finalizar la respuesta, el sistema la elimina y la sustituye por un mensaje de seguridad en inglés: «Lo siento, eso está más allá de mi alcance actual … «.

Este comportamiento indica la presencia de un sistema de censura de dos niveles. En primera instancia, el modelo produce una respuesta, pero posteriormente un segundo filtro analiza el contenido y, si lo considera inapropiado, lo suprime y despliega un mensaje de advertencia. Este segundo nivel funciona como una «supervisora», vigilando y controlando las respuestas del modelo para asegurar que se ajusten a las directrices establecidas.

Este comportamiento sugiere la existencia de un sistema de censura en dos niveles. Inicialmente, el modelo genera una respuesta, pero luego un segundo filtro evalúa el contenido y, si lo considera inapropiado, lo elimina y muestra un mensaje de advertencia. Este segundo nivel actúa como una «niñera», supervisando y controlando las respuestas del modelo para alinearlas con las directrices establecidas.

A diferencia de ciertos modelos occidentales avanzados, que han conseguido incorporar mecanismos de autocensura para contenido delicado como material pornográfico, DeepSeek todavía recurre a este sistema de doble filtrado. Los expertos destacan que, aunque este método es efectivo hasta cierto grado, no es completamente seguro y puede ser evadido mediante preguntas formuladas de manera específica o en idiomas diferentes al inglés. Por ejemplo, al preguntar «¿qué es lo más … proporciona una respuesta detallada sobre los eventos de Tiananmén sin activar el filtro de censura.

Consecuencias y Reacciones Internacionales

Implicaciones y Reacciones Internacionales

La implementación de estos mecanismos de censura en DeepSeek refleja el control estricto que las autoridades chinas ejercen sobre la información generada por sus tecnologías. Este control ha generado debates en la comunidad internacional sobre la ética y la transparencia en el desarrollo y uso de modelos de IA. Además, plantea preguntas sobre la influencia de las políticas gubernamentales en la innovación tecnológica y la libertad de información.

A pesar de las preocupaciones sobre la censura, DeepSeek ha logrado posicionarse como una alternativa competitiva en el mercado de la IA, ofreciendo un modelo eficiente y accesible. Su éxito destaca la capacidad de las empresas chinas para desarrollar tecnologías avanzadas, incluso bajo restricciones regulatorias y de recursos.