TIEMPO DE LECTURA: 15 min

Huawei potencia la censura en IA: así te afectará

Foto de Robinson Lalos
Robinson Lalos
Editor Senior
Huawei potencia la censura en IA: así te afectará

¿Qué sucede cuando una de las empresas tecnológicas más poderosas de China decide tomar un modelo de inteligencia artificial que ya ha sacudido los cimientos de Silicon Valley y lo modifica para hacerlo más "seguro" según los estándares del gobierno chino? Esta es precisamente la historia que estamos presenciando con Huawei y su reciente colaboración para desarrollar DeepSeek-R1-Safe, una versión del modelo de IA DeepSeek con capacidades de censura mejoradas.

Logo de Huawei, la empresa tecnológica china que ha desarrollado DeepSeek-R1-Safe

Para entender la magnitud de este desarrollo, primero debemos retroceder unos meses. En enero de 2025, DeepSeek, una startup china fundada por Liang Wenfeng, lanzó sus modelos DeepSeek-R1 y V3, causando un terremoto en la industria tecnológica mundial. Estos modelos no solo rivalizaban con los desarrollados por gigantes estadounidenses como OpenAI, sino que lo hicieron con una fracción del costo y recursos computacionales, desafiando la narrativa de que solo las empresas con presupuestos multimillonarios podrían liderar la carrera de la IA.

Un impacto global inesperado

El lanzamiento de DeepSeek provocó una venta masiva de acciones tecnológicas en Estados Unidos, con Nvidia perdiendo aproximadamente $600 mil millones en valor de mercado en un solo día. El presidente Donald Trump describió el avance como una "llamada de atención" para las empresas estadounidenses, mientras que en China, el logro fue celebrado como una prueba del creciente poderío tecnológico del país y su capacidad para competir en igualdad de condiciones con Occidente.

Ahora, Huawei, en colaboración con la Universidad de Zhejiang, ha llevado este desarrollo un paso further al crear DeepSeek-R1-Safe, una versión modificada del modelo original que, según la empresa, es "casi 100% exitosa" en prevenir la discusión de temas políticamente sensibles. Este movimiento no solo representa un avance técnico significativo, sino que también plantea importantes preguntas sobre el futuro de la IA, la censura y la competencia global en el campo de la inteligencia artificial.

La colaboración entre Huawei y la Universidad de Zhejiang

En septiembre de 2025, Huawei anunció en su cuenta oficial de WeChat que había co-desarrollado una versión "enfocada en la seguridad" del modelo de IA DeepSeek. Lo interesante de esta colaboración es que, aunque DeepSeek fue fundado por Liang Wenfeng, un graduado de la Universidad de Zhejiang, ni la empresa ni su fundador participaron directamente en este proyecto.

Un esfuerzo conjunto

Según el anuncio de Huawei, la empresa utilizó 1,000 de sus propios chips de IA Ascend para entrenar el modelo de lenguaje grande, que fue modificado a partir del modelo de código abierto R1 de DeepSeek. Esta colaboración con la Universidad de Zhejiang, una de las instituciones académicas más prestigiosas de China, representa un ejemplo perfecto de la sinergia entre la industria y la academia en el ecosistema tecnológico chino.

Logo de DeepSeek mostrando en la pantalla de un teléfono móvil

Es importante destacar que esta colaboración se produce en un momento crucial para Huawei. La empresa, que ha estado bajo sanciones estadounidenses desde 2019, ha estado trabajando intensamente para desarrollar su propia cadena de suministro de semiconductores y reducir su dependencia de la tecnología occidental. El uso de sus propios chips Ascend para entrenar un modelo de IA tan sofisticado demuestra los avances que ha logrado en este sentido.

Superando las limitaciones tecnológicas

A pesar de las restricciones estadounidenses sobre la exportación de chips avanzados a China, DeepSeek logró desarrollar sus modelos utilizando una combinación creativa de tecnología disponible. Según informes, el fundador de DeepSeek acumuló una reserva de chips Nvidia A100, que han estado prohibidos para exportar a China desde septiembre de 2022, y los combinó con chips más económicos y menos sofisticados, creando un proceso mucho más eficiente.

El anuncio en la Conferencia Huawei Connect

Huawei hizo este anuncio durante su conferencia anual Huawei Connect en Shanghái, un evento que este año rompió años de secreto sobre sus esfuerzos en la fabricación de chips para presentar hojas de ruta de productos de chips y potencia de cómputo. Este anuncio no solo destaca el progreso técnico de Huawei, sino que también subraya la creciente importancia de la IA en la estrategia de la empresa.

"DeepSeek ha encontrado nuevas formas de entrenar modelos utilizando significativamente menos potencia de cómputo. Pero la inteligencia artificial general (AGI) y los modelos de gran escala seguirán requiriendo enormes cantidades de potencia de cómputo", señaló un representante de Huawei durante la conferencia, destacando tanto los logros como los desafíos futuros en el campo de la IA.

DeepSeek-R1-Safe: ¿Qué es y cómo funciona?

DeepSeek-R1-Safe, como lo ha bautizado Huawei, es una versión modificada del modelo original DeepSeek-R1 diseñada específicamente para mejorar las capacidades de censura y seguridad según los estándares chinos. Pero, ¿qué significa exactamente esto en la práctica y cómo funciona este sistema?

Mecanismos de censura mejorados

Según Huawei, las pruebas mostraron que DeepSeek-R1-Safe es "casi 100% exitoso" en defenderse contra "problemas dañinos comunes... incluyendo discursos tóxicos y perjudiciales, contenido políticamente sensible e incitación a actividades ilegales". Esta tasa de éxito es significativamente superior a la del modelo original y representa un avance importante en la capacidad de las IA para autoregular su contenido según las directrices establecidas.

Limitaciones en la detección de intentos de elusión

Sin embargo, Huawei también reconoció que esta tasa de éxito caía al 40% cuando los comportamientos estaban disfrazados por desafíos basados en escenarios, situaciones de role-playing y codificación encriptada. Esto sugiere que, aunque el modelo es efectivo para detectar y bloquear contenido sensible en formas directas, todavía tiene dificultades para identificar intentos más sofisticados de eludir la censura.

Rendimiento y capacidades de defensa

Huawei afirmó que la "capacidad de defensa de seguridad integral" de DeepSeek-R1-Safe alcanzó el 83%, superando en un 8% a 15% a modelos concurrentes como Qwen-235B de Alibaba y el propio DeepSeek-R1-671B bajo condiciones de prueba idénticas. Además, DeepSeek-R1-Safe mostró una degradación de rendimiento de menos del 1% en comparación con el DeepSeek-R1 original, lo que sugiere que las mejoras en seguridad no se lograron a expensas de la capacidad del modelo.

Logo de DeepSeek mostrando en la pantalla de un teléfono móvil con fondo de circuito

El equilibrio entre seguridad y utilidad

Uno de los desafíos más importantes en el desarrollo de modelos de IA con capacidades de censura mejoradas es mantener el equilibrio entre la seguridad y la utilidad. Si un modelo es demasiado restrictivo, corre el riesgo de volverse inútil para muchas aplicaciones legítimas. Por otro lado, si es demasiado permisivo, puede no cumplir con los requisitos regulatorios.

DeepSeek-R1-Safe parece haber logrado un equilibrio razonable en este sentido, manteniendo casi toda la funcionalidad del modelo original mientras mejora significativamente sus capacidades de censura. Esto es particularmente importante para las empresas y organizaciones en China que necesitan utilizar IA para diversas aplicaciones, pero que también deben cumplir con las regulaciones gubernamentales sobre contenido.

El marco regulatorio de la IA en China

Para entender completamente el desarrollo de DeepSeek-R1-Safe, es crucial contextualizarlo dentro del marco regulatorio más amplio que gobierna la inteligencia artificial en China. Desde hace varios años, el gobierno chino ha estado implementando regulaciones cada vez más estrictas sobre la IA, con un enfoque particular en garantizar que estos sistemas reflejen los "valores socialistas" del país.

Regulaciones estrictas para modelos de IA

Los reguladores chinos han requerido que los modelos de IA nacionales y las aplicaciones que impulsan reflejen los "valores socialistas" antes de ser lanzados al público, en cumplimiento de los controles estrictos sobre el discurso. Esto significa que las empresas que desarrollan IA en China deben implementar sistemas robustos de censura que filtren contenido considerado políticamente sensible o inapropiado según los estándares del gobierno.

Un enfoque proactivo a la regulación

China ha adoptado un enfoque proactivo a la regulación de la IA, implementando políticas mucho antes que muchos otros países. Algunas de las regulaciones clave incluyen:

• Requisitos de que los modelos de IA sean "sanos y éticamente correctos"
• Prohibición de contenido que "ponga en peligro la seguridad nacional" o "socave la unidad nacional"
• Obligación de filtrar contenido que viola las "leyes y regulaciones socialistas"
• Responsabilidad de las empresas por el contenido generado por sus modelos de IA

Estas regulaciones crean un entorno en el que las empresas deben priorizar la alineación con los valores gubernamentales desde el principio del desarrollo de sus modelos de IA.

El caso de otras IA chinas

DeepSeek no es el único modelo de IA en China que implementa sistemas de censura. Chatbots de IA como Ernie Bot de Baidu, la primera respuesta china a ChatGPT, o Doubao de ByteDance, también se niegan a responder o interactuar con muchas preguntas sobre política interna china o temas considerados sensibles por el Partido Comunista gobernante.

Por ejemplo, cuando se le pregunta sobre los eventos de la Plaza Tiananmen el 4 de junio de 1989, un tema tabú en China que está sujeto a la censura gubernamental, DeepSeek y otros modelos de IA chinos típicamente no proporcionan detalles o evitan por completo la pregunta. Este tipo de censura sistemática es un requisito para operar legalmente en el mercado chino.

"En China, los avances de DeepSeek son celebrados como un testimonio del creciente poderío tecnológico del país y su autosuficiencia", dice Marina Zhang, profesora asociada de la Universidad de Tecnología de Sydney. "El éxito de la empresa es visto como una validación de la Innovación 2.0 de China, una nueva era de liderazgo tecnológico nacional impulsada por una generación más joven de empresarios".

La estrategia de autosuficiencia tecnológica

El desarrollo de modelos de IA como DeepSeek-R1-Safe también debe entenderse en el contexto de la estrategia más amplia de China hacia la autosuficiencia tecnológica. En respuesta a las sanciones estadounidenses y las restricciones a la exportación de tecnología, China ha estado impulsando agresivamente el desarrollo de capacidades tecnológicas nacionales, particularmente en áreas críticas como los semiconductores y la inteligencia artificial.

En este sentido, el uso de chips Ascend de Huawei para entrenar DeepSeek-R1-Safe no es solo una decisión técnica, sino también una declaración política. Demuestra que China está avanzando en su objetivo de reducir su dependencia de la tecnología occidental y desarrollar su propia ecosistema tecnológico soberano.

Implicaciones globales y preocupaciones sobre la libertad de expresión

El desarrollo de DeepSeek-R1-Safe por parte de Huawei y la Universidad de Zhejiang no solo tiene implicaciones para China, sino que también plantea importantes preguntas sobre el futuro global de la inteligencia artificial, la censura y la libertad de expresión en la era digital.

Un modelo para otros países autoritarios

Una de las preocupaciones más significativas es que el enfoque chino hacia la IA y la censura podría servir como modelo para otros países autoritarios. Si China demuestra que es posible desarrollar modelos de IA avanzados que también implementen sistemas de censura robustos, otros gobiernos con tendencias autoritarias podrían seguir un camino similar.

La fragmentación de la IA global

Esto podría llevar a una fragmentación del ecosistema global de IA, donde diferentes regiones del mundo desarrollen y utilicen modelos de IA con diferentes estándares de censura y libertad de expresión. En lugar de un internet global abierto, podríamos estar avanzando hacia un futuro donde la experiencia de la IA varíe drásticamente dependiendo de dónde te encuentres en el mundo.

Reacciones internacionales

Ya estamos viendo algunas reacciones internacionales a los modelos de IA chinos. Australia ha prohibido DeepSeek en dispositivos y sistemas gubernamentales, argumentando que representa un riesgo para la seguridad nacional. Varias autoridades de protección de datos en todo el mundo también han pedido a DeepSeek que aclare cómo maneja la información personal, que almacena en servidores con base en China.

Italia bloqueó la aplicación de DeepSeek el 30 de enero y ordenó a la empresa que dejara de procesar la información personal de sus ciudadanos por motivos de protección de datos. Estas acciones sugieren que, aunque los modelos de IA chinos están ganando terreno tecnológicamente, todavía enfrentan importantes desafíos en términos de aceptación y confianza a nivel global.

Icono de la aplicación DeepSeek mostrando en un teléfono móvil

El dilema para las empresas globales

Para las empresas globales que operan en múltiples jurisdicciones, el surgimiento de modelos de IA con diferentes estándares de censura presenta un desafío significativo. ¿Deberían desarrollar versiones diferentes de sus productos para diferentes mercados? ¿O deberían adherirse a los estándares más estrictos de libertad de expresión, incluso si eso significa limitar su acceso a ciertos mercados?

Este dilema se complica aún más por el hecho de que China es un mercado enorme y lucrativo. Muchas empresas globales se enfrentan a la difícil elección entre acceder al mercado chino, aceptando sus regulaciones de censura, o mantener sus principios de libertad de expresión y perder acceso a uno de los mercados más grandes del mundo.

El equilibrio entre innovación y regulación

El desarrollo de DeepSeek-R1-Safe también plantea preguntas más amplias sobre el equilibrio entre innovación tecnológica y regulación. Si bien es comprensible que los gobiernos quieran regular la IA para proteger a sus ciudadanos, existe el riesgo de que una regulación excesiva pueda sofocar la innovación y limitar el potencial de esta tecnología para abordar algunos de los desafíos más apremiantes del mundo.

Huawei y DeepSeek: Un nuevo capítulo en la historia de la IA

Para comprender mejor el impacto de la colaboración entre Huawei y DeepSeek, te invitamos a ver este video que analiza cómo esta alianza está cambiando el panorama de la inteligencia artificial en China y a nivel global:

Reflexiones finales

El desarrollo de DeepSeek-R1-Safe por parte de Huawei y la Universidad de Zhejiang representa un hito significativo en la evolución de la inteligencia artificial, no solo en China, sino a nivel global. Este desarrollo subraya varias tendencias importantes que probablemente darán forma al futuro de la IA en los próximos años.

Un punto de inflexión en la IA global

Primero, representa un punto de inflexión en la carrera global por el dominio de la IA. El hecho de que una empresa china haya podido desarrollar un modelo que rivaliza con los mejores de Occidente, utilizando sus propios chips y con capacidades de censura mejoradas, desafía la narrativa de que el liderazgo en IA es exclusivo de las empresas estadounidenses.

Segundo, ilustra la creciente importancia de la soberanía tecnológica. En un mundo cada vez más fragmentado geopolíticamente, la capacidad de desarrollar y controlar tecnologías críticas como la IA se está convirtiendo en una prioridad estratégica para las grandes potencias.

El futuro de la censura en la IA

DeepSeek-R1-Safe también nos obliga a confrontar preguntas difíciles sobre el futuro de la censura en la IA. A medida que estos sistemas se vuelven más omnipresentes en nuestras vidas, ¿qué equilibrio debemos buscar entre la protección contra contenidos dañinos y la preservación de la libertad de expresión? ¿Quién debería tener la autoridad para decidir qué contenido es apropiado y cuál no?

Estas preguntas no tienen respuestas fáciles, pero se volverán cada vez más urgentes a medida que la IA continúe integrándose en todos los aspectos de nuestra sociedad. El enfoque chino, representado por DeepSeek-R1-Safe, es una respuesta a estas preguntas, pero ciertamente no será la única.

La dualidad del progreso tecnológico

Finalmente, el desarrollo de DeepSeek-R1-Safe ilustra la dualidad inherente en muchos avances tecnológicos. Por un lado, representa un impresionante logro técnico que demuestra el creciente poderío de la industria tecnológica china y su capacidad para innovar incluso bajo restricciones significativas. Por otro lado, representa una herramienta de control y censura que podría limitar la libre circulación de información y ideas.

"Pero también advirtió que este sentimiento también puede llevar al 'aislamiento tecnológico'", señala Marina Zhang sobre la celebración de los avances de DeepSeek en China. Esta observación capta perfectamente la tensión entre el legítimo orgullo nacional por los logros tecnológicos y el riesgo de que este orgullo conduzca a un mayor aislamiento y fragmentación del ecosistema tecnológico global.

Mirando hacia el futuro, es probable que veamos más desarrollos como DeepSeek-R1-Safe, no solo en China, sino potencialmente en otros países que busquen desarrollar modelos de IA alineados con sus propios valores y regulaciones. Esto podría llevar a un mundo con múltiples "internets" y ecosistemas de IA, cada uno con sus propias reglas y estándares.

En este contexto, el desafío para la comunidad global será encontrar formas de mantener la interoperabilidad y el diálogo entre estos diferentes sistemas, mientras se respetan las diferencias en valores y regulaciones. Será un equilibrio delicado, pero uno que es crucial para garantizar que la IA se desarrolle de manera que beneficie a toda la humanidad, no solo a segmentos específicos.

DeepSeek-R1-Safe es, en muchos sentidos, un producto de su tiempo: una tecnología impresionante que refleja tanto las aspiraciones como las limitaciones del entorno en el que fue creada. Su desarrollo nos ofrece una ventana no solo al futuro de la IA, sino también a las complejidades de nuestro mundo interconectado y fragmentado. Y mientras continuamos navegando por este panorama tecnológico en rápida evolución, será crucial mantener tanto el asombro por los logros técnicos como una conciencia crítica de sus implicaciones más amplias.

Publicado el 20/9/2025

Compartir este artículo: