TIEMPO DE LECTURA: 16 min

DeepSeek-V3.1: el modelo de IA chino que planta cara a NVIDIA

Foto de Robinson Lalos
Robinson Lalos
Editor Senior
DeepSeek-V3.1: el modelo de IA chino que planta cara a NVIDIA

En el escenario global de la inteligencia artificial, donde dominan nombres como OpenAI, Google y Anthropic, una empresa china está emergiendo como un contendente sorprendente. DeepSeek, con su último modelo V3.1, no solo demuestra capacidades técnicas impresionantes, sino que también envía un mensaje claro sobre las aspiraciones tecnológicas de China: reducir la dependencia de hardware occidental, especialmente de NVIDIA, y desarrollar un ecosistema de IA propio y autosuficiente.

Presentación de DeepSeek-V3.1 con chips chinos

DeepSeek-V3.1 representa mucho más que una simple actualización de un modelo existente. Es una declaración de intenciones, un hito tecnológico que combina innovación en algoritmos con una estrategia cuidadosamente diseñada para alinearse con la próxima generación de chips de IA fabricados en China. Con su formato UE8M0 FP8 y su arquitectura de inferencia híbrida, este modelo no solo compite en rendimiento con las mejores ofertas occidentales, sino que también está preparado para funcionar de manera óptima en hardware nacional, un factor crucial en el contexto de las crecientes restricciones a la exportación de tecnología impuestas por Estados Unidos.

Un modelo con doble propósito

Lo que hace particularmente interesante a DeepSeek-V3.1 es su doble propósito: por un lado, ofrece un rendimiento competitivo a nivel global, situándose entre los modelos punteros en benchmarks como MathArena; por otro, está diseñado específicamente para aprovechar las características de los futuros chips chinos, marcando una dirección clara hacia la autosuficiencia tecnológica. Esta dualidad refleja la estrategia de China de no solo alcanzar a Occidente en tecnología de IA, sino también de crear un ecosistema alternativo que pueda operar independientemente de las restricciones geopolíticas.

Este artículo explora en profundidad las características técnicas de DeepSeek-V3.1, su significado en el contexto más amplio de la carrera por la supremacía tecnológica entre China y Occidente, y las implicaciones que podría tener para el futuro de la industria de la IA a nivel global.

Arquitectura híbrida: Modo Think y Non-Think

Una de las innovaciones más destacadas de DeepSeek-V3.1 es su arquitectura de inferencia híbrida, que permite al modelo operar en dos modos distintos: Think (pensamiento profundo) y Non-Think (respuesta rápida). Esta dualidad representa un enfoque pragmático para equilibrar calidad de razonamiento y velocidad de respuesta, adaptándose a diferentes tipos de consultas y necesidades del usuario.

Interfaz de DeepSeek mostrando el modo Think

El modo Think: Razonamiento profundo

El modo Think está diseñado para tareas que requieren un análisis más profundo y una mayor capacidad de razonamiento. En este modo, el modelo dedica más recursos computacionales y tiempo a procesar la consulta, generando una respuesta más meditada y detallada. Según DeepSeek, esta versión ha mejorado significativamente los tiempos respecto a la versión anterior, lo que sugiere optimizaciones no solo en los pesos del modelo, sino también en los modos de ejecución.

Lo que diferencia al modo Think de V3.1 de implementaciones similares en otros modelos es su eficiencia en el uso de tokens. DeepSeek afirma que el modelo ahora requiere muchos menos "tokens de pensamiento" para llegar a una respuesta, lo que reduce los costos asociados con el servicio del modelo sin sacrificar la calidad del razonamiento. Esta optimización es crucial para hacer que el modo de pensamiento profundo sea viable comercialmente, especialmente para consultas complejas que anteriormente requerían una gran cantidad de recursos computacionales.

El modo Non-Think: Respuesta ágil

Por otro lado, el modo Non-Think está optimizado para respuestas rápidas y eficientes, ideales para consultas que no requieren un análisis profundo. Este modo prioriza la velocidad y la eficiencia de recursos, permitiendo al modelo generar respuestas casi instantáneas con un consumo mínimo de energía y poder computacional.

La integración de ambos modos en un solo modelo es un avance significativo. Anteriormente, DeepSeek mantenía modelos separados para estas funciones, lo que aumentaba la complejidad y los costos operativos. Con V3.1, los usuarios pueden alternar entre modos mediante un botón de "pensamiento profundo" en la interfaz web y la aplicación de la compañía, adaptando dinámicamente el comportamiento del modelo según sus necesidades.

128K
Tokens de contexto, el doble que la versión anterior

Además de la arquitectura híbrida, DeepSeek-V3.1 ha mejorado significativamente su ventana de contexto, que ahora llega hasta los 128,000 tokens, el doble que la versión anterior. Esta capacidad ampliada permite al modelo procesar documentos extensos y mantener conversaciones de muchos turnos sin perder el hilo, una característica esencial para aplicaciones empresariales y académicas.

El formato UE8M0 FP8: Eficiencia para chips nacionales

Quizás el aspecto más técnicamente significativo de DeepSeek-V3.1 sea su implementación del formato UE8M0 FP8, una variante específica del formato de punto flotante de 8 bits que ha sido optimizada para la próxima generación de chips chinos. Esta elección no es casual; representa una apuesta estratégica por la autosuficiencia tecnológica y un esfuerzo por reducir la dependencia de hardware occidental.

Gráfico mostrando la eficiencia del formato FP8 en inferencia

¿Qué es el formato FP8?

FP8 (Floating Point 8) es un formato numérico que representa los números con solo 8 bits, a diferencia de los formatos más comunes como FP32 (32 bits) o FP16 (16 bits). Esta reducción en la precisión numérica ofrece ventajas significativas:

Reducción del consumo de memoria

Al usar solo 8 bits por parámetro en lugar de 16 o 32, el tamaño del modelo se reduce drásticamente, permitiendo cargar modelos más grandes en la misma cantidad de memoria.

Mayor velocidad de procesamiento

Menos bits por operación significan que se pueden realizar más cálculos por segundo, aumentando el rendimiento general del sistema.

Menor consumo energético

Procesar menos bits requiere menos energía, un factor crucial para centros de datos y aplicaciones móviles donde la eficiencia energética es prioritaria.

Lo que hace especial a la implementación de DeepSeek es el uso de la variante UE8M0 FP8, que según la empresa está "diseñada para la próxima generación de chips nacionales que se lanzarán pronto". Esta adaptación específica sugiere que DeepSeek tiene conocimiento interno de los desarrollos en curso en la industria de semiconductores china y está posicionando su tecnología para aprovechar al máximo estas futuras capacidades.

Más allá de la simple cuantificación

Es importante destacar que DeepSeek ya utilizaba el formato FP8 en versiones anteriores, específicamente la variante E4M3. La transición a UE8M0 no busca principalmente mejorar la eficiencia, sino la compatibilidad con los futuros chips chinos. Según informes de la industria, el actual chip Ascend 910C de Huawei no soporta FP8 de forma nativa, lo que sugiere que Huawei podría estar desarrollando aceleradores más potentes con esta capacidad.

La estrategia de DeepSeek refleja un enfoque a largo plazo: al alinear su modelo con el ecosistema de hardware emergente en China, la empresa está sentando las bases para una generación de IA que pueda operar de manera eficiente y competitiva sin depender de tecnología occidental. Esto es particularmente relevante en el contexto de las restricciones a la exportación de chips avanzados impuestas por Estados Unidos, que han limitado el acceso de China a GPUs de alto rendimiento como las de NVIDIA.

"UE8M0 FP8 está diseñado para la próxima generación de chips nacionales que se lanzarán pronto." - DeepSeek, en un comunicado oficial en WeChat

Contexto competitivo: La carrera por la independencia tecnológica

Para entender plenamente el significado de DeepSeek-V3.1, es necesario situarlo en el contexto más amplio de la competencia tecnológica entre China y Occidente, y en particular, en los esfuerzos de China por desarrollar una industria de semiconductores propia que pueda operar independientemente de la tecnología estadounidense.

DeepSeek logo junto a un chip Huawei

Restricciones a la exportación: Un catalizador para la innovación

Desde 2022, Estados Unidos ha implementado una serie de restricciones a la exportación de chips avanzados y tecnología de fabricación de semiconductores a China, con el objetivo de limitar el desarrollo de capacidades militares y de inteligencia artificial en el país asiático. Estas medidas han afectado particularmente el acceso a GPUs de alto rendimiento de NVIDIA, como las series H100 y H20, que son esenciales para entrenar modelos de IA a gran escala.

En respuesta a estas restricciones, China ha acelerado sus esfuerzos por desarrollar alternativas nacionales. Huawei, con su línea de chips Ascend, se ha convertido en uno de los principales actores en este esfuerzo. El Ascend 910B, y su próxima versión 910C, representan los intentos de China por crear competidores viables a las GPUs de NVIDIA. Sin embargo, el camino ha estado lleno de desafíos técnicos y de rendimiento.

13%
De los ingresos de NVIDIA provienen de China, según su último ejercicio fiscal

Según informes financieros, aproximadamente el 13% de los ingresos de NVIDIA provienen de China, lo que subraya la importancia estratégica de este mercado para la compañía estadounidense. Para NVIDIA, la posible transición a soluciones domésticas con soporte FP8 podría erosionar esta demanda con el tiempo, especialmente si los chips chinos logran ofrecer un rendimiento competitivo.

Los desafíos técnicos de la transición

A pesar de los avances, el camino hacia la independencia tecnológica no ha sido fácil. Según el Financial Times, DeepSeek encontró "dificultades técnicas" al intentar entrenar su modelo R2 en chips Huawei Ascend y tuvo que volver a utilizar GPUs de NVIDIA para el entrenamiento, manteniendo la inferencia en hardware chino donde era viable. Esta experiencia subraya que, aunque el progreso es significativo, todavía existen brechas de rendimiento entre los chips chinos y los occidentales, particularmente en tareas de entrenamiento intensivas.

En este contexto, DeepSeek-V3.1 representa una iteración estratégica más que un salto definitivo. Al optimizar su modelo para el formato UE8M0 FP8, la empresa está preparando el terreno para cuando los chips chinos evolucionen y ofrezcan soporte nativo para este formato. Es un movimiento a largo plazo que reconoce las limitaciones actuales pero apuesta por un futuro donde la tecnología china pueda operar de manera autosuficiente.

Rendimiento y capacidades: ¿Cómo se compara?

Más allá de las implicaciones geopolíticas y estratégicas, DeepSeek-V3.1 es un modelo de IA impresionante por derecho propio. En evaluaciones externas como MathArena (una plataforma vinculada a la ETH Zürich), el modelo en su modo Think aparece entre los más punteros, compitiendo directamente con modelos como GPT-5 de OpenAI. Pero, ¿cómo se compara realmente en diferentes aspectos y escenarios de uso?

Chip Ascend 910 de Huawei

Rendimiento en benchmarks

En pruebas de terceros, DeepSeek-V3.1 ha mostrado resultados positivos en varias áreas clave. En tareas de codificación y lógica, el modelo demuestra un rendimiento sólido que lo sitúa en la parte alta del tablero competitivo. Sin embargo, como ocurre con la mayoría de los modelos de IA, su posición exacta respecto a rivales de gama alta varía según el benchmark específico y los criterios de evaluación.

Una de las áreas donde DeepSeek-V3.1 destaca particularmente es en la capacidad de llamadas a herramientas y funciones, crucial para cargas de trabajo de IA agentic donde se deben recuperar herramientas y datos externos sobre la marcha. Por ejemplo, en Browsecomp, un benchmark dirigido a tareas de uso autónomo del navegador, DeepSeek-V3.1 alcanzó una puntuación de 30, mientras que la actualización de R1 de mayo logró solo 8.9.

Arquitectura Mixture-of-Experts

Detrás del rendimiento de DeepSeek-V3.1 se encuentra una arquitectura tipo Mixture-of-Experts (MoE) con decenas de miles de millones de parámetros activos por token. Este enfoque permite optimizar los recursos computacionales sin sacrificar calidad, ya que solo una parte de la red neuronal se activa para cada token específico, en lugar de utilizar la red completa para cada cálculo.

La arquitectura MoE es particularmente eficiente para modelos a gran escala, ya que permite aumentar el número total de parámetros (y por lo tanto la capacidad del modelo) sin aumentar proporcionalmente los requisitos computacionales. Esto explica cómo DeepSeek puede ofrecer un modelo competitivo con cientos de miles de millones de parámetros totales, pero que opera de manera eficiente en hardware limitado.

Disponibilidad y accesibilidad

DeepSeek ha hecho que V3.1 esté disponible a través de múltiples canales, incluyendo su plataforma de chatbot, API para desarrolladores, y los pesos del modelo para descarga en plataformas como Hugging Face y ModeScope. Esta accesibilidad contrasta con el enfoque más cerrado de algunas empresas occidentales y refleja el compromiso de DeepSeek con el modelo de código abierto, aunque con ciertas limitaciones comerciales.

A partir del 6 de septiembre, DeepSeek ajustará las tarifas de su API, un movimiento que encaja con una estrategia de sostenibilidad y escalado del servicio tras el despliegue de V3.1. Esta actualización sigue a otras mejoras recientes, incluyendo la actualización del modelo R1 en mayo y la primera evolución de la serie V3 en marzo, lo que demuestra el ritmo acelerado de innovación de la empresa.

Implicaciones globales: Más allá de la tecnología

El lanzamiento de DeepSeek-V3.1 trasciende el ámbito meramente técnico y tiene implicaciones significativas para el panorama global de la inteligencia artificial, la geopolítica tecnológica y el futuro de la industria de semiconductores. Para entender completamente su impacto, es necesario analizar estas dimensiones más amplias.

Múltiples chips Huawei conectados

Reconfiguración de la cadena de suministro global

El éxito de modelos como DeepSeek-V3.1 optimizados para hardware nacional podría acelerar la reconfiguración de la cadena de suministro global de semiconductores. Si los chips chinos logran ofrecer un rendimiento competitivo con soporte nativo para formatos como UE8M0 FP8, podríamos ver una transición gradual de la dependencia de hardware occidental hacia soluciones domésticas en China y, potencialmente, en otros países que buscan alternativas a la tecnología estadounidense.

Esta reconfiguración tendría implicaciones significativas para empresas como NVIDIA, que actualmente domina el mercado de chips para IA. Una reducción en la demanda china, que representa una parte sustancial de sus ingresos, podría forzar a la empresa a reevaluar su estrategia global y posiblemente acelerar su diversificación hacia otros mercados y aplicaciones.

450K
Unidades del chip Huawei Ascend 910B se estima que se han enviado, frente a 1 millón de NVIDIA H20

Sin embargo, es importante mantener una perspectiva equilibrada. Según datos de la industria, en 2024 las empresas chinas compraron alrededor de 1 millón de chips NVIDIA H20, en comparación con un estimado de 450,000 unidades del Huawei Ascend 910B. Esta disparidad sugiere que, aunque el progreso es significativo, los chips occidentales todavía dominan el mercado chino, y la transición hacia alternativas nacionales será gradual.

Implicaciones para la seguridad nacional y la autonomía tecnológica

Para China, el desarrollo de capacidades de IA autosuficientes no es solo una cuestión económica o tecnológica, sino también de seguridad nacional. La capacidad de desarrollar y desplegar sistemas avanzados de IA sin depender de tecnología extranjera reduce las vulnerabilidades potenciales y aumenta la autonomía estratégica en un mundo cada vez más digitalizado.

DeepSeek-V3.1 representa un paso en esta dirección, pero no es el final del camino. Como señalan los expertos, es más bien una iteración estratégica que prepara el terreno para futuros desarrollos. El verdadero test llegará cuando los próximos chips chinos con soporte nativo para FP8 lleguen al mercado y puedan demostrar un rendimiento competitivo en entornos de producción a gran escala.

"La lectura más sensata es considerar V3.1 como una iteración en esa dirección, no un salto definitivo." - Análisis sobre el significado estratégico de DeepSeek-V3.1

Conclusión: Un paso estratégico en la guerra tecnológica

DeepSeek-V3.1 es mucho más que un simple modelo de IA; es un hito en la estrategia de China por reducir su dependencia tecnológica de Occidente y desarrollar un ecosistema de IA autosuficiente. Con su arquitectura híbrida, su formato UE8M0 FP8 optimizado para futuros chips nacionales y su rendimiento competitivo, representa un avance significativo tanto técnica como estratégicamente.

Logo de DeepSeek en un teléfono móvil

Un equilibrio entre innovación y pragmatismo

Lo que hace particularmente interesante a DeepSeek-V3.1 es su enfoque equilibrado entre innovación técnica y pragmatismo estratégico. Por un lado, introduce mejoras reales en el rendimiento y la eficiencia, como la arquitectura híbrida Think/Non-Think y la ventana de contexto expandida. Por otro, está cuidadosamente alineado con las limitaciones y oportunidades del ecosistema tecnológico chino, optimizado para un futuro donde los chips nacionales puedan ofrecer soporte nativo para formatos avanzados como FP8.

Este equilibrio refleja una comprensión madura de los desafíos y oportunidades que enfrenta China en su camino hacia la autosuficiencia tecnológica. No se trata simplemente de replicar lo que ya existe en Occidente, sino de desarrollar soluciones adaptadas a las condiciones y restricciones específicas del contexto chino.

Sin embargo, es importante mantener expectativas realistas. Como hemos visto, todavía existen brechas significativas entre los chips chinos y los occidentales, particularmente en tareas de entrenamiento intensivas. DeepSeek-V3.1 es un paso importante en la dirección correcta, pero no representa un cambio inmediato en el equilibrio de poder tecnológico. Es más bien una pieza en un rompecabezas más amplio que incluye avances en diseño de chips, fabricación de semiconductores, algoritmos de IA y aplicaciones prácticas.

El futuro de la IA en un mundo multipolar

A largo plazo, el éxito de iniciativas como DeepSeek-V3.1 podría contribuir a un mundo de IA más multipolar, donde diferentes regiones desarrollen ecosistemas tecnológicos semi-independientes. Esto no solo aumentaría la resiliencia global del ecosistema de IA, sino que también fomentaría una mayor diversidad de enfoques y soluciones, beneficiando finalmente a los usuarios y a la sociedad en general.

En conclusión, DeepSeek-V3.1 es un testimonio del rápido avance de la tecnología china en el campo de la IA y un indicador de las direcciones futuras de la industria. Más allá de sus especificaciones técnicas, representa una declaración de intenciones sobre el futuro de la tecnología en un mundo cada vez más fragmentado geopolíticamente. Si el hardware chino continúa evolucionando y el soporte para formatos como UE8M0 FP8 se generaliza, podríamos estar presenciando el comienzo de una nueva era en la que la autonomía tecnológica se convierte en un factor tan importante como el rendimiento puro.

"Si el hardware acompaña y el FP8 nativo cumple, la discusión sobre dónde corre la IA en China puede cambiar de acento, con efectos colaterales en la competencia global y en la cadena de suministro." - Análisis sobre las implicaciones de DeepSeek-V3.1

Publicado el 23/8/2025

Compartir este artículo: