DeepSeek-V4 podría cambiar la carrera global de modelos de IA
Los nuevos modelos V4 de código abierto de DeepSeek combinan capacidades de contexto largo con precios significativamente más bajos, posicionando a la startup china como un competidor más fuerte en la carrera global de la IA. El lanzamiento también señala un cambio hacia el hardware de Huawei, ya que China busca reducir su dependencia de Nvidia.

El modelo de IA recién lanzado por DeepSeek muestra cómo el enfoque de la startup china en el código abierto y los menores costos podría ayudar a China a avanzar en la carrera geopolítica de la IA, especialmente a medida que el proveedor comienza a reducir su dependencia del gigante estadounidense de chips de IA, Nvidia.
DeepSeek lanzó DeepSeek-V4 en versión preliminar el 24 de abril. El modelo de código abierto puede procesar instrucciones más largas que los modelos anteriores de DeepSeek. También es el lanzamiento más significativo de la startup desde R1 en enero de 2025, que sorprendió al mercado de la IA por su capacidad de razonamiento y su bajo precio.
DeepSeek-V4 viene en dos versiones: V4-Pro y V4-Flash. V4-Pro es más grande, con 1,6 billones de parámetros totales, mientras que V4-Flash es una versión de alta velocidad con 284 mil millones de parámetros. Ambas versiones admiten longitudes de contexto de hasta 1 millón de tokens, lo que las hace comparables en escenarios de contexto largo con Google Gemini y Claude de Anthropic. Los modelos están diseñados para razonamiento de largo alcance, programación y flujos de trabajo agénticos.
El factor costo
DeepSeek está posicionando V4 como una alternativa de menor costo frente a los principales modelos de frontera.
- V4-Pro: $1,74 por millón de tokens de entrada y $3,48 por millón de tokens de salida
- V4-Flash: $0,14 por millón de tokens de entrada y $0,28 por millón de tokens de salida
En comparación:
- Gemini 3.1 Pro: $2 por millón de tokens de entrada y $12 por millón de tokens de salida
- GPT 5.5: $5 por millón de tokens de entrada y $30 por millón de tokens de salida
- Claude Opus 4.7: $5 por millón de tokens de entrada y $25 por millón de tokens de salida
"El precio por token es un tercio del que ofrecen los laboratorios de frontera", dijo Kashyap Kompella, CEO de RPA2AI Research. "Ese tipo de precios puede cambiar el comportamiento de compra".
Kompella añadió que, aunque los modelos de DeepSeek pueden ir entre tres y seis meses por detrás de las ofertas de frontera de OpenAI, Google o Anthropic, la brecha de rendimiento puede ser menos importante si la diferencia de costos es sustancial.
"Las empresas no siempre necesitan el mejor modelo absoluto para todos los casos de uso", afirmó Kompella. "Necesitan un rendimiento suficientemente bueno, costos predecibles y control. DeepSeek está obligando a los laboratorios de frontera occidentales a innovar en costos, no solo en capacidades del modelo".
Alejándose de Nvidia
La serie V4 también marca un cambio significativo en la estrategia de hardware de DeepSeek. Los modelos están optimizados para la inferencia en el supernodo Ascend del fabricante chino de chips Huawei. Modelos anteriores como V3 fueron entrenados con chips Nvidia H800. Según informes, V4-Flash fue parcialmente entrenado con hardware de Huawei, mientras que V4-Pro aún dependió de Nvidia debido a sus amplios requisitos de cómputo.
La asociación beneficia a ambas compañías, según Lian Jye Su, analista de Omdia, una división de Informa TechTarget. Huawei ha tenido dificultades para ganar tracción con su propia serie de modelos Pangu.
"Poder ahora dar soporte a DeepSeek de forma nativa, mostrando un rendimiento bastante razonable, es un logro muy avanzado", señaló Su. "Esto permite que China gane un poco más de respeto por parte de otros proveedores".
Su añadió que los países favorables a China pueden mostrarse más abiertos a adoptar otros productos chinos, dado que China parece estar superando restricciones y limitaciones en comparación con hace 12 meses. Sin embargo, señaló que Huawei aún está por detrás de Nvidia y del ecosistema global de IA en fabricación de chips y desarrollo de software.
El compromiso con el código abierto
La adhesión de DeepSeek al código abierto también es significativa desde el punto de vista geopolítico. Si bien proveedores estadounidenses como Meta y OpenAI adoptaron anteriormente el código abierto, en gran medida se han alejado de él. El código abierto podría ser el principal diferenciador de DeepSeek.
"El código abierto les ayuda a atraer desarrolladores, generar confianza y crear un ecosistema", dijo Kompella, y añadió que también es ventajoso en el mercado chino.
Otros proveedores chinos, incluidos Alibaba, Kimi, Qwen y Minimax, también ofrecen modelos con pesos abiertos. Su describió el código abierto como una estrategia fundamentalmente comercial, pero afirmó que está integrado en el enfoque de DeepSeek en lugar de ser una táctica temporal antes de pasar a modelos cerrados.
El código abierto también le da a China una oportunidad en mercados sensibles al precio fuera de Estados Unidos.
"También le permite a China influir en los mercados globales de IA sin necesidad de poseer cada capa de aplicación", dijo Kompella.
El alejamiento gradual de DeepSeek respecto a Nvidia se alinea con el objetivo más amplio del gobierno chino de reducir la dependencia de proveedores occidentales. Sin embargo, las empresas occidentales siguen siendo cautelosas.
"Ahora existen reservas significativas en el bloque occidental sobre adoptar cualquier solución de código abierto procedente de China", afirmó Su. "Hay un gran rechazo por parte de las grandes empresas, especialmente en industrias críticas, a elegir o incluso evitar por completo modelos chinos, principalmente debido al escrutinio de los gobiernos".
Aun así, para las empresas que ya utilizan productos de Huawei, los modelos V4 pueden merecer consideración. Para otras, la combinación de bajo costo y estrategia de código abierto de DeepSeek podría influir en la configuración de la próxima fase de la competencia global en IA.
"La carrera global de la IA se trata de quién puede ofrecer inteligencia a escala, a bajo costo y sobre una pila tecnológica soberana", concluyó Kompella.