Tecnología

DeepSeek lanza V4 a una quinta parte del precio de GPT-5 y sin Nvidia

El laboratorio chino que sacudió a Silicon Valley con R1 vuelve con una versión más grande, más barata y pensada para funcionar sobre hardware chino. V4-Pro es el mayor modelo de pesos abiertos jamás construido, cobra la quinta parte que GPT-5 y sus dos variantes ya están disponibles en Hugging Face bajo licencia MIT.
Susan Hill

Un laboratorio de Hangzhou acaba de publicar el modelo de inteligencia artificial de código abierto más grande jamás construido. DeepSeek ha lanzado la versión preview de V4-Pro y V4-Flash, una pareja de modelos de lenguaje que suben la apuesta con una tesis concreta — procesar un millón de tokens de contexto ya no es un problema de capacidad, sólo de eficiencia. V4-Pro reúne 1,6 billones de parámetros totales con 49.000 millones activos por consulta, suficiente para leer una base de código entera o un libro completo en un solo prompt. Por primera vez un modelo de código abierto compite de forma creíble con los mejores modelos cerrados en matemáticas, programación y tareas de agentes — y lo hace a una fracción del coste.

Ambos modelos llegan con licencia MIT y los pesos ya están publicados en Hugging Face. V4-Flash es la variante eficiente, con 284.000 millones de parámetros totales y 13.000 millones activos, lo bastante pequeña como para que una versión cuantizada quepa en un portátil de gama alta. V4-Pro es el buque insignia, 865 gigabytes en disco, orientado al despliegue en la nube y a laboratorios de investigación. Ambos comparten la misma ventana de contexto de un millón de tokens — un salto que iguala a Gemini de Google y duplica lo que ofrecen la mayoría de los modelos abiertos rivales.

YouTube video

El movimiento arquitectónico clave se llama Hybrid Attention: DeepSeek combina dos técnicas de compresión para recortar los costes de memoria con tal agresividad que V4-Pro usa el 27% del cómputo y el 10% de la caché que V3.2 necesitaba con la misma longitud de contexto. V4-Flash aún va más allá. En términos prácticos: servir un prompt de un millón de tokens con V4-Pro sale más barato que servir uno de 100.000 con la generación anterior.

La disrupción del precio es donde este lanzamiento aprieta más fuerte. V4-Flash se tarifa a 0,14 dólares por millón de tokens de entrada, por debajo incluso de GPT-5.4 Nano. V4-Pro cuesta 1,74 dólares por millón de tokens de entrada y 3,48 por millón de salida — un tercio de lo que Anthropic cobra por Claude Opus 4.7 y una quinta parte de lo que OpenAI cobra por GPT-5.5. En benchmarks de programación V4-Pro alcanza una puntuación Codeforces de 3.206, cifra que según DeepSeek lo situaría en el puesto 23 entre programadores humanos de competición.

La lectura geopolítica pesa tanto como los benchmarks. DeepSeek optimizó V4 para correr sobre los chips Ascend 950 de Huawei y sobre el silicio del fabricante chino de IA Cambricon, y no concedió acceso previo a Nvidia ni a AMD para afinar el rendimiento — una inversión de la práctica habitual de la industria. El lanzamiento funciona como prueba de estrés comercial para la infraestructura tecnológica china, que lleva años operando bajo las restricciones de exportación de Washington.

Hay matices que conviene señalar. V4 es una versión preview, no una versión de producción, y aún no se han completado los benchmarks independientes de terceros. El propio informe técnico de DeepSeek reconoce que el modelo va entre tres y seis meses por detrás de GPT-5.4 y de Gemini 3.1 Pro en capacidad frontera. Su predecesor R1 fue prohibido o restringido en varios estados norteamericanos, Australia, Taiwán, Corea del Sur, Dinamarca e Italia pocas semanas después de su lanzamiento — V4 arranca con la misma exposición regulatoria en esos mercados. Los contratistas del Pentágono tienen prohibido usar modelos de DeepSeek bajo la ley NDAA de 2026 salvo autorización expresa.

Fuera de esas zonas restringidas el acceso es inmediato. El chatbot web de DeepSeek expone V4-Pro a través del modo Expert y V4-Flash a través del modo Instant sin coste, y los desarrolladores pueden llamar a la API cambiando el nombre del modelo a deepseek-v4-pro o deepseek-v4-flash.

El lanzamiento se ha producido exactamente un año después de que DeepSeek-R1 sacudiera los mercados globales de IA el 20 de enero de 2025 — el calendario está medido. El precio definitivo de la API fuera del periodo de preview todavía está pendiente, y los endpoints antiguos deepseek-chat y deepseek-reasoner se retiran el 24 de julio de 2026, fecha en la que todo el tráfico pasará automáticamente a V4.

Debate

Hay 0 comentarios.