L'Académie chinoise des technologies de l'information et des communications a annoncé aujourd'hui avoir officiellement lancé le test d'adaptation de localisation de DeepSeek V4 afin de promouvoir une collaboration approfondie entre le modèle et les logiciels et matériels nationaux et d'accélérer la mise en œuvre industrielle.Ce test a été réalisé sur la base du laboratoire clé du ministère de l'Industrie et des Technologies de l'information et du système de référence AISHPerf, couvrant les produits logiciels et matériels d'IA full-stack tels que les puces, les serveurs, les machines tout-en-un, les clusters, les chaînes d'outils de développement et les plates-formes informatiques intelligentes, en se concentrant sur les processus d'inférence et de réglage fin de la série complète de modèles DeepSeek V4.
L'évaluation évalue à partir de cinq dimensions : la facilité d'adaptation, l'exhaustivité fonctionnelle, l'effet d'optimisation, les performances et le coût, et ajoute de nouveaux indicateurs spéciaux tels que le traitement des séquences, les capacités du code, le taux de réussite des appels d'agent et le désassemblage des tâches pour former un système d'évaluation tridimensionnel.
Le jour de sa sortie, DeepSeek V4 a atteint l'adaptation Day-0 pour plusieurs matériels nationaux, marquant l'entrée des logiciels et du matériel d'IA nationaux dans la phase d'itération de même fréquence.
Ce test vérifiera objectivement le niveau d'adaptation, renforcera le soutien de la puissance de calcul nationale et accélérera la construction d'un écosystème d'IA indépendant et contrôlable.
DeepSeek V4 comprend deux versions : V4-Pro (Flagship Edition) et V4-Flash (Lightweight Edition). Les deux versions prennent en charge nativement 1 million de contextes ultra-longs Token (environ 750 000 mots). Ils adoptent un mécanisme d'attention clairsemée DSA auto-développé pour réduire de 70 % le coût d'inférence pour un million de contextes et l'utilisation de la mémoire de 40 %.
V4-Pro : Le total des paramètres atteint 1,6 billion et les paramètres d'activation sont de 49B. Il se concentre sur la limite de performances maximale, se compare aux meilleurs modèles à source fermée au monde tels que GPT-5 et Claude Opus, et convient au raisonnement complexe, à la génération de code, aux calculs de recherche scientifique et à d'autres tâches difficiles.
V4-Flash : paramètres totaux 284B, paramètres d'activation 13B, axés sur une efficacité élevée et un faible coût, une capacité de raisonnement proche de la version Pro, une vitesse plus rapide, un prix inférieur, adapté à l'interaction quotidienne, à la création de contenu, au déploiement léger d'entreprise et à d'autres scénarios.
