Après avoir pris d'assaut le monde entier et fait chuter les marchés boursiers américains en janvier 2025, DeepSeek vient d'annoncer deux nouveaux modèles d'IA en source ouverte : DeepSeek V3.2 et DeepSeek V3.2-Speciale.
Cette annonce s'inscrit dans la continuité de la stratégie distincte de l'entreprise dans la course à l'armement en matière d'IA. Alors qu'OpenAI et Google ont investi des milliards de dollars en calcul pour entraîner leurs modèles d'avant-garde, en privilégiant les gains de performance à tout prix, DeepSeek a suivi une voie différente. Son précédent modèle R1 s'est distingué par sa capacité à atteindre des performances équivalentes à celles de GPT 4o et Gemini 2.5 Pro grâce à des techniques de renforcement astucieuses, bien qu'il ait été entraîné sur des puces moins avancées.
Surpasse GPT-5 tout en égalant Gemini 3 Pro de Google
Le DeepSeek-V3.2 standard est positionné comme un "pilote quotidien" équilibré, harmonisant l'efficacité avec des performances agentiques qui, selon l'entreprise, sont comparables à celles du GPT-5. Il s'agit également du premier modèle DeepSeek à intégrer la réflexion directement dans l'utilisation des outils, cette dernière étant autorisée dans les modes de réflexion et de non-réflexion.
Toutefois, c'est la variante DeepSeek V3.2-Speciale à forte capacité de calcul qui fera les gros titres. DeepSeek affirme que le modèle Speciale surpasse le GPT-5 et rivalise avec Gemini 3.0 Pro de Google en termes de capacités de raisonnement pur. Il a même obtenu la médaille d'or aux Olympiades internationales de mathématiques (IMO) et aux Olympiades internationales d'informatique (IOI) de 2025. Et pour prouver qu'il ne s'agit pas d'un simple battage publicitaire, DeepSeek déclare avoir publié ses soumissions finales pour ces compétitions afin de les soumettre à la vérification de la communauté.
DeepSeek attribue les gains de performance à "DeepSeek Sparse Attention" (DSA), un mécanisme conçu pour réduire la complexité des calculs dans les scénarios à contexte long, et à un cadre d'apprentissage par renforcement évolutif.
Ce qui est peut-être le plus intéressant pour les développeurs, c'est l'accent mis sur les agents. DeepSeek a construit un "Large-Scale Agentic Task Synthesis Pipeline" pour entraîner le modèle sur plus de 85 000 instructions complexes. Le résultat est un modèle qui peut intégrer des processus de "réflexion" directement dans les scénarios d'utilisation des outils.
Disponibilité
DeepSeek V3.2 est désormais disponible sur le web, les applications mobiles et l'API. En revanche, la V3.2 Speciale est actuellement réservée à l'API et s'accompagne d'un point de terminaison strictement temporaire qui expire le 15 décembre 2025. En outre, Speciale est un moteur de raisonnement pur et ne prend pas en charge les appels d'outils. Si vous souhaitez exécuter ces modèles localement, l'entreprise propose des instructions détaillées à l'adresse https://github.com/deepseek-ai/DeepSeek-V3.2-Exp.
Top 10
» Le Top 10 des PC portables multimédia
» Le Top 10 des PC portables de jeu
» Le Top 10 des PC portables de jeu légers
» Le Top 10 des ordinateurs portables bureautiques
» Le Top 10 des PC portables bureautiques premium/professionnels
» Le Top 10 des Stations de travail mobiles
» Le Top 10 des Ultraportables
» Le Top 10 des Ultrabooks
» Le Top 10 des Convertibles
» Le Top 10 des Tablettes
» Le Top 10 des Tablettes Windows
» Le Top 10 des Smartphones
» Le Top 10 des PC Portables á moins de 300 euros
» Le Top 10 des PC Portables á moins de 500 euros
» Le Top 25 des meilleurs écrans d'ordinateurs








