Microsoft a pris le nouveau modèle d’IA chaud, Deepseek, et l’a rendu disponible pour Copilot + PCS – et sur le NPU, pas moins.
S’il semble que toutes les deux semaines, quelque chose d’important se passe dans l’espace AI – eh bien, ce n’est pas trop loin de la vérité. Et bien qu’il soit parfois difficile de dire quels développements sont les plus importants, la récente publication du modèle du développeur chinois Deepseek a profondément ébranlé l’industrie de l’IA, en particulier parce que le coût de la formation était, selon la société, beaucoup moins que les autres modèles occidentaux. Cela a envoyé des actions américaines plongeant, y compris celles impliquées dans les industries de la puce et de l’IA.
Deepseek a également été dans l’actualité pour divulguer des informations sensibles et parce que l’application mobile de l’entreprise a rompu les données utilisateur. Mais Deepseek a également publié son modèle sur GitHub en tant qu’open source, ce qui signifie que d’autres pourraient examiner son code source et le désinfecter. Microsoft a fait exactement cela.
Exécuter Deepseek n’est pas aussi simple que de simplement naviguer vers un site Web, comme Google’s Gemini ou le copilote de Microsoft. Microsoft a a publié le modèle Deepseek à utiliser dans le cloud, mais il est Deepseek pour le PC qui est plus intéressant. Microsoft a «distillé» le modèle Deepseek pour une utilisation sur PCS, abordant spécifiquement les PC Copilot + qui utilisent la plate-forme Qualcomm Snapdragon X. (Les puces Ultra 200 de base d’Intel seront prises en charge plus tard.)
Selon un article de blog, Microsoft a déjà publié une version compacte de Deepseek, Deepseek-R1-Distill-Qwen-1.5b, avec des modèles de 7 milliards et 14 milliards de paramètres prévus bientôt. Les modèles d’IA avec des paramètres plus petits sont généralement moins précis mais sont exécutés plus rapidement.
Mais les chatbots LLMS ou AI s’exécutent généralement sur le CPU ou le GPU, en raison de la prévalence des deux. L’utilisation par Microsoft de la NPU est ce pour quoi la logique a été conçue: le traitement AI puissant mais efficace. « Ces modèles optimisés permettent aux développeurs de construire et de déployer des applications alimentées par AI qui s’exécutent efficacement sur les appareils, en tirant pleinement parti des NPU puissants dans Copilot + PC », a déclaré Microsoft.
Pour voir Deepseek en action sur votre copilot + PC, vous devrez télécharger la boîte à outils AI de Microsoft, puis l’extension VS Code, a déclaré Microsoft. Vous devrez alors télécharger et installer le modèle « Deepseek_R1_1_5 ».
Microsoft a tranquillement travaillé pour apporter l’IA localement sur votre PC, en particulier avec le travail en cours derrière Phi Silica et la promesse de fonctions d’IA fonctionnant localement dans Windows lui-même. Le port Deepseek montre que c’est possible.











