Microsoft a ajouté GPT-5 à Copilot, un jour après avoir ajouté le modèle GPT open-source d’Openai à ses services locaux.
Le GPT-5, qui alimente également le chatppt, est maintenant en direct dans Copilot, sur copilot.microsoft.com, a déclaré Microsoft jeudi. Vraisemblablement, le même modèle va finalement alimenter l’application Copilot en cours d’exécution sur les PC Windows, mais l’application Windows semble utiliser uniquement l’ancien modèle GPT-4 pour l’instant, au moins sur mon PC.
OpenAI a lancé le GPT-5 jeudi, promettant des sauts dans l’intelligence générale ainsi que des améliorations spécialisées dans l’écriture créative, le codage et la santé. Dans le codage, Openai a affirmé qu’il pourrait créer un site Web dans une seule invite.
GPT-5 comprend ce qu’Openai a appelé un routeur, en attribuant des requêtes à des tâches spécifiques en fonction de la complexité de l’affectation. Sur le site de copilote de Microsoft, vous devrez l’activer manuellement via le menu déroulant. Sur la base de la description – «pense profondément ou rapidement en fonction de la tâche» – il semble également que la fonctionnalité du routeur soit activée.
Une invite muette mais autrement révélatrice: «Combien de bois pourrait un mandrin de marmotte si une marmotte pouvait détruire le bois» a rapidement produit une réponse: 700 livres de bois. Mais lorsqu’on lui a demandé de «montrer votre travail», Copilot a livré une explication plus longue. Il n’était toujours pas aussi détaillé que l’explication GPT-5 disponible sur Chatgpt, bien que les deux moteurs d’IA soient arrivés à la même réponse.
Attendez-vous à voir GPT-5 dans Microsoft 365 Copilot ainsi que GitHub Copilot, Visual Studio Code et Azure Foundry, a déclaré Microsoft. Microsoft a déclaré que GPT-5 sur Azure AI Foundry sera disponible aujourd’hui, mais sa présence sur Github Copilot a été formulée dans les termes futurs.
Mercredi, Microsoft a déclaré qu’il apportait GPT-OSS-120B et GPT-OSS-20B à Azure AI Foundry et les versions optimisées GPU du modèle GPT-OSS-20B aux appareils Windows via Foundry Local. Ces modèles GPT-4 open source nécessitent un GPU discret avec plus de 16 Go de VRAM.
J’ai exécuté le modèle GPT-OSS sur le bureau Framework, avec son processeur Ryzen AI Max + 395 et GPU intégré, qui peut être configuré pour attribuer 96 Go de sa mémoire disponible en VRAM pour une augmentation significative des performances. Il a en fait produit de meilleures réponses qu’un modèle Meta Llama Scout 109b beaucoup plus complexe qui fonctionnait sur le même matériel.
Pendant ce temps, Microsoft a déclaré qu’il pensait que le modèle GPT-5 est plus sûr que ses prédécesseurs. « Les résultats montrent que le modèle de raisonnement présentait l’un des profils de sécurité les plus forts de l’IA parmi les modèles OpenAI antérieurs contre plusieurs modes d’attaque, notamment la génération de logiciels malveillants, l’automatisation de la fraude / des arnaques et d’autres préjudices », a-t-il déclaré.











