Avec de nouveaux systèmes d’IA, il vient de nouvelles vulnérabilités d’IA, et un gros vient d’être découvert. C’est un défaut dans la méthode de Microsoft pour permettre aux agents d’interagir avec les sites Web en votre nom.
Microsoft appelle cette technique NLWEB, qui est une sorte de HTML pour les agents d’IA. La société a dévoilé cela lors de sa conférence de construction ce printemps, et s’est depuis penché sur cette vision avec un mode copilote expérimental pour son navigateur Edge. (Microsoft n’a pas confirmé s’il utilise NLWEB pour cela.)
Le chercheur Aonan Guan, cependant, a découvert une vulnérabilité dans NLWEB: un bogue de traversée de chemin qui permet à tout utilisateur distant de lire des fichiers sensibles comme les configurations système et les informations d’identification de cloud via une URL malformée.
Dans un post moyen, Guan a montré comment il a pu télécharger une liste des mots de passe du système avec Google Gemini et Openai Keys. Cela permettrait à un attaquant d’exécuter des applications AI dépendantes de serveur «gratuitement», sans être facturée par OpenAI.
Selon Guan, le centre de réponse de sécurité de Microsoft a poussé un correctif au référentiel GitHub en juin, confirmant que le problème a été résolu. Microsoft n’a pas publié de rapport de correctif officiel. Les utilisateurs, cependant, n’ont pas besoin de prendre des mesures.
Il est juste de dire que le développement de l’IA s’est déroulé à une vitesse vertigineuse. Mais, comme le souligne Guan, la ligne entre discuter avec une IA et la publication des commandes peut se brouiller.
« La nature même de NLWEB est d’interpréter le langage naturel », a déclaré Guan. «Cela brouille la ligne entre les commandes d’entrée de l’utilisateur et le système. Les futurs vecteurs d’attaque pourraient impliquer des phrases de fabrication qui, lorsqu’elles sont analysées par un agent, se traduisent en chemins ou actions de fichiers malveillants.»
Nous avons déjà vu des interactions Chatgpt s’échapper dans les résultats de recherche de Google. (Chatgpt aurait désormais désactivé le drapeau qui rend les chats Chatgpt découvrables.) Comme Guan (et le verge, qui a rapporté l’histoire) note, les fuites d’une telle ampleur dans un agent d’IA peuvent être catastrophiques pour toutes les personnes impliquées.











