L’intelligence artificielle (IA) peut être une force pour le bien dans notre avenir, cela est évident du fait qu’il est utilisé pour faire avancer des choses comme la recherche médicale. Mais qu’en est-il d’être une force pour le mauvais?
La pensée que quelque part là-bas, il y a un méchant de James Bond dans un fauteuil caressant un chat et utiliser une AI générative pour pirater votre PC peut sembler fantastique mais, franchement, ce n’est pas le cas. Les experts en cybersécurité se précipitent déjà pour contrecarrer des millions de menaces par des pirates qui ont utilisé une IA générative pour pirater des PC, voler de l’argent, des références et des données, et, avec la prolifération rapide d’outils de l’IA nouveaux et améliorés, cela ne fera qu’empirer.
Le type de cyberattaques que les pirates utilisent ne sont pas nécessairement nouveaux. Ils sont juste plus prolifiques, sophistiqués et efficaces maintenant qu’ils ont armé l’IA. Voici ce qu’il faut rechercher…
Malware généré par l’AI-AI
La prochaine fois que vous verrez une fenêtre contextuelle, vous voudrez peut-être appuyer sur Ctrl-Alt-Delete Very rapidement! Pourquoi? Parce que les pirates utilisent des outils d’IA pour écrire des logiciels malveillants comme il n’y a pas de demain et qu’il apparaît dans les navigateurs.
Les experts en sécurité peuvent dire quand les logiciels malveillants ont été écrits par une IA générative en examinant son code. Les logiciels malveillants écrits par IA Tools sont plus rapides à faire, peuvent être mieux ciblés contre les victimes et plus efficaces pour contourner les plates-formes de sécurité que le code écrit à la main, selon un article de la revue Revue de l’intelligence artificielle.
Un exemple est le logiciel malveillant découvert par l’équipe de recherche sur les menaces de HP qu’il met en évidence dans son rapport sur les informations sur les menaces de septembre 2024. La société a déclaré avoir découvert un code malveillant caché dans une extension que les pirates ont utilisé pour prendre en charge les séances de navigateur et directement les utilisateurs vers des sites Web flageant de faux outils PDF.
L’équipe a également trouvé que SVG Images hébergeait un code malveillant qui pourrait lancer un malware infosélérateur. Le malware en question avait du code avec «la langue maternelle et les variables qui étaient conformes à un outil générateur d’IA», qui est un indicateur clair de son origine d’IA.
Éviter des systèmes de sécurité
C’est une chose d’écrire des logiciels malveillants avec des outils d’IA, c’est tout autre chose de le maintenir efficace pour contourner la sécurité. Les pirates savent que les sociétés de cybersécurité se déplacent rapidement pour détecter et bloquer de nouveaux logiciels malveillants, d’où la raison pour laquelle ils utilisent de grands modèles de langage (LLM) pour l’obsurquer ou le modifier légèrement.
L’IA peut être utilisée pour mélanger le code dans des logiciels malveillants connus ou créer de nouvelles variantes que les systèmes de détection de sécurité ne reconnaîtront pas. Cela est le plus efficace contre les logiciels de sécurité qui reconnaissent les modèles connus d’activité malveillante, selon les professionnels de la cybersécurité. En fait, il est en fait plus rapide de le faire que de créer des logiciels malveillants à partir de zéro, selon les chercheurs de Palo Alto Networks Unit 42.
Les chercheurs de l’unité 42 ont démontré comment cela est possible. Ils ont utilisé des LLM pour réécrire 10 000 variantes de code JavaScript malveillantes de logiciels malveillants connus qui avaient les mêmes fonctionnalités que le code d’origine.
Ces variantes ont réussi à éviter la détection par des algorithmes de détection LM comme Innocent jusqu’à ce que la culpabilité soit prouvée (IUPG), ont révélé les chercheurs. Ils ont conclu qu’avec suffisamment de transformations de code, il était possible pour les pirates de «dégrader les performances des systèmes de classification des logiciels malveillants» suffisamment pour éviter la détection.
Deux autres types de logiciels malveillants que les pirates utilisent pour échapper à la détection sont peut-être encore plus alarmants en raison de leurs capacités intelligentes.
Surnommé «MALWODED ADAPTIVE» et «charges utiles dynamiques des logiciels malveillants», ces types sont capables d’échapper aux systèmes de sécurité en apprenant et en ajustant leur codage, leur chiffrement et leur comportement en temps réel pour contourner les systèmes de sécurité, selon les experts en cybersécurité.
Bien que ces types soient antérieurs aux LLM et à l’IA, l’IA générative les rend plus sensibles à leur environnement et donc plus efficaces, expliquent-ils.
Voler des données et des informations d’identification
Les logiciels et algorithmes AI sont également utilisés pour voler plus avec succès les mots de passe et les connexions des utilisateurs et accéder illégalement à leurs comptes, selon les entreprises de cybersécurité.
Les cybercriminels utilisent généralement trois techniques pour ce faire: la farce des informations d’identification, la pulvérisation de mot de passe et les attaques de force brute, et les outils d’IA sont utiles pour toutes ces techniques, disent-ils.
Les algorithmes biométriques prédictifs facilitent l’essentiel des pirates d’espionnage des mots de passe et facilitent donc le piratage de grandes bases de données contenant des informations utilisateur.
De plus, la numérisation et l’analyse des algorithmes sont déployées par des pirates pour scanner et cartographier rapidement les réseaux, identifier les hôtes, ouvrir les ports et identifier le logiciel en fonctionnement pour découvrir les vulnérabilités des utilisateurs.

Les attaques par force brute ont été une méthode préférée de cyberattaque pour les pirates amateurs. Ce type d’attaque implique le bombardement d’essai et d’erreur d’un grand nombre d’entreprises ou de personnes avec des cyber-attaques dans l’espoir que quelques-uns seront pénétrés.
Traditionnellement, une seule attaque sur 10 000 réussit grâce à l’efficacité des logiciels de sécurité. Mais ce logiciel devient moins efficace en raison de la montée en puissance des algorithmes de mot de passe qui peuvent analyser rapidement de grands ensembles de données de mots de passe divulgués et de dire plus efficacement les attaques de force brute.
Les algorithmes peuvent également automatiser les tentatives de piratage sur plusieurs sites Web ou plateformes à la fois, préviennent les experts en cybersécurité.
Ingénierie sociale et phishing plus efficaces
Des outils génératifs d’IA conventionnels comme Gemini et Chatgpt ainsi que leurs homologues Web sombres comme Wormgpt et Fraudgpt, sont utilisés par les pirates pour imiter la langue, le ton et l’écriture des individus pour rendre l’ingénierie sociale et les attaques de phishing plus personnalisées pour les victimes.
Les pirates utilisent également des algorithmes d’IA et des chatbots pour récolter les données des profils de médias sociaux, des moteurs de recherche et d’autres sites Web (et directement des victimes elles-mêmes) pour créer des emplacements de phishing dynamique en fonction de l’emplacement, des intérêts ou de leurs réponses d’un individu.
Avec la modélisation de l’IA, les pirates peuvent même prédire la probabilité que leurs hacks et escroqueries réussissent.

Encore une fois, c’est un autre domaine où les pirates déploient également des robots intelligents qui peuvent apprendre des attaques et modifier leur comportement pour rendre les attaques plus susceptibles de réussir.
Les e-mails de phishing générés par les pirates utilisant des logiciels d’IA réussissent plus pour tromper les gens, selon la recherche. L’une des raisons est qu’ils ont tendance à impliquer moins de drapeaux rouges comme les erreurs grammaticales ou les erreurs d’orthographe qui les donnent.
L’agence de technologie gouvernementale de Singapour (GovTech) l’a démontré lors de la convention de cybersécurité de Black Hat USA en 2021. Lors de la convention, il a rendu compte d’une expérience dans laquelle les e-mails de phishing de lance générés par le Chatgpt 3 d’Openai et ceux écrits à la main ont été envoyés aux participants.
L’expérience a révélé que les participants étaient beaucoup plus susceptibles de cliquer sur les e-mails créés par Chatgpt que les e-mails générés à la main.
Imitation de science-fiction
L’utilisation de l’IA générative pour une usurpation d’identité devient un peu de science-fiction lorsque vous commencez à parler de vidéos de faux-fictives et de l’utilisation de clontes vocales.
Même ainsi, les pirates utilisent des outils d’IA pour copier les ressemblances et les voix (appelées phishing vocale ou Vishing) de personnes connues des victimes dans des vidéos et des enregistrements afin de retirer leurs escroquettes.
Un cas de grande envergure a eu lieu en 2024 lorsqu’un travailleur financier a été amené à verser 25 millions de dollars aux pirates qui ont utilisé la technologie vidéo en profondeur pour se faire passer pour le directeur financier de la société et d’autres collègues.
Ce ne sont pas les seules techniques d’identité d’IA, cependant. Dans notre article «Les imitateurs d’IA feront des ravages en 2025. Voici ce qu’il faut surveiller», nous couvrons huit façons dont les imitateurs d’IA essaient de vous arnaquer, alors assurez-vous de le vérifier pour une plongée plus profonde sur le sujet.











