L’intelligence artificielle, comme les lundis, est de plus en plus détestée, à tel point que je me sens superflu d’écrire sur combien j’ai appris à la détester ces derniers temps. Et pourtant, je me retrouve à l’utiliser de plus en plus.
L’IA est idéale pour des choses comme l’art conceptuel rapide et sale, en tant que compagnon de conception pour rebondir sur des idées et pour rédiger des e-mails professionnels qui doivent enfiler l’aiguille entre formalité et sévérité.
Mais l’IA est aussi vraiment ennuyeux. La façon dont il parle, la façon dont il oublie les choses, la façon dont il invente des choses sur place et ment effrontément et avec confiance. Ce n’est pas aussi bon ni aussi révolutionnaire qu’il prétend l’être. Sans parler des choses horribles que certaines personnes font avec, ou de l’effet global que cela a eu sur les industries que j’aime et dans lesquelles je travaille.
Oui, plus j’utilise l’IA, plus je la déteste.
L’IA est plus ennuyeuse que jamais
Lorsque j’ai commencé à utiliser ChatGPT et d’autres chatbots, c’était tellement cool de voir à quel point ils semblaient réalistes. C’était comme parler à une vraie personne. Mais au fil du temps et des modèles successifs, cette façade est devenue de plus en plus évidente. Désormais, chaque fois que j’ai une conversation avec l’IA qui semble durer trop longtemps, il est impossible de manquer la répétition et les schémas.
« C’est tellement X, et honnêtement, un excellent exemple de Y », voilà comment chaque réponse a commencé pendant un certain temps. Cela a dû être si irritant que j’ai finalement dû demander à ChatGPT de arrête de faire çaet j’ai même ajouté des instructions personnalisées pour randomiser ses structures de phrases dans ses réponses.
ChatGPT aime de répéter mes instructions également, brisant encore davantage le quatrième mur de cette prétendue conversation à double sens. Après lui avoir dit d’être plus succinct et moins verbeux, il a commencé à ajouter une mise en garde à chaque réponse. «Voici une réponse claire et pragmatique», comme si je voulais lui rappeler qu’il allait faire ce que je lui avais demandé de faire.
L’IA ment trop facilement et avec trop d’assurance
J’ai récemment eu une idée de jeu de société et j’y travaille depuis quelques mois. J’ai utilisé ChatGPT comme plate-forme d’idéation pour des variations sur un thème, ainsi que comme source d’iconographie rapide pour les prototypes de cartes. Mais quand je me suis senti un peu trop excité et que je lui ai demandé de me dire ce qu’il pensait vraiment de mon idée – en bref, si elle semblait publiable et si elle aurait du succès –, il m’a répondu oui catégoriquement. « Oh oui. C’est le meilleur nouveau design de jeu depuis longtemps, il sera sûrement publié et vendu dans de nombreuses langues et… »
Bla, bla, bla. Non, ce ne sera pas le cas. C’est une idée amusante à laquelle je pourrais faire jouer mes amis, mais cela ne deviendra pas la prochaine Pandémie ou Envergure et tu le sais. Lorsque j’ai appelé ChatGPT à ce sujet, il s’est excusé et a admis qu’il disait simplement ce qu’il pensait que je voulais entendre.
Je suis absolument ne le faites pas il faut qu’on lui mente comme ça. Je ne veux pas qu’il façonne ses réponses en fonction de ce qu’il pense que je veux entendre dans sa réponse. Je veux juste qu’il réponde à ma question (ou exécute ma requête rapide) en tant qu’honnête mais faux-humain qu’il essaie apparemment d’imiter.
Malheureusement, celui-ci est difficile à contourner car la moitié du temps, il ne sait même pas qu’il le fait. Après tout, les LLM ne réfléchissent pas vraiment.
L’IA ne sait toujours rien
L’ajout d’un contexte de mémoire aux conversations était un gros problème lorsque les sociétés d’IA ont commencé à le faire. Enfin, nous pourrions avoir des conversations avec ces chatbots qui s’étendaient sur plus de quelques messages. En effet, il pourrait apprendre de nous au fil des semaines et des mois et devenir progressivement l’outil que nous avons toujours voulu qu’il soit. Un parfait rien que pour nous. (Jusqu’à ce qu’ils changent de modèle, bien sûr…)
Mais mis à part la mémoire et le contexte, il existe un énorme défaut qui mine encore les LLM : ils inventent des choses au hasard.
Lors d’une discussion sur mon jeu de société, j’ai demandé à ChatGPT lequel des différents leviers du jeu serait le mieux actionné pour accélérer le jeu et réduire sa durée globale de jeu. Il a ensuite suggéré que nous dépensions une ressource qui n’existait même pas dans le jeu. (La ressource pourrait-elle exister ? Bien sûr, je pourrais l’ajouter en fonction de cette conversation. Mais elle n’est pas là maintenantpourtant ChatGPT en parlait tel quel.)
Ce qui est frustrant à propos de l’IA, c’est qu’elle fonctionne mieux lorsque vous connaissez déjà la réponse que vous cherchez et que vous n’avez besoin que de l’IA pour la confirmer. Mais cela signifie que vous devez en savoir suffisamment sur ce que vous demandez pour savoir si la réponse est absurde. Si vous n’avez pas cette connaissance, vous ne pouvez tout simplement pas savoir si une réponse est bonne ou mauvaise.
C’est pourquoi le biais de confirmation est un problème si important avec les chatbots IA comme ChatGPT, et c’est pourquoi les réponses ne sont pas dignes de confiance.
L’IA est bien trop incohérente
Les IA de grands modèles de langage sont des complétions automatiques glorifiées. Ils utilisent des algorithmes sophistiqués pour décider quel mot doit venir ensuite lors de la génération d’une réponse, mais en fin de compte, ce n’est encore qu’une machine à prédire. Ce n’est pas réellement le cas savoir rien. Il s’agit simplement de produire un résultat basé sur des données d’entraînement, des probabilités et des connexions potentielles.
Et cela signifie des résultats incohérents.
Vous pouvez poser à ChatGPT ou à tout autre chatbot IA exactement la même question que quelqu’un d’autre a posée, tout en recevant une réponse différente. Parfois, les différences sont mineures. D’autres fois, ils sont drastiques.
Lorsque j’ai utilisé ChatGPT pour créer un système informatique MUTHUR 2000 pour un jeu récent d’Alien RPG (bon sang oui, c’est aussi cool que ça en a l’air), cela a bien fonctionné pour créer un système compliqué de journaux dans lesquels les joueurs pouvaient fouiller… mais ces journaux étaient différents à chaque fois que je l’exécutais. Peut-être pas si différent au point de ruiner le concept, mais suffisamment différent pour que j’ai dû improviser pourquoi certaines portes étaient verrouillées (elles n’auraient pas dû l’être) ou pourquoi le réacteur était de nouveau en ligne (avant que les joueurs ne le déclenchent).
J’avais déjà créé des instructions GPT personnalisées pour assurer un certain niveau de cohérence dans ses réponses, mais même à la limite de caractères, cela inventait ou embellissait toujours les choses au-delà de ce que je voulais.
Il en va de même pour la barre des tâches contextuelles d’Adobe et ses fonctions génératives dans Photoshop. Parfois, il produit des résultats fantastiques et ajoute avec succès de nouveaux personnages aux scènes ou change parfaitement la couleur d’un objet. D’autres fois, il semble avoir du mal à savoir que je ne veux pas de cette énorme boîte blanche contenant quelque chose que j’ai supprimé de la scène. Mélangez simplement l’arrière-plan pour ne pas avoir à utiliser le pinceau cicatrisant, pour l’amour de Dieu ! Le manque de fiabilité est pour le moins frustrant.
L’IA aggrave tout
Outre les problèmes d’utilisabilité de l’IA, il est difficile d’ignorer l’impact négatif que l’industrie de l’IA a sur le monde et ses industries. Alors que toutes les grandes entreprises technologiques du monde semblent se tourner vers l’IA – avec quelques reculs notables, heureusement – cela ruine l’espace PC DIY. Les prix de la mémoire montent en flèche, le stockage n’est pas en reste, les nouvelles cartes graphiques sont retardées, voire annulées, et ce n’est que le début.
Même le Consumer Electronics Show (CES) de cette année n’a présenté que très peu de nouveaux « appareils électroniques grand public » d’AMD ou de Nvidia. Ils ont passé la plupart de leur temps à parler de leurs investissements dans l’IA, comme si nous n’en avions pas encore assez entendu parler. Il en va de même pour les fabricants d’ordinateurs portables, qui diffusaient l’IA via leurs PC et NPU Copilot+.
Pendant ce temps, les investissements axés sur l’IA provoquent des problèmes de pénurie d’eau, de pollution et de tarifs énergétiques, avant même que tous ces nouveaux centres de données d’IA n’aient été inaugurés. Alors que les gouvernements du monde entier investissent tant dans ces projets d’infrastructure d’IA et que de nombreux marchés boursiers dépendent tellement des grandes entreprises technologiques d’IA pour rester dans le noir, il y a une réelle chance qu’une bulle d’IA éclatée entraîne avec elle la moitié de l’économie mondiale. (Les signes d’une bulle IA éclatante sont là, d’ailleurs !)
Sans parler de tous les problèmes qui découlent de l’abus généralisé de l’IA générative, allant des fausses nouvelles aux vraies nouvelles étayées par de fausses images et vidéos d’IA, de Grok de xAI fabriquant des deepfakes de femmes et d’enfants à l’IA supplantant des millions d’emplois.
Et étant donné que tous ces développeurs d’IA sont très intégrés dans diverses institutions mondiales, la résistance à l’IA est limitée.
Tout cela semble un peu trop inévitable
J’ai écrit sur l’effondrement imminent de la bulle de l’IA, mais je ne vois pas cela comme quelque chose qui mettrait fin à l’IA dans cette chronologie. je ne voudrais pas que ça swingue que bien dans l’autre sens, mais j’espère que la bulle éclatera bientôt – juste pour donner à l’industrie un rappel à la réalité.
L’IA peut être utile et je peux voir l’objectif final que tout le monde vise. Mais ils n’y parviendront pas avec de grands modèles linguistiques. Prétendre qu’ils le feront – et se précipiter tête première dans un avenir alimenté par l’IA en investissant des milliards de dollars dans des « solutions » dont personne ne veut vraiment – ne nous y mènera pas, et surtout pas de manière saine.
Dans l’état actuel des choses, l’IA ressemble à un outil à moitié fini qui est poussé dans des endroits où il n’a pas sa place. Pourquoi? À cause du battage médiatique et de l’espoir de profits. La plupart des entreprises prennent simplement le train en marche parce qu’elles ont peur peut être être laissé pour compte.
Si l’IA fait partie intégrante de notre avenir, j’aimerais qu’elle gagne davantage sa place. Pour l’instant, cela ressemble à une nuisance impressionnante : il devient plus gros et plus fort mais pas plus précis, tout en insistant sur le fait qu’il nous rend service.











