On pourrait penser qu’OpenAI ferait preuve de prudence lors de la rédaction d’un accord avec le Pentagone, un accord qui verrait ses modèles d’IA utilisés dans des scénarios de vie ou de mort tels que ceux que nous voyons actuellement se dérouler en Iran.
Mais comme nous l’avons appris, l’accord initial conclu par OpenAI avec le ministère de la Défense vendredi soir était un travail précipité. Même le PDG Sam Altman est d’accord.
« Nous n’aurions pas dû nous précipiter pour publier cela vendredi », a écrit Altman sur X lundi soir, en détaillant les récents changements apportés au contrat qui interdisent spécifiquement l’utilisation de ses modèles pour la surveillance des citoyens américains.
« Les problèmes sont extrêmement complexes et nécessitent une communication claire », a poursuivi Altman. « Nous essayions véritablement de désamorcer la situation et d’éviter un résultat bien pire, mais je pense que cela semblait simplement opportuniste et bâclé. C’est une bonne expérience d’apprentissage pour moi alors que nous sommes confrontés à des décisions à enjeux plus élevés à l’avenir. »
L’accord précipité d’OpenAI avec l’armée a bien sûr déclenché une réaction massive contre l’entreprise et ChatGPT, couplée à un regain d’intérêt pour Anthropic (qui a depuis été qualifié de « risque pour la chaîne d’approvisionnement » par le secrétaire à la Défense Pete Hegseth) et ses modèles Claude concurrents. Anthropic était aux prises avec des échanges tendus avec le ministère de la Défense au sujet de la demande de l’armée d’une utilisation presque illimitée de sa technologie d’IA.
Je suis tout à fait d’accord avec Altman sur le fait que les questions entourant les contrats entre les fournisseurs d’IA et l’armée sont, comme il le dit, « super complexes », et oui, l’accord d’OpenAI de vendredi soir a effectivement semblé « opportuniste et bâclé ».
Et oui, les gens font des erreurs et en tirent des leçons. Mais un accord sur l’IA avec le Pentagone présente des enjeux aussi élevés que possible, et ce n’est absolument pas une chose à faire avec négligence.
J’ai contacté OpenAI pour obtenir des commentaires et je mettrai à jour cette histoire une fois qu’ils auront répondu.
L’accord précipité d’OpenAI avec le Pentagone soulève également la question de savoir ce qu’il a pu gérer de manière négligente – et cela ramène la discussion à nous, utilisateurs quotidiens de ChatGPT (ou, de plus en plus, anciens utilisateurs).
Lorsque nous utilisons l’IA, qu’il s’agisse des modèles de ChatGPT ou de quelqu’un d’autre, nous devons lui faire confiance à un degré ou à un autre. Nous lui faisons confiance avec nos noms, emplacements, titres de poste, détails familiaux et peut-être même nos finances. Il saura peut-être qui sont nos amis et ce qui nous intéresse.
Ce lien de confiance est quelque chose que les fournisseurs d’IA doivent prendre au sérieux, peut-être même au prix d’un accord rapide.
Ceux d’entre nous qui utilisent l’IA au quotidien doivent examiner attentivement les fournisseurs avec lesquels nous traitons, ce qu’ils nous promettent et comment ils se comportent.











