En résumé:
- PCWorld rapporte qu’Anthropic a révisé sa politique de mise à l’échelle responsable, ajoutant une faille controversée autorisant la formation de modèles d’IA dangereux si les concurrents le font.
- Ce changement intervient dans un contexte de pression du Pentagone pour un accès militaire aux modèles d’Anthropic, alors que des concurrents comme OpenAI et xAI ont déjà conclu des accords.
- La révision de la politique affaiblit potentiellement la position d’Anthropic en matière de sécurité, malgré les affirmations de l’entreprise selon lesquelles elle maintient de solides protections et des engagements en matière de transparence.
« La sécurité avant tout » était le mantra qui a rendu Anthropic unique parmi ses grands concurrents en matière d’IA.
L’engagement de l’entreprise était à l’origine le suivant : si Anthropic, le fabricant de Claude, ne pouvait pas garantir qu’un nouveau modèle répondrait à ses normes de sécurité strictes, il arrêterait la formation sur ce modèle, même si ses concurrents allaient de l’avant.
Mais au moment même où Anthropic semble avoir le plus besoin de son engagement à « la sécurité d’abord » – à savoir, lors de son affrontement avec le Pentagone – la société a révélé une politique révisée qui ajoute une lacune critique.
Comme l’a rapporté Time pour la première fois, la version 3.0 de la politique de mise à l’échelle responsable d’Anthropic revient sur la promesse antérieure de l’entreprise, lui permettant de continuer à former des modèles potentiellement dangereux sur lesquels ses concurrents travaillent activement.
La nouvelle politique comprend également des mandats pour une plus grande transparence sur la sécurité de l’IA, ainsi qu’un engagement à « retarder » le développement de modèles dangereux s’il se considère confortablement en avance sur ses concurrents.
Tout cela se produit à un moment crucial pour Anthropic, qui est confronté à une date limite de vendredi pour accéder à la demande du Pentagone d’un large accès aux modèles d’Anthropic à des fins militaires.
Lors d’une réunion au Pentagone avec le PDG d’Anthropic, Dario Amodei, mardi, le secrétaire à la Défense Pete Hegseth aurait menacé d’utiliser la loi sur la production de défense pour forcer Anthropic à remettre ses modèles, que l’armée souhaite utiliser à « toute fin légale », selon le New York Times.
Anthropic tiendrait bon, exigeant de Hegseth que le Pentagone n’utilise pas ses modèles pour des « armes autonomes » ou pour espionner les Américains.
Mais certains considèrent la politique révisée de mise à l’échelle responsable d’Anthropic comme une échappatoire à la situation actuelle dans laquelle elle se trouve, permettant à l’entreprise de potentiellement céder aux exigences du Pentagone tout en respectant ses propres politiques de sécurité. Il convient de noter que xAI et OpenAI, contrôlés par Elon Musk, ont déjà conclu des accords avec le Pentagone.
Pour sa part, Anthropic repousse l’idée selon laquelle son RSP révisé aurait affaibli ses politiques de sécurité, arguant plutôt que les anciennes « lignes rouges » étaient dépassées compte tenu de la position non interventionniste du gouvernement sur l’IA.
En se donnant la latitude de continuer à former des modèles instables que d’autres développent activement, Anthropic sera en mesure d’agir comme une force de stabilisation plutôt que de permettre à des entreprises plus imprudentes de devenir les leaders de l’industrie de l’IA, affirme Anthropic.
Peut-être, et j’espère qu’ils ont raison. Il est néanmoins troublant de voir la société d’IA, qui a toujours défendu la sécurité, réécrire ses propres règles.











