Skip to main content
GéopolitiqueHighTechIntelligence artificielle

Surveillance de masse et armes autonomes : pourquoi Anthropic a dit « non » au Pentagone (et comment OpenAI en a profité)

By 11 mars 2026mars 25th, 20264 Comments

Géolocalisation, relevés bancaires et historique de navigation : le vide juridique entourant l’achat de données privées par le gouvernement américain est au cœur d’un bras de fer sans précédent avec les géants de l’IA. Pourquoi OpenAI a-t-elle accepté ce qu’Anthropic jugeait « horrible »? Chris Campbell vous propose une plongée dans les coulisses d’un accord bâclé…

 

En juillet dernier, Anthropic – la société à l’origine du modèle d’IA Claude – a signé un contrat de 200 M$ avec le Pentagone.

Claude est devenue la première IA homologuée pour les réseaux militaires « classifiés ».

Ensuite, les choses sont devenues intéressantes.

Le Pentagone a voulu que Claude soit disponible pour – je cite – « tout usage licite ». Sans restrictions. Sans exceptions. Carte blanche.

Anthropic a dit « non » sur deux points :

  1. pas de surveillance de masse ;
  2. pas d’armes létales entièrement autonomes.

Le Pentagone a dit : « Ces choses sont déjà légales, alors pourquoi faudrait-il les mentionner dans un contrat avec une société privée ? »

Réponse d’Anthropic : le concept d’« usage licite » est bien plus vaste qu’il n’y paraît. En clair, c’est un cheval de Troie.

Le droit américain actuel permet à des agences gouvernementales d’acheter sans mandat judiciaire d’énormes quantités de données personnelles à des sociétés privées spécialisées dans la vente de données.

Combinées à une IA puissante, ces données transforment l’outil en une machine de surveillance de masse redoutable.

Bref, Anthropic a signalé qu’il y avait un vide juridique. La société a tenu bon : elle n’a pas voulu que ses outils se retrouvent dans ce vide.

Le Pentagone a claqué la porte.

Et puis…

 

OpenAI est entrée en jeu

Le 27 février, Donald Trump a ordonné à toutes les agences fédérales de se débarrasser des produits Anthropic sous six mois.

Sur X, le Secrétaire à la Défense Pete Hegseth a annoncé qu’il classait l’entreprise comme un « risque pour la chaîne d’approvisionnement », un label d’ordinaire réservé aux entreprises (souvent chinoises) qui représentent une menace pour les Etats-Unis, comme Huawei.

Sam Altman a flairé la bonne affaire. Quelques heures – oui, quelques heures – plus tard, OpenAI a annoncé remplacer Anthropic sur le réseau classifié du Pentagone.

 

Anthropic_Sam_Altman_OpenAI_110326

Sam Altman : « Ce soir, nous avons conclu un accord avec le Département de la Guerre pour déployer nos modèles dans leurs réseaux classifiés. Dans toutes nos interactions, le Département de la Guerre a montré un profond respect pour la sécurité et son souhait de collaborer afin de parvenir au meilleur résultat possible. »

Certains lecteurs ont ajouté un contexte que les gens aimeraient connaître selon eux :

« Certains responsables du gouvernement ont contredit l’affirmation de Sam, en déclarant qu’OpenAI va autoriser le Département de la Guerre à utiliser ses modèles pour “tout usage licite”. Cela pourrait autoriser des usages sur lesquels Anthropic a refusé de s’engager, à savoir des outils de surveillance de masse et des systèmes d’armement non supervisés par des humains. »
Source : X

 

Le timing fut catastrophique : des frappes américaines ont eu lieu dès le lendemain en Iran.

Altman a reconnu sur X que l’accord conclu par OpenAI « avait l’air opportuniste et bâclé ». Il a dit qu’il « n’aurait pas dû se précipiter ».

Il a reconnu que le fait d’avoir conclu un accord avec le Pentagone quelques heures après que le gouvernement Trump a classé Anthropic comme « risque pour la chaîne d’approvisionnement », ne fait pas « très bonne impression ».

OpenAI affirme avoir rectifié son accord avec le Pentagone afin d’ajouter des garde-fous plus solides sur la surveillance, en comblant un vide juridique qui aurait permis à l’armée d’utiliser l’IA avec des données achetées dans le commerce, comme :

  • la géolocalisation des citoyens ;
  • leur historique de navigation ;
  • leurs relevés financiers… bref, toutes ces choses que les sociétés de commercialisation de données vendent à longueur de journée.

Résultat des courses ? Anthropic ne s’en sort pas si mal…

 

Anthropic gagne la bataille (pour l’instant)

Contre toute attente, ce retrait forcé est une aubaine pour Anthropic.

Actuellement, le marché de l’IA est étranglé par une pénurie massive de processeurs (GPU), avec des délais de livraison allant de 36 à 52 semaines. Elle pénalise tous les grands laboratoires d’IA, Anthropic, Google et OpenAI compris.

Alors, quand le Pentagone « punit » Anthropic en lui retirant un contrat à 200 M$, quelles sont les conséquences ?

Les GPU qui devaient gérer des tâches classifiées à l’origine seront immédiatement réaffectés à des entreprises clientes qui payent le prix fort, qui n’ont pas besoin d’infrastructures classifiées, et qui ne sont pas associées à une polémique éthique.

Jusqu’à présent, les conséquences financières de cette annulation de contrat sont négligeables pour Anthropic.

C’est positif.

Mais le plus important, c’est que le public semble avoir choisi son camp : les demandes de téléchargement de Claude ont tellement afflué que la société est devenue Numéro Un sur l’App Store pour la première fois. Et, dans le même temps, le taux de désinstallation de ChatGPT a bondi de 295 % au cours du dernier week-end de février.

Open AI et Sam Altman se sont efforcés sans relâche de limiter les dégâts, mais le gain en capital sympathie pour Anthropic et Claude est immense.

 

L’enjeu de la décennie : qui fixe les règles ?

Ce feuilleton n’est pas terminé, car dernièrement, Anthropic a porté plainte contre le gouvernement américain pour « sanctions excessives » (avec le soutien de ses concurrents d’ailleurs).

Mais en réalité, le débat public ne se limite pas à la signature de ce fameux contrat avec le Pentagone. Il porte sur une question qui déterminera la prochaine décennie, à savoir, qui décide des limites de l’IA ?

Pour l’instant, ce sont les laboratoires eux-mêmes qui fixent les barrières éthiques.

Et ce n’est pas rassurant pour autant.

La prochaine version de ce type de bataille sera plus opaque, plus subtile, et le gouvernement se montrera plus insidieux. Et le public y prêtera probablement moins attention.

Ces limites concernant ce que les outils d’IA peuvent ou ne peuvent pas faire, ne sont pas fixes. Elles sont négociées. Elles sont politiques. Et elles peuvent toujours être remises en cause.

La seule véritable option consiste à utiliser l’IA pour faire pencher la balance en votre faveur… selon vos propres conditions.

Dans un contexte où l’IA transforme l’investissement, cela n’a jamais été aussi important.

 

****

Que pensez-vous de l’analyse de Chris ? N’hésitez pas à nous faire part de votre opinion dans les commentaires !

 

Chris Campbell

Chris Campbell est constamment à la recherche de moyens pour vous aider à vivre une vie plus libre, plus saine, plus riche et plus épanouissante. Ses recherches l'ont conduit dans plus de 30 pays. Il a été à la pointe du Bitcoin, du tourisme médical, de la décentralisation, des villes autonomes, de la biotechnologie et de bien d'autres choses encore. Chris est l’analyste principal du service Cryptos Incubator de James Altucher, dans lequel il aide les abonnés à naviguer dans l’univers des cryptomonnaies. Vous pourrez également retrouver ses analyses dans la lettre Les Investissements d’Altucher.

4 commentaires

  • Avatar ESTABLET Gabriel dit :

    Comme d’Hab’ avec Chris.. Pour être informé, et surtout,  » BIEN INFORME « , il n’y a pas mieux . Merci. Gabriel

  • Avatar Tion dit :

    Anthropic est honorable. Mais nous entrons dans une zone dangereuse, très dangereuse, la plus dangereuse.

  • Avatar Flagothier dit :

    Merci de nous ouvrir les yeux sur ce combat aux enjeux cruciaux !

  • Avatar tamino dit :

    Imaginez, ne serai – ce qu’un instant, si Hitler, Staline ou Mao avaient disposé d’une IA à reconnaissance faciale avec géolocalisation.
    Nous avons déjà un certain X J P, mais quel sera le prochain (dictateur/ président/ conducator/ guide suprême … ) fou ?

Laisser un commentaire

FERMER
FERMER
FERMER

5 Valeurs pour doubler votre PEA

X