Anthropic : peut-on gagner en disant non au Pentagone ?
Anthropic a refusé un contrat de 200 M$ avec le Pentagone. Suicide industriel ou coup de génie stratégique ? Retour sur l'épisode qui a changé les règles du jeu dans l'IA — et ce que cela signifie pour les investisseurs.
March 16, 2026

Quand l'éthique devient un avantage compétitif
Je n'ai jamais vraiment cru à l'incompatibilité entre performance et principes.
Depuis que j'investis dans la technologie, j'essaie — autant que possible — de financer des entreprises qui font avancer le monde dans la bonne direction. Pas par naïveté morale. Parce que dans l'économie moderne, l'éthique peut devenir un avantage stratégique.
Et ce qui vient de se passer dans l'IA en est peut-être l'exemple le plus frappant depuis longtemps.
Le jour où Anthropic a dit non au Pentagone
Fin février 2026, la Silicon Valley a vécu l'un de ses épisodes les plus spectaculaires.
Anthropic, la société derrière l'IA Claude, a refusé un contrat potentiel de 200 millions de dollars avec le Pentagone. La raison : deux lignes rouges — pas de surveillance de masse des citoyens, et pas d'armes autonomes létales sans supervision humaine.
Le Département de la Défense exigeait que les entreprises d'IA autorisent l'usage militaire de leurs modèles sans restrictions imposées par les entreprises elles-mêmes. Anthropic a refusé.
Un ultimatum a été lancé. Puis une escalade politique. L'entreprise a été exclue des technologies utilisées par les agences fédérales, accusée de mettre en danger la chaîne d'approvisionnement américaine, et publiquement attaquée par l'administration.
Sur le papier, cela ressemblait à un suicide industriel. Sacrifier un contrat militaire majeur dans l'un des marchés les plus stratégiques au monde. Beaucoup ont pensé que la société venait de commettre une erreur fatale.
La suite a raconté une autre histoire.
L'effet domino : comment Anthropic a changé les règles du jeu
Quelques heures après l'exclusion d'Anthropic, un concurrent a signé avec le Pentagone : OpenAI.
Mais avec une surprise. L'accord inclut désormais des principes que le Pentagone refusait quelques jours plus tôt : interdiction de la surveillance de masse domestique, et responsabilité humaine dans l'usage de la force.
En d'autres termes : Anthropic a perdu le contrat… mais a changé les règles du jeu.
Dans la foulée, plus de 430 employés de Google et OpenAI ont signé une lettre de soutien. Plusieurs équipes de chercheurs ont demandé l'adoption des mêmes lignes rouges. Le débat sur les armes autonomes et la surveillance par IA est devenu central dans la Silicon Valley.
En prenant le risque de dire non, Anthropic a rendu visible un problème que beaucoup préféraient éviter.
Et le marché a répondu
L'histoire aurait pu s'arrêter là. Mais ce qui s'est passé ensuite est encore plus intéressant.
Depuis cet épisode :
• La base d'utilisateurs gratuits de Claude a augmenté de plus de 60 %
• Les inscriptions quotidiennes ont triplé
• Les abonnements payants ont doublé
• L'application est devenue numéro 1 de l'App Store américain
Pour la première fois, Claude a même dépassé ChatGPT dans les téléchargements.
Dans le même temps, les désinstallations de ChatGPT ont bondi de 295 %, les téléchargements ont chuté, et un mouvement de boycott a émergé sous le hashtag #QuitGPT.
Selon Bloomberg, Anthropic approche désormais 19 milliards de dollars de revenus annualisés.
Autrement dit : l'entreprise qui vient de refuser 200 millions de dollars de contrat militaire… n'en avait probablement pas besoin.
Quand les principes créent de la valeur
Pourquoi un tel retournement ?
Parce que dans l'économie de l'IA, le capital le plus rare n'est pas l'argent. C'est le talent. Les meilleurs chercheurs peuvent changer d'entreprise en quelques jours. Ils ne restent que là où ils croient à la direction prise.
En prenant une position claire, Anthropic a envoyé un signal très puissant — aux ingénieurs, aux utilisateurs, aux entreprises clientes, et aux investisseurs.
Dans un monde où l'IA devient une infrastructure globale, la confiance devient un actif stratégique. Et parfois, défendre ses principes n'est pas un coût. C'est un investissement.
Ce que cela signifie pour les investisseurs
Pour nous, investisseurs technologiques, cette histoire est riche d'enseignements. Elle rappelle une chose essentielle : la qualité d'une entreprise ne se mesure pas seulement à sa technologie ou à sa croissance. Elle se mesure aussi à sa gouvernance, à ses principes, et à la vision de ses fondateurs.
C'est aussi pour cette raison que, malgré tout l'engouement actuel autour de l'IA, certaines entreprises ne figurent pas sur notre liste d'investissement cette année.
En revanche, nous croyons profondément dans deux sociétés qui incarnent une vision exigeante de cette technologie : Anthropic et Perplexity AI. Deux entreprises dans lesquelles nous avons eu la chance d'investir, et que nous avons ouvertes à certains investisseurs via Carré Partners.
La vraie question pour les années à venir
L'intelligence artificielle va transformer une grande partie de l'économie mondiale. Mais la vraie question n'est pas seulement : quelles entreprises gagneront. La vraie question est : quel type d'entreprises voulons-nous voir gagner.
Parce que dans les technologies qui redessinent le monde, les choix faits aujourd'hui deviennent souvent les normes de demain.
Investir dans l'IA non cotée avec Carré Partners
Carré Partners donne accès aux investisseurs qualifiés aux leaders de l'intelligence artificielle non cotée — Anthropic, Perplexity AI, et d'autres entreprises en cours d'analyse. Si vous souhaitez recevoir les prochaines opportunités d'investissement, contactez notre équipe pour obtenir le dossier complet.
Auteur
Fonction
Voir le profil ->