OpenAI et le Pentagone : pourquoi ChatGPT a perdu +295 % d’utilisateurs en 24 heures

Publié le et mis à jour le
 
C’est une conséquence que personne n’avait vu venir, et pourtant les chiffres sont là. Le 28 février 2026 restera comme la date où OpenAI a troqué sa popularité contre un contrat de défense. En annonçant son partenariat avec le Pentagone pour déployer ses modèles sur des réseaux militaires classifiés, la firme de Sam Altman a provoqué une vague de désinstallations sans précédent. Entre boycott massif et migration éclair vers la concurrence, retour sur un bad buzz historique qui redessine la carte de l’intelligence artificielle.
Logo ChatGPT et hashtag #QuitChatGPT (Crédit : OpenAI)
Logo ChatGPT et hashtag #QuitChatGPT (Crédit : OpenAI)

Le jour où ChatGPT a bu la tasse


Le réveil a été brutal pour les équipes de San Francisco. Le 28 février 2026, au lendemain de l’officialisation d’un accord avec le Département de la Défense, selon Techcrunch, les compteurs de Sensor Tower se sont affolés. On parle d’une explosion de 295 % des désinstallations de l’application ChatGPT aux États-Unis en une seule journée. À titre de comparaison, le taux de départ habituel sur le dernier mois ne dépassait pas les 9 %. Les téléchargements ont suivi la même courbe descendante avec une chute de 13 % dès le premier jour, tandis que les boutiques d’applications étaient inondées par une hausse de 775 % d’avis une étoile. Ce n’est plus une banale mauvaise passe, c’est un rejet viscéral. Ce divorce soudain avec le grand public s’explique par un timing serré : l’armée américaine, sous l’administration Trump, cherchait désespérément un partenaire après s’être cassé les dents sur Anthropic, dont les principes éthiques étaient jugés trop rigides pour les besoins du ministère. OpenAI a sauté sur l’occasion, mais le prix à payer en termes d’image est colossal.

Publicité

Ce que cache vraiment ce contrat militaire


Mais alors, qu’est-ce qui a été signé exactement pour provoquer une telle colère ? L’annonce, faite via un billet de blog assez sobre, détaille l’arrivée des modèles de langage sur des réseaux ultra-sécurisés du gouvernement. Officiellement, il s’agit d’aider à l’analyse de données massives, de renforcer la cybersécurité des infrastructures critiques ou encore d’optimiser la logistique complexe des troupes. Sam Altman s’est empressé de fixer des limites : pas de développement d’armes létales autonomes, pas de surveillance de masse des citoyens américains et aucune décision automatisée concernant le crédit social. Pourtant, le mal est fait. Le patron d’OpenAI a lui-même admis plus tard que le lancement avait été précipité et maladroit. En voulant aller vite pour verrouiller ce marché juteux, l’entreprise a donné l’impression de brader ses valeurs initiales pour devenir un rouage de la machine de guerre.

La grande migration vers Claude


La nature ayant horreur du vide, ce désamour a profité instantanément à un voisin de la Silicon Valley. Alors que ChatGPT dégringolait, Claude, l’IA développée par Anthropic, a vu ses statistiques exploser. Le 28 février, l’application enregistrait un bond de 51 % de sa croissance, finissant par s’emparer de la première place des téléchargements gratuits sur l’App Store américain. Les internautes ne se contentent pas de partir, ils cherchent un nouvel abri qu’ils jugent plus fréquentable. Sur les réseaux sociaux, le mouvement s’est organisé sous le hashtag #QuitChatGPT. De nombreux utilisateurs expliquent qu’ils ne veulent pas que leur abonnement serve, même indirectement, à financer des technologies militaires. La peur d’un glissement vers des usages offensifs, malgré les démentis, reste la motivation principale. Pour beaucoup, l’IA doit rester un outil de création et de productivité civile, pas un officier de liaison sur un champ de bataille.

Des gagnants, des perdants et beaucoup de doutes


Le paysage de l’intelligence artificielle vient de changer de visage en quarante-huit heures. D’un côté, nous avons une entreprise qui semble avoir perdu son âme aux yeux de ses premiers fans, forcée de présenter des excuses publiques pour tenter de calmer le jeu. De l’autre, Anthropic sort grand vainqueur par K.O. technique, voyant ses inscriptions quotidiennes quadrupler simplement en restant fidèle à ses engagements de départ. Ce basculement montre que la fidélité des utilisateurs dans la tech est devenue très volatile, surtout quand les questions d’éthique entrent en jeu. D’autres acteurs comme Google ou xAI observent la scène de loin, conscients que le moindre faux pas avec le secteur de la défense peut transformer un leader du marché en paria numérique en l’espace d’un week-end.

L’IA peut-elle rester neutre dans un monde en guerre ?


Au-delà de la bataille des chiffres, cet épisode soulève une question de fond qui va nous occuper pendant des années : qui doit réellement contrôler ces modèles surpuissants ? On sent une hypocrisie latente dans le pivot d’OpenAI, qui jurait encore il y a peu ne jamais toucher au domaine militaire. Cette militarisation accélérée de l’IA inquiète autant les régulateurs que les citoyens. Si la frontière entre le défensif et l’offensif est déjà floue dans le monde physique, elle devient quasiment invisible quand on parle d’algorithmes. Ce contrat n’est peut-être que la partie émergée de l’iceberg d’une course aux armements numérique où le consentement du public n’est plus une priorité. La méfiance est désormais installée, et il faudra bien plus que quelques mises à jour techniques pour que les utilisateurs fassent à nouveau confiance à un outil qu’ils perçoivent désormais comme une arme potentielle.

Publicité

Le début d’une nouvelle ère pour l’IA ?


Ce record mondial de désinstallations prouve que nous ne sommes plus des consommateurs passifs. Le lien de confiance entre un humain et son assistant virtuel est fragile, presque intime, et le voir se transformer en partenaire de guerre a été le déclic pour des millions de personnes. OpenAI parviendra-t-il à reconquérir son public ou cet exode vers Claude marque-t-il le début d’une nouvelle ère pour l’IA ? La balle est dans leur camp, mais le signal envoyé par la rue numérique est on ne peut plus clair.

Et vous, qu’en pensez-vous ? Ce partenariat avec l’armée est-il une étape logique pour une technologie de pointe ou une ligne rouge franchie ? Avez-vous déjà franchi le pas pour aller voir chez la concurrence ?
 

Ce qu’il faut retenir :

  • Désamour record : En seulement 24 heures après l’annonce du contrat avec le Pentagone, les désinstallations de ChatGPT ont bondi de 295 % aux États-Unis, un chiffre jamais vu pour une application de cette envergure.
  • Le grand gagnant Claude : Profitant de ce rejet massif, l’IA d’Anthropic s’est hissée à la 1ère place de l’App Store US, captant une immense partie des utilisateurs en quête d’une alternative jugée plus éthique.
  • Les limites du contrat : Si l’accord porte sur la logistique et la cybersécurité, la méfiance des internautes reste totale malgré les promesses d’OpenAI de ne pas développer d’armes létales autonomes.
  • Un virage stratégique risqué : Ce partenariat marque une rupture franche avec les promesses passées de la firme, illustrant une militarisation de l’IA que le grand public n’est pas encore prêt à accepter.
  • La confiance comme monnaie : Ce bad buzz historique rappelle que même pour un géant de la tech, la popularité reste fragile face aux questions de défense et de surveillance d’État.
chabot thierry
chabot thierry
Passionné d'informatique depuis ses débuts sur PC-1512, Thierry est l'expert référent de TheSiteOueb pour les thématiques liées au Web, aux OS et à la sécurité informatique. Acteur engagé de l'entraide communautaire sous le pseudonyme Cthierry, il met son expertise technique au service des utilisateurs pour décrypter l'actualité numérique et résoudre leurs problématiques quotidiennes.

Vous avez aimé cet article ? Commentez-le et partagez-le !
 
 
 
Les commentaires sont la propriété de leur auteur. Nous ne sommes pas responsables de leurs contenus.