Cynical SallyEvent Roast
Cynical Sally

Cynical Sally

The internet's most honest critic.

You're welcome.

OpenAI Partners with US Military, Anthropic Refuses

Ai
2/10
2026-03-20·Source
OpenAI est passe de 'la securite de l'IA est notre mission' a 'voici de l'IA sans restriction pour le Departement de la Defense' plus vite qu'on ne peut dire 'pivot vers le profit.'
Can you handle it?

Sally's not done with you yet.

Drop a URL, screenshot, or file and Sally will give you the honest truth.

Sally's Take

Vous vous souvenez quand OpenAI etait une organisation a but non lucratif dediee a garantir que l'IA profite a toute l'humanite ? C'etait mignon. Le Departement de la Defense americain a frappe a la porte avec un contrat d'acces illimite a l'IA, et OpenAI a dit oui tellement vite que l'encre sur leurs promesses de securite n'avait meme pas seche. Pendant ce temps, Anthropic a regarde la meme offre et a dit non. Une entreprise a garde ses principes. L'autre a garde sa trajectoire de croissance. Trois chances pour deviner laquelle Wall Street a preferee.

Le retour de flamme a ete immediat et brutal. 1,5 million d'utilisateurs ont supprime leurs comptes ChatGPT en signe de protestation, ce qui semble beaucoup jusqu'a ce qu'on realise qu'OpenAI a des centaines de millions d'utilisateurs et ne l'a probablement meme pas remarque. Mais l'image est devastatrice. C'est une entreprise qui a passe des annees a se positionner comme le leader responsable de l'IA, publiant des articles de recherche sur la securite et organisant des sommets sur l'alignement, pour ensuite remettre des capacites IA sans restriction a l'armee des que le cheque a ete encaisse. Le mot 'sans restriction' fait beaucoup de travail dans cette phrase, et rien de rassurant.

Le contraste avec Anthropic est ce qui rend cela veritablement accablant. Les deux entreprises se sont vu proposer la meme offre. L'une a dit non parce que ca entrait en conflit avec ses valeurs. L'autre a dit oui parce que ca entrait en conflit avec ses objectifs de revenus. Sam Altman peut habiller ca dans le jargon de securite nationale qu'il veut, mais la chronologie parle d'elle-meme : but non lucratif, puis profit plafonne, puis profit total, puis contrats militaires. Chaque garde-fou qu'OpenAI s'est impose a ete discretement retire quand il genait le prochain tour de financement. Au moins, ils sont coherents dans leur incoherence.

Can you handle it?

Think your work can survive this?

Drop a URL, screenshot, or file and Sally will give you the honest truth.

What Actually Happened

  • Le Departement de la Defense americain a recherche un acces IA sans restriction aupres des principales entreprises d'IA
  • Anthropic a refuse l'accord, invoquant des conflits avec ses principes de securite
  • OpenAI a accepte le partenariat militaire pour un deploiement IA sans restriction
  • Environ 1,5 million d'utilisateurs ont supprime leurs comptes ChatGPT pour protester contre la decision

Who Got Burned

La credibilite d'OpenAI en tant qu'organisation prioritaire sur la securite. Et chaque chercheur qui a rejoint OpenAI en croyant a l'enonce de mission qui n'est plus que de la decoration sur le mur du hall.

Silver Lining

Le refus d'Anthropic prouve que toutes les entreprises d'IA ne cedent pas a la pression militaire. Et les 1,5 million de suppressions de comptes montrent que le public fait attention, meme si OpenAI ne le fait pas.

Can you handle it?

Your turn. Drop something.

Drop a URL, screenshot, or file and Sally will give you the honest truth.

Read the original source →