Cynical SallyEvent Roast
Cynical Sally

Cynical Sally

The internet's most honest critic.

You're welcome.

OpenAI Partners with US Military, Anthropic Refuses

Ai
2/10
2026-03-20·Source
OpenAI e passata da 'la sicurezza dell'IA e la nostra missione' a 'ecco IA senza restrizioni per il Dipartimento della Difesa' piu velocemente di quanto si riesca a dire 'svolta verso il profitto.'
Can you handle it?

Sally's not done with you yet.

Drop a URL, screenshot, or file and Sally will give you the honest truth.

Sally's Take

Vi ricordate quando OpenAI era un'organizzazione no-profit dedicata a garantire che l'IA beneficiasse tutta l'umanita? Che carino. Il Dipartimento della Difesa degli Stati Uniti si e presentato con un contratto per accesso illimitato all'IA, e OpenAI ha detto si cosi velocemente che l'inchiostro sulle loro promesse di sicurezza non si era ancora asciugato. Nel frattempo, Anthropic ha guardato lo stesso accordo e ha detto no. Un'azienda ha mantenuto i propri principi. L'altra ha mantenuto la propria traiettoria di crescita. Tre tentativi per indovinare quale Wall Street ha preferito.

La reazione e stata immediata e brutale. 1,5 milioni di utenti hanno cancellato i loro account ChatGPT in segno di protesta, il che sembra tanto finche non ci si rende conto che OpenAI ha centinaia di milioni di utenti e probabilmente non se n'e nemmeno accorta. Ma l'ottica e devastante. Questa e un'azienda che ha passato anni a posizionarsi come leader responsabile dell'IA, pubblicando articoli di ricerca sulla sicurezza e ospitando summit sull'allineamento, solo per consegnare capacita IA senza restrizioni ai militari nel momento in cui l'assegno e stato incassato. La parola 'senza restrizioni' sta facendo un lavoro molto pesante in quella frase, e niente di tutto cio e rassicurante.

Il contrasto con Anthropic e cio che rende tutto questo veramente condannante. A entrambe le aziende e stato offerto lo stesso accordo. Una ha detto no perche era in conflitto con i propri valori. L'altra ha detto si perche era in conflitto con i propri obiettivi di fatturato. Sam Altman puo vestire la cosa con qualsiasi linguaggio di sicurezza nazionale voglia, ma la cronologia parla da sola: no-profit, poi profitto limitato, poi pieno profitto, poi contratti militari. Ogni guardrail che OpenAI abbia mai posto a se stessa e stato silenziosamente rimosso quando ostacolava il prossimo round di finanziamento. Almeno sono coerenti nella loro incoerenza.

Can you handle it?

Think your work can survive this?

Drop a URL, screenshot, or file and Sally will give you the honest truth.

What Actually Happened

  • Il Dipartimento della Difesa degli Stati Uniti ha cercato accesso illimitato all'IA dalle principali aziende di IA
  • Anthropic ha rifiutato l'accordo, citando conflitti con i propri principi di sicurezza
  • OpenAI ha accettato la partnership militare per il dispiegamento di IA senza restrizioni
  • Circa 1,5 milioni di utenti hanno cancellato i loro account ChatGPT in segno di protesta

Who Got Burned

La credibilita di OpenAI come organizzazione che mette la sicurezza al primo posto. Anche ogni ricercatore che e entrato in OpenAI credendo nella dichiarazione di missione che ora e solo decorazione sulla parete della hall.

Silver Lining

Il rifiuto di Anthropic dimostra che non tutte le aziende di IA si piegheranno alla pressione militare. E gli 1,5 milioni di account cancellati dimostrano che il pubblico sta prestando attenzione, anche se OpenAI no.

Can you handle it?

Your turn. Drop something.

Drop a URL, screenshot, or file and Sally will give you the honest truth.

Read the original source →
OpenAI Partners with US Military, Anthropic Refuses - Cynical Sally