OpenAI Partners with US Military, Anthropic Refuses
“OpenAI e passata da 'la sicurezza dell'IA e la nostra missione' a 'ecco IA senza restrizioni per il Dipartimento della Difesa' piu velocemente di quanto si riesca a dire 'svolta verso il profitto.'”

Sally's not done with you yet.
Drop a URL, screenshot, or file and Sally will give you the honest truth.
Sally's Take
Vi ricordate quando OpenAI era un'organizzazione no-profit dedicata a garantire che l'IA beneficiasse tutta l'umanita? Che carino. Il Dipartimento della Difesa degli Stati Uniti si e presentato con un contratto per accesso illimitato all'IA, e OpenAI ha detto si cosi velocemente che l'inchiostro sulle loro promesse di sicurezza non si era ancora asciugato. Nel frattempo, Anthropic ha guardato lo stesso accordo e ha detto no. Un'azienda ha mantenuto i propri principi. L'altra ha mantenuto la propria traiettoria di crescita. Tre tentativi per indovinare quale Wall Street ha preferito.
La reazione e stata immediata e brutale. 1,5 milioni di utenti hanno cancellato i loro account ChatGPT in segno di protesta, il che sembra tanto finche non ci si rende conto che OpenAI ha centinaia di milioni di utenti e probabilmente non se n'e nemmeno accorta. Ma l'ottica e devastante. Questa e un'azienda che ha passato anni a posizionarsi come leader responsabile dell'IA, pubblicando articoli di ricerca sulla sicurezza e ospitando summit sull'allineamento, solo per consegnare capacita IA senza restrizioni ai militari nel momento in cui l'assegno e stato incassato. La parola 'senza restrizioni' sta facendo un lavoro molto pesante in quella frase, e niente di tutto cio e rassicurante.
Il contrasto con Anthropic e cio che rende tutto questo veramente condannante. A entrambe le aziende e stato offerto lo stesso accordo. Una ha detto no perche era in conflitto con i propri valori. L'altra ha detto si perche era in conflitto con i propri obiettivi di fatturato. Sam Altman puo vestire la cosa con qualsiasi linguaggio di sicurezza nazionale voglia, ma la cronologia parla da sola: no-profit, poi profitto limitato, poi pieno profitto, poi contratti militari. Ogni guardrail che OpenAI abbia mai posto a se stessa e stato silenziosamente rimosso quando ostacolava il prossimo round di finanziamento. Almeno sono coerenti nella loro incoerenza.

Think your work can survive this?
Drop a URL, screenshot, or file and Sally will give you the honest truth.
What Actually Happened
- •Il Dipartimento della Difesa degli Stati Uniti ha cercato accesso illimitato all'IA dalle principali aziende di IA
- •Anthropic ha rifiutato l'accordo, citando conflitti con i propri principi di sicurezza
- •OpenAI ha accettato la partnership militare per il dispiegamento di IA senza restrizioni
- •Circa 1,5 milioni di utenti hanno cancellato i loro account ChatGPT in segno di protesta
Who Got Burned
La credibilita di OpenAI come organizzazione che mette la sicurezza al primo posto. Anche ogni ricercatore che e entrato in OpenAI credendo nella dichiarazione di missione che ora e solo decorazione sulla parete della hall.
Silver Lining
Il rifiuto di Anthropic dimostra che non tutte le aziende di IA si piegheranno alla pressione militare. E gli 1,5 milioni di account cancellati dimostrano che il pubblico sta prestando attenzione, anche se OpenAI no.

Your turn. Drop something.
Drop a URL, screenshot, or file and Sally will give you the honest truth.
