Claude e le nuove sfide dell’AI: etica, potere e tecnologia
Mentre Google lancia la funzione Canvas nell’AI mode in USA, l’intelligenza artificiale è diventata un’arma di guerra. In senso letterale. Nei primi giorni di marzo 2026, il conflitto tra USA e Iran ha portato alla luce qualcosa che il mondo tech sospettava da tempo: i modelli AI di Claude, sviluppati da Anthropic, sono nel cuore dell’apparato militare americano. E quando Anthropic ha detto “no” al Pentagono, è successo il caos. Questa è la storia di quei giorni. E di cosa significano per chi, come noi, usa l’AI ogni giorno per fare business.
Partiamo dai fatti di quello che è successo proprio in questi giorni tra l’ AI di Anthropic e il Pentagono.
- Claude usato nel conflitto in Iran: i modelli AI di Claude sono usati da tempo dal ministero della Difesa USA, che secondo diverse fonti li ha utilizzati negli attacchi all’Iran. Non è un caso che una delle prime risposte iraniane è stata l’attacco al data center AI di Amazon Web services (che usano Claude) negli Emirati Arabi. Alla data del 9.3.26 AWS non sta funzionando negli UEA.
- Perché il Pentagono va contro Anthropic? Proprio nei giorni del conflitto c’è stata una incredibile disputa tra Anthropic e il Pentagono sulle condizioni d’uso dei modelli AI forniti. Infatti uno dei tratti distintivi di Anthropic è l’attenzione ad un uso etico dell’ AI. I modelli Claude, ad esempio, non possono essere usati per la sorveglianza di massa e per armi “gestite dall’AI” completamente autonome (ciò l’AI può decidere di attaccare o uccidere senza bisogno di un’autorizzazione umana). Il Pentagono ha chiesto di togliere queste 2 limitazioni dalle condizioni di servizio e Anthropic non ha accettato.
Il rifiuto di Amodei e la pressione di Trump: In un blog post il CEO di Anthropic, Dario Amodei (che ho conosciuto a Davos al WEF 26) ha inquadrato la rottura con il Pentagono come un “rifiuto di scendere a compromessi sull’etica su cui si basa Claude”. Dopo le tensioni con Anthropic, il Presidente USA ha ordinato alle agenzie federali di abbandonare Claude. Il Dipartimento di Stato è già passato a OpenAI.
Ma leggiamo tra le righe. Cosa significa tutto questo?
- Un segnale chiaro: Se il governo USA reagisce così, significa che Claude ha raggiunto un livello di capacità che lo rende strategico. Non è più solo un tool, è un asset competitivo.
- “Una scelta rara: Amodei ha rifiutato di cedere sulle policy etiche, a differenza di altri player. Questo posiziona Claude come l’unico modello AI enterprise che mette limiti chiari a come viene usato. E questo è tanta roba!
La mia conclusione è semplice: Claude è il modello AI più avanzato oggi disponibile, e la maggior parte delle aziende lo sta sotto-utilizzando.
Il messaggio per chi fa impresa è chiaro. Claude è il modello AI più avanzato oggi disponibile, e la maggior parte delle aziende lo sta sotto-utilizzando. Non stiamo parlando di un chatbot che scrive email, ma di una tecnologia potente a disposizione delle aziende. L’ironia? La maggior parte dei marketer e dei manager la usa al 10% delle sue capacità. O non la usa affatto. Mentre il Pentagono lotta per controllarla, noi abbiamo il lusso di poterla imparare. La domanda è quanto tempo ancora puoi permetterti di non usarla?
Ale Agostini
L’articolo Claude e le nuove sfide dell’AI: etica, potere e tecnologia proviene da Avantgrade.com.