Goldman Sachs limita l’uso di Claude di Anthropic a Hong Kong

Goldman Sachs ha revocato l’accesso a Claude, il modello di intelligenza artificiale sviluppato da Anthropic, per i propri dipendenti operativi a Hong Kong. La decisione, riportata inizialmente dal Financial Times e successivamente confermata da una fonte vicina alla vicenda a Reuters, si inserisce in un contesto di crescente attenzione delle banche d’investimento verso i rischi connessi all’utilizzo di strumenti AI, in particolare per quanto riguarda la sicurezza dei dati e le minacce cyber.

Secondo la fonte, i banker della divisione asiatica di Goldman potevano in precedenza interagire con Claude tramite una piattaforma AI proprietaria interna. Nelle ultime settimane, tuttavia, questa possibilità è stata rimossa, mentre altri modelli linguistici di grandi dimensioni come Gemini di Google e ChatGPT di OpenAI continuano a essere disponibili sull’infrastruttura della banca.

Le ragioni dietro la decisione

Stando alle ricostruzioni del Financial Times, la scelta di Goldman deriverebbe da un’interpretazione rigorosa dei termini contrattuali con Anthropic, formalizzata dopo un confronto diretto con la società americana. La conclusione è stata che i dipendenti di Hong Kong — principale hub operativo del gruppo nell’area Asia-Pacifico — non dovrebbero poter utilizzare alcun prodotto Anthropic.

Sul sito ufficiale di Anthropic, infatti, Hong Kong non figura tra i mercati in cui l’API e Claude.ai sono ufficialmente disponibili. Un portavoce della società ha precisato al FT che i modelli Claude non sono mai stati formalmente “supportati” nell’ex colonia britannica.

Tensioni geopolitiche tra Stati Uniti e Cina sull’AI

Key to Markets Broker ECN

La restrizione imposta da Goldman si colloca in un momento di forti tensioni tra Washington e Pechino sul fronte delle tecnologie di intelligenza artificiale, della data security e dell’accesso a strumenti di calcolo avanzato. Tematiche che saranno al centro del summit previsto a metà maggio tra i presidenti Donald Trump e Xi Jinping a Pechino.

Sebbene i modelli AI sviluppati dalle aziende statunitensi non siano disponibili nella Cina continentale, Hong Kong è rimasta finora un mercato dove alcuni modelli operano, seppur con limiti d’uso fissati dalle società americane.

L’allarme di Washington sulla sottrazione di tecnologie AI

Il governo statunitense ha diffuso recentemente un avviso globale relativo a presunte sottrazioni di tecnologie AI da parte di operatori cinesi del settore. Già nel 2024 OpenAI aveva limitato il traffico proveniente dalla Cina verso la propria API, la piattaforma che consente agli sviluppatori esterni di integrare i suoi modelli linguistici nei propri prodotti.

Al momento non è stato possibile verificare se anche altre banche o aziende abbiano adottato misure analoghe restrittive sull’accesso a Claude da Hong Kong.

Mythos di Anthropic sotto la lente dei regolatori

blankblank

La mossa di Goldman arriva mentre l’ultimo modello di Anthropic, denominato Mythos, è oggetto di scrutinio crescente da parte di banche globali e autorità di vigilanza finanziaria, preoccupate per i potenziali rischi sistemici che potrebbe introdurre nel sistema bancario.

La Hong Kong Monetary Authority (HKMA), banca centrale de facto della regione amministrativa speciale, ha dichiarato a Reuters di aver contattato “una serie di importanti istituti bancari” per comprendere gli ultimi sviluppi legati a Mythos e ricordare loro la necessità di aggiornare le valutazioni del rischio e adottare misure adeguate. L’HKMA ha invece preferito non commentare la decisione specifica di Goldman.

La strategia AI di Goldman Sachs

Vale la pena ricordare che il Chief Information Officer Marco Argenti aveva annunciato nel febbraio scorso la collaborazione tra Goldman e Anthropic per lo sviluppo di agenti basati sull’intelligenza artificiale, finalizzati ad automatizzare una gamma sempre più ampia di funzioni operative all’interno della banca. La restrizione imposta a Hong Kong rappresenta dunque un’inversione tattica, almeno a livello geografico, che evidenzia quanto delicato sia il bilanciamento tra innovazione tecnologica, conformità contrattuale e rischi geopolitici.

Implicazioni per il settore finanziario

L’episodio mette in luce diversi temi di rilievo per gli investitori e gli operatori dei mercati finanziari:

blank
  • Compliance e governance dell’AI: le grandi banche stanno rafforzando i protocolli di controllo sull’utilizzo dei modelli generativi, con conseguenze operative anche per i team più avanzati.
  • Frammentazione tecnologica globale: il decoupling tecnologico tra Stati Uniti e Cina si estende anche all’AI, con Hong Kong sempre più in una posizione ambigua.
  • Rischio reputazionale e regolatorio: le autorità di vigilanza, dall’HKMA alla Federal Reserve passando per la BCE, stanno intensificando i controlli sull’esposizione bancaria all’AI generativa.
  • Impatto competitivo: le restrizioni potrebbero favorire lo sviluppo di alternative locali, in particolare modelli AI cinesi, accelerando ulteriormente la corsa all’autosufficienza tecnologica di Pechino.

Per il comparto bancario internazionale, la vicenda Goldman-Anthropic rappresenta un caso di studio significativo su come la geopolitica e i rischi cyber stiano ridefinendo l’adozione delle tecnologie AI nel settore dei servizi finanziari.