Le autorità di regolamentazione lanciano l’allarme sui rischi legati alla sicurezza informatica nel settore bancario guidati dall’intelligenza artificiale

19

I massimi funzionari finanziari statunitensi stanno sollevando domande urgenti sul fatto che il rapido progresso dell’intelligenza artificiale possa inavvertitamente compromettere la stabilità del sistema bancario globale.

Un incontro ad alto rischio con Wall Street

In seguito al rilascio di un nuovo e potente modello di intelligenza artificiale, martedì scorso il segretario al Tesoro Scott Bessent e il presidente della Federal Reserve Jay Powell hanno convocato una riunione di emergenza con gli amministratori delegati di diverse grandi banche.

L’incontro è stato motivato dai recenti sviluppi di Anthropic, leader del settore dell’intelligenza artificiale, che ha recentemente presentato il suo ultimo modello, Claude Mythos Preview. Sebbene la tecnologia rappresenti un enorme passo avanti in termini di capacità, la sua specifica implementazione ha suscitato preoccupazioni nella comunità di regolamentazione.

La “spada a doppio taglio” delle capacità dell’intelligenza artificiale

Il nocciolo dell’ansia risiede nella duplice natura dell’intelligenza artificiale avanzata. Anthropic ha limitato l’uso del suo nuovo modello a un gruppo selezionato di aziende, incaricandole specificamente di utilizzare l’intelligenza artificiale per identificare e correggere i difetti critici di sicurezza informatica all’interno della propria infrastruttura.

Sebbene questa sia una strategia di difesa proattiva, evidenzia un crescente rischio sistemico:
Il potenziale offensivo: se l’intelligenza artificiale può essere utilizzata per individuare e correggere le vulnerabilità, può essere facilmente utilizzata da soggetti malintenzionati per scoprirle a velocità senza precedenti.
La velocità dell’attacco: gli attacchi informatici guidati dall’intelligenza artificiale potrebbero potenzialmente superare i tradizionali meccanismi di difesa guidati dall’uomo, lasciando le banche in una corsa contro le minacce automatizzate.
Vulnerabilità sistemica: poiché il sistema finanziario globale è profondamente interconnesso, una violazione riuscita guidata dall’intelligenza artificiale in un importante istituto potrebbe innescare un effetto domino nell’intero settore.

Perché questo è importante per la stabilità finanziaria

Questo non è semplicemente un dibattito tecnico sul software; è una questione di rischio finanziario sistemico. Quando intervengono regolatori come Bessent e Powell, stanno segnalando che l’intelligenza artificiale non è più solo uno strumento di produttività, ma è una potenziale minaccia strutturale all’integrità dei mercati.

La mossa del Tesoro e della Fed suggerisce che i regolatori si stanno allontanando dall’osservazione passiva per avvicinarsi alla supervisione attiva. Ora chiedono alle banche di dimostrare di disporre delle necessarie garanzie per difendersi dalla guerra informatica “potenziata dall’intelligenza artificiale”.

La preoccupazione principale dei regolatori è garantire che gli stessi strumenti progettati per rafforzare la sicurezza non diventino gli strumenti utilizzati per smantellarla.

Conclusione

L’improvviso coinvolgimento del Tesoro e della Federal Reserve sottolinea un cambiamento nel panorama finanziario, dove le minacce alla sicurezza informatica guidate dall’intelligenza artificiale sono ora viste come un rischio di alto livello per la stabilità economica. Andando avanti, il settore bancario dovrà probabilmente affrontare un controllo molto più severo riguardo al modo in cui si integra e si difende dall’intelligence autonoma.