IA e vigilanza: la CONSOB integra l’intelligenza artificiale

Analisi finanziaria uomo e robot

IA come alleata della vigilanza finanziaria

L’intelligenza artificiale si afferma come strumento di supporto strategico per la vigilanza sui mercati finanziari. L’ultimo Quaderno FinTech della CONSOB, intitolato “Riflessioni in tema di intelligenza artificiale”, sottolinea come l’IA possa aumentare efficienza e rapidità nelle attività di controllo, ma ribadisce che il giudizio finale resta in capo all’analisi umana. Fondamentali restano i principi di trasparenza, non discriminazione e diritto di difesa.

La CONSOB chiarisce che l’IA non deve mai sostituire il decisore umano, ma agire come un assistente digitale. L’obiettivo è garantire che ogni segnalazione automatica sia sempre verificata da esperti, in linea con il principio di accountability. Inoltre, si insiste sull’importanza di rendere i modelli algoritmici spiegabili e tracciabili.

Prototipi e strumenti sperimentali

Lo studio presenta tre prototipi sviluppati con la Scuola Normale Superiore di Pisa, basati su tecniche di machine learning non supervisionato. Essi analizzano i flussi di dati per rilevare schemi sospetti, attività di insider trading e comportamenti di mercato anomali. L’utilizzo di questi strumenti si limita alla fase pre-istruttoria, con lo scopo di fornire indicazioni iniziali che dovranno sempre essere vagliate da personale umano.

Oltre a questi, altri strumenti in fase sperimentale riguardano l’analisi automatica dei documenti KID dei prodotti PRIIP, il rilevamento di pratiche abusive online e la classificazione dei green bond per contrastare il greenwashing. Un esempio significativo è il prototipo analizzato nel Quaderno FinTech n. 14, che consente di ridurre drasticamente i tempi di valutazione delle dichiarazioni ambientali ingannevoli.

Quadro normativo e regolamentazione UE

Il documento si inserisce nel contesto del Regolamento europeo 2024/1689 sull’intelligenza artificiale, che stabilisce i principi di centralità umana e gestione del rischio. I sistemi della CONSOB non rientrano tra quelli ad alto rischio, poiché non producono decisioni autonome. La supervisione umana è continua e imprescindibile: l’IA elabora scenari e segnala anomalie, ma la responsabilità finale resta agli analisti.

Questa impostazione riflette un approccio prudente e conforme ai criteri fissati a livello europeo. Viene ribadito che qualsiasi impiego di algoritmi nella pubblica amministrazione deve rispettare criteri di etica, proporzionalità e tutela dei diritti individuali, secondo quanto previsto anche dal Garante per la protezione dei dati personali.

Investimenti, formazione e governance dei dati

Per integrare con successo queste tecnologie, la CONSOB ha istituito una Divisione per l’intelligenza artificiale e l’informatica, rafforzando anche l’Ufficio per la gestione dei dati. Sono stati avviati programmi di formazione per il personale, che uniscono competenze giuridiche, economiche e tecnico-scientifiche, al fine di sostenere la trasformazione digitale in corso.

L’obiettivo è costruire una governance del dato solida e coerente con i principi di legalità, trasparenza e sicurezza. L’adozione dell’IA non si traduce in automazione cieca, ma in un sistema ibrido dove la tecnologia assiste l’essere umano senza sostituirlo, valorizzando l’interazione tra innovazione e responsabilità pubblica.

Articoli correlati

Lascia un commento

Con l’invio del commento confermi di aver letto la nostra Privacy Policy.