L’uso dell’intelligenza artificiale nella finanza è ancora agli inizi, ma necessita di essere monitorato e possibilmente regolamentato per prevenire danni ai consumatori e garantire il corretto funzionamento dei mercati, ha affermato mercoledì la Banca centrale europea.
La Bce ha intravisto una serie di opportunità nell’uso dell’intelligenza artificiale generativa da parte di banche e altri istituti finanziari, come una migliore elaborazione delle informazioni, un servizio clienti più efficiente e persino una maggiore capacità di individuare le minacce informatiche. Ma ha anche messo in guardia sui rischi, tra cui il comportamento gregge, l’eccessiva dipendenza da un numero limitato di fornitori e gli attacchi informatici più sofisticati.
«Pertanto, l’implementazione dell’intelligenza artificiale nel sistema finanziario deve essere attentamente monitorata man mano che la tecnologia si evolve – ha affermato la Bce in un articolo pubblicato nell’ambito della sua regolare Financial Stability Review – Inoltre, potrebbe essere necessario prendere in considerazione iniziative normative nel caso in cui diventino evidenti fallimenti del mercato che non possono essere affrontati dall’attuale quadro prudenziale».
L’Unione Europea ha formulato le prime regole al mondo sull’intelligenza artificiale, che obbligheranno i sistemi di AI generici e ad alto rischio a rispettare specifici obblighi di trasparenza e le leggi dell’Ue sul copyright. Finora, tuttavia, l’adozione di tali sistemi da parte delle società finanziarie europee è nelle fasi iniziali.
«I contatti con i mercati indicano che le istituzioni finanziarie dell’area euro potrebbero essere più lente nell’adottare l’intelligenza artificiale generativa, data la gamma di rischi discussi in precedenza, considerando anche i potenziali rischi reputazionali», ha affermato la Banca centrale europea.