Le Intelligenze Artificiali stanno crescendo a un ritmo impressionante, rendendo sempre più urgente la necessità di un controllo efficace per evitare che diventino ingestibili e pericolose.
Venticinque tra i maggiori esperti di AI a livello mondiale, provenienti da Stati Uniti, Cina, Europa e Regno Unito, guidati da Yoshua Bengio dell’Università canadese di Montreal, hanno lanciato un appello ai governi e alle aziende leader affinché investano significativamente di più in contromisure efficaci.
Questo appello è stato pubblicato sulla rivista Science e sarà la base di partenza del summit internazionale sulla sicurezza dell’AI che si apre oggi a Seoul dove centinaia di esperti, politici, economisti, imprenditori, si confronteranno fino al 22 maggio.
Il summit internazionale rappresenta, infatti, un’occasione cruciale per discutere e affrontare le criticità delle intelligenze artificiali. Durante l’evento, verranno esaminati i rischi associati all’AI e le possibili soluzioni per mitigarli. I partecipanti includono ricercatori, esperti di sicurezza, politici e rappresentanti delle principali aziende tecnologiche del mondo.
L’appello dei 25 big della ricerca arriva in un momento particolarmente significativo. OpenAI, una delle aziende leader nel settore che ha lanciato ChatGPT, ha recentemente annunciato lo scioglimento del team dedicato alla mitigazione dei rischi a lungo termine dell’intelligenza artificiale, istituito nel luglio del 2023. Questa decisione ha suscitato preoccupazioni ulteriori tra gli esperti.
Secondo i 25 firmatari dell’appello, è ormai indispensabile una «rigorosa regolamentazione da parte dei governi, non codici volontari di condotta scritti dall’industria».
Stuart Russell, dell’Università della California a Berkeley, tra i firmatari della lettera, ha ammonito: «E’ ora di prendere sul serio i sistemi di intelligenza artificiale avanzati: non sono giocattoli. Aumentare le loro capacità prima di capire come renderli sicuri è assolutamente sconsiderato».
Russell conclude con una critica alle aziende che sostengono che la regolamentazione soffochi l’innovazione: «Le aziende si lamenteranno del fatto che è troppo difficile soddisfare le normative, che la regolamentazione soffoca l’innovazione. E’ ridicolo, ci sono più normative sulle paninerie che sulle società di AI».
La ricerca nel campo dell’AI sta avanzando così rapidamente che, nel giro di pochi anni, potrebbero emergere scenari preoccupanti in aree delicate come la stabilità sociale, la sorveglianza pervasiva, la manipolazione di massa, i crimini informatici su vasta scala e i sistemi di guerra automatizzati. Secondo i firmatari dell’appello, è imperativo che i responsabili politici e le grandi aziende passino dalle parole ai fatti, aumentando concretamente gli investimenti in sicurezza, attualmente quasi inesistenti, e imponendo regolamentazioni serie e cogenti.
Il documento pubblicato su Science suggerisce l’istituzione di un’organizzazione efficace di esperti in grado di intervenire rapidamente nei confronti delle AI. A titolo di confronto, l’Istituto per la Sicurezza delle AI degli Stati Uniti dispone di un budget annuale di soli 10 milioni di dollari, mentre l’Agenzia del farmaco FDA ha un budget di 6,7 miliardi. Questo divario di risorse mette in evidenza la necessità urgente di aumentare i finanziamenti dedicati alla sicurezza dell’AI.
La lettera pubblicata su Science e il summit di Seoul sottolineano l’importanza di una collaborazione globale per affrontare le sfide poste dalla rapida evoluzione dell’AI. Solo attraverso sforzi concertati e regolamentazioni rigorose sarà possibile garantire che la crescita dell’AI avvenga in modo sicuro e responsabile. Per questo gli esperti propongono politiche di valutazione del rischio molto più rigorose e concrete, piuttosto che fare affidamento su valutazioni volontarie dei modelli di AI, come avviene attualmente.
Chiedono alle grandi aziende di AI di dare priorità alla sicurezza, dimostrando che i loro sistemi non possono causare danni. Ritengono urgente implementare politiche che si attivino automaticamente quando l’intelligenza artificiale raggiunge determinati traguardi di capacità. Questi meccanismi dovrebbero essere in grado di stringersi o allentarsi in funzione delle reali capacità raggiunte dagli algoritmi.
L’appello degli esperti mira a sensibilizzare i decisori politici e le aziende sull’importanza di un intervento tempestivo e mirato per garantire che l’evoluzione dell’AI avvenga in modo sicuro e controllato. Solo così sarà possibile prevenire potenziali catastrofi e sfruttare al meglio le enormi opportunità offerte dalla tecnologia.