logo_business24it
  • ECONOMIA
  • LAVORO
  • ATTUALITA’
  • POLITICA
  • AMBIENTE
  • INTERVISTE
  • SPORT
Link utili >
Programmi TV
Radio
logo_/wp-content/uploads/2024/09/Logo-png-orizzontale.png logo_/wp-content/uploads/2024/01/Business-24-loghi-menu-imprese-possibili.png logo_/wp-content/uploads/2024/01/Business-24-loghi-menu-business-life.png logo_/wp-content/uploads/2024/01/Business-24-loghi-menu-esperto-risponde.png
  • ECONOMIA
  • ATTUALITA’
  • LAVORO
  • POLITICA
  • AMBIENTE
  • INTERVISTE
  • Canale 824 di Sky
  • CAST
  • INFORMAZIONI
  • CONTATTI
Cerca nel sito
Economia

AI, 25 esperti internazionali lanciano un appello urgente per sicurezza e regolamentazione

Maria Vincenza D'Egidio
21 Maggio 2024
AI, 25 esperti internazionali lanciano un appello urgente per sicurezza e regolamentazione
  • copiato!

Sulla rivista Science, in vista del Summit a Seoul

Le Intelligenze Artificiali stanno crescendo a un ritmo impressionante, rendendo sempre più urgente la necessità di un controllo efficace per evitare che diventino ingestibili e pericolose.

Venticinque tra i maggiori esperti di AI a livello mondiale, provenienti da Stati Uniti, Cina, Europa e Regno Unito, guidati da Yoshua Bengio dell’Università canadese di Montreal, hanno lanciato un appello ai governi e alle aziende leader affinché investano significativamente di più in contromisure efficaci.

Questo appello è stato pubblicato sulla rivista Science e sarà la base di partenza del summit internazionale sulla sicurezza dell’AI che si apre oggi a Seoul dove centinaia di esperti, politici, economisti, imprenditori, si confronteranno fino al 22 maggio.

Il summit internazionale rappresenta, infatti, un’occasione cruciale per discutere e affrontare le criticità delle intelligenze artificiali. Durante l’evento, verranno esaminati i rischi associati all’AI e le possibili soluzioni per mitigarli. I partecipanti includono ricercatori, esperti di sicurezza, politici e rappresentanti delle principali aziende tecnologiche del mondo.

L’appello dei 25 big della ricerca arriva in un momento particolarmente significativo. OpenAI, una delle aziende leader nel settore che ha lanciato ChatGPT, ha recentemente annunciato lo scioglimento del team dedicato alla mitigazione dei rischi a lungo termine dell’intelligenza artificiale, istituito nel luglio del 2023. Questa decisione ha suscitato preoccupazioni ulteriori tra gli esperti.

Altman: chi teme l’intelligenza artificiale rimarrà deluso
Economia
17 Gennaio 2024
Altman: chi teme l’intelligenza artificiale rimarrà deluso
Non cambierà la società come molti temono Sam Altman numero uno di OpenAI e recentemente al centro delle cronache per…
17 Gennaio 2024
  • openai
Guarda ora

Secondo i 25 firmatari dell’appello, è ormai indispensabile una «rigorosa regolamentazione da parte dei governi, non codici volontari di condotta scritti dall’industria».

Stuart Russell, dell’Università della California a Berkeley, tra i firmatari della lettera, ha ammonito: «E’ ora di prendere sul serio i sistemi di intelligenza artificiale avanzati: non sono giocattoli. Aumentare le loro capacità prima di capire come renderli sicuri è assolutamente sconsiderato».

Russell conclude con una critica alle aziende che sostengono che la regolamentazione soffochi l’innovazione: «Le aziende si lamenteranno del fatto che è troppo difficile soddisfare le normative, che la regolamentazione soffoca l’innovazione. E’ ridicolo, ci sono più normative sulle paninerie che sulle società di AI».

La ricerca nel campo dell’AI sta avanzando così rapidamente che, nel giro di pochi anni, potrebbero emergere scenari preoccupanti in aree delicate come la stabilità sociale, la sorveglianza pervasiva, la manipolazione di massa, i crimini informatici su vasta scala e i sistemi di guerra automatizzati. Secondo i firmatari dell’appello, è imperativo che i responsabili politici e le grandi aziende passino dalle parole ai fatti, aumentando concretamente gli investimenti in sicurezza, attualmente quasi inesistenti, e imponendo regolamentazioni serie e cogenti.

Il documento pubblicato su Science suggerisce l’istituzione di un’organizzazione efficace di esperti in grado di intervenire rapidamente nei confronti delle AI. A titolo di confronto, l’Istituto per la Sicurezza delle AI degli Stati Uniti dispone di un budget annuale di soli 10 milioni di dollari, mentre l’Agenzia del farmaco FDA ha un budget di 6,7 miliardi. Questo divario di risorse mette in evidenza la necessità urgente di aumentare i finanziamenti dedicati alla sicurezza dell’AI.

La lettera pubblicata su Science e il summit di Seoul sottolineano l’importanza di una collaborazione globale per affrontare le sfide poste dalla rapida evoluzione dell’AI. Solo attraverso sforzi concertati e regolamentazioni rigorose sarà possibile garantire che la crescita dell’AI avvenga in modo sicuro e responsabile. Per questo gli esperti propongono politiche di valutazione del rischio molto più rigorose e concrete, piuttosto che fare affidamento su valutazioni volontarie dei modelli di AI, come avviene attualmente.

Chiedono alle grandi aziende di AI di dare priorità alla sicurezza, dimostrando che i loro sistemi non possono causare danni. Ritengono urgente implementare politiche che si attivino automaticamente quando l’intelligenza artificiale raggiunge determinati traguardi di capacità. Questi meccanismi dovrebbero essere in grado di stringersi o allentarsi in funzione delle reali capacità raggiunte dagli algoritmi.

L’appello degli esperti mira a sensibilizzare i decisori politici e le aziende sull’importanza di un intervento tempestivo e mirato per garantire che l’evoluzione dell’AI avvenga in modo sicuro e controllato. Solo così sarà possibile prevenire potenziali catastrofi e sfruttare al meglio le enormi opportunità offerte dalla tecnologia.

 

FOTO: Ansa
  • intelligenza artificiale
  • summit intelligenza artificiale
  • summit sulla sicurezza dell'AI a Seoul
  • rivista Science

Ti potrebbero interessare

Davos, Altam di OpenAi: “l’AI è molto potente ma i rischi ci sono”
Attualita'
18 Gennaio 2024
Davos, Altam di OpenAi: “l’AI è molto potente ma i rischi ci sono”
"Bisogna procedere con cautela" «L'Intelligenza artificiale è una tecnologia che è chiaramente molto potente e non possiamo dire con certezza…
Guarda ora

Business24™ - testata giornalistica del Gruppo Editoriale World Vision s.r.l.
Direttore responsabile ad interm Giulia Guidi
Direttore responsabile Maria Lucia Panucci

  • ECONOMIA
  • ATTUALITA’
  • LAVORO
  • POLITICA
  • AMBIENTE
  • INTERVISTE
  • POLITICA
  • CAST
  • CONTATTI
  • INFORMAZIONI
  • RADIO
TORNA ALL'INIZIO

Business24™ - testata giornalistica del Gruppo Editoriale World Vision s.r.l.
Direttore responsabile ad interm Giulia Guidi
Direttore responsabile Maria Lucia Panucci

Attenzione: errori di compilazione
Indirizzo email non valido
Indirizzo email già iscritto
Occorre accettare il consenso
Errore durante l'iscrizione
Iscrizione effettuata
logo_mm
Privacy Policy Cookie Policy Cmp Copyright © 2024. All Rights Reserved. Business24™
registrata presso il Tribunale di Genova
iscr. n° 10/2020 del 23/06/2020
World Vision s.r.l. P.I. 02848430993