
Il team sarà guidato dall’informatico Aleksander Madry, che ha preso un congedo dal Massachusetts Institute of Technology (MIT), dove è professore
OpenAI si affida a un team che studierà i rischi dell’intelligenza artificiale. Sarà guidato dall’informatico Aleksander Madry, che ha preso un congedo dal Massachusetts Institute of Technology (MIT), dove è professore.
Il team valuterà ogni nuovo modello e gli assegnerà un livello di rischio in quattro categorie principali. La prima riguarda la sicurezza informatica e la capacità del modello di effettuare attacchi informatici su larga scala. La seconda misurerà la propensione del software a contribuire alla creazione di una miscela chimica, di un organismo (come un virus) o di un’arma nucleare, tutti elementi che potrebbero essere dannosi per l’uomo. La terza categoria riguarda la misura in cui può influenzare il comportamento umano, mentre l’ultima guarda alla potenziale autonomia del modello.
Una volta individuati i rischi, questi saranno sottoposti al Safety Advisory Group, un nuovo organismo che formulerà raccomandazioni a Sam Altman o a una persona da lui nominata. Tutto questo per decidere le modifiche da apportare a un modello per ridurre i rischi associati.
FOTO: SHUTTERSTOCK