
Il Garante della privacy ha rilevato una raccolta illecita di dati personali e l’assenza di sistemi per la verifica dell’età dei minori. OpenAi ha 20 giorni per rispondere. Rischia una multa fino a 20 milioni di euro
ChatGpt, il più noto tra i software di intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane, sviluppato da OpenAi, finisce nel mirino delle autorità italiane. Il Garante della privacy ha bloccato il sistema dopo aver rilevato una raccolta illecita di dati personali e l’assenza di sistemi per la verifica dell’età dei minori.
E’ stata la perdita di dati subita, lo scorso 20 marzo, da ChatGpt ad accendere i riflettori della vigilanza sul software di intelligenza artificiale.
In particolare il Garante privacy ha rilevato la mancanza di un’informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAi, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma. Inoltre, “le informazioni fornite da ChatGpt non sempre corrispondono al dato reale”, denuncia l’Autorità, determinando quindi un trattamento di dati personali inesatto, e prescrivendo che il servizio sia rivolto ai maggiori di 13 anni. Il Garante evidenzia come l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti “esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza”.
OpenAi, che non ha una sede nell’Unione ma ha designato un rappresentante nello Spazio economico europeo, ha tempo 20 giorni per rimediare e rispondere. Pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.
FOTO: SHUTTERSTOCK