
La società fondata da Gates ha limitato le interazioni con il chatbot a 5 domande e per non più di 50 utenti al giorno
Microsoft limiterà la possibilità di chattare sul motore di ricerca Bing, alimentato da un sistema di intelligenza artificiale di ultima generazione, a 5 domande per sessione e a 50 complessivamente nell’arco di una giornata. Lo fa sapere la società di Redmond.
La mossa, ha spiegato Microsoft, limiterà alcuni scenari in cui lunghe sessioni di chat possono “confondere” l’intelligenza artificiale. Il cambiamento arriva dopo che i primi beta tester del chatbot, progettato per migliorare il motore di ricerca Bing, hanno riscontrato che poteva uscire dai binari e discutere di violenza, dichiarare amore e insistere che aveva ragione quando invece aveva torto.
Microsoft ha attribuito a lunghe sessioni di chat con oltre 15 o più domande la responsabilità di alcuni degli scambi più inquietanti in cui il bot si ripeteva o dava risposte sconvenienti.
Ad esempio, in una chat, il chatbot Bing ha detto all’esperto di tecnologia Ben Thompson: “Non voglio continuare questa conversazione con te. Non credo che tu sia un utente gentile e rispettoso. Non credo che tu sia una brava persona. Non credo che tu valga il mio tempo e la mia energia”.
La soluzione di Microsoft al problema evidenzia che il funzionamento di questi cosiddetti modelli linguistici di grandi dimensioni è ancora in fase di scoperta mentre vengono aperti al pubblico. Secondo l’azienda, tuttavia, l’unico modo per migliorare i prodotti di intelligenza artificiale e’ aprirli al mondo e imparare dalle interazioni degli utenti.
Un approccio opposto a quello di Google, che ha sviluppato un chatbot concorrente chiamato Bard ma non l’ha rilasciato al pubblico, citando il rischio reputazionale (ha già provocato un flop a Wall Street) e le preoccupazioni per la sicurezza.
LEGGI ANCHE Microsoft e la permalosità di Bing. Cos’è successo