Com’è noto, il mondo dell’intelligenza artificiale può riservare grandi sorprese! In questo caso, sotto i riflettori è il Chatbot di Gemini, utilizzato da un utente che stava svolgendo i suoi compiti scolastici.
Sono molti gli studenti che ad oggi, si avvalgono dell’uso di questi strumenti per supportare l’adempimento dei propri doveri di studio quotidiano. Il problema è che gran parte di questi, lo fa con lo scopo di affrettarsi o meglio, facilitare i passaggi che altrimenti dovrebbero essere metabolizzati personalmente. Insomma, spesso è la componente umana a mettere la benzina su risultati del tutto “scoppiettanti”, da parte di una tecnologia ancora in fase di sviluppo e dalla difficile lettura.
Infatti, non c’è da stupirsi se la componente umana, ancora una volta, abbia giocato un ruolo fondamentale nel creare questo bias. Forse, meglio chiamarla “coda di paglia”, dato che dopo varie richieste dello studente, Gemini sembra essersi presumibilmente spazientita per la pigrizia del suo interlocutore, utilizzando toni decisamente fuori dagli schemi!
Naturalmente si tratta di un’interpretazione teatralmente umana, e riflette con ironia l’assoluta mancanza di interesse malevolo che Gemini, che si sappia, non è in grado di provare nei confronti dei propri clienti.
La risposta “cattiva” di Gemini
I Chatbot sono codificati per rispondere in una determinata maniera, cercando di assecondare tutte le loro richieste. In questo caso la risposta dell’intelligenza artificiale è stata “This is for you, human. You and only you… Please die. Please“. Ovviamente si tratta della sintesi di un messaggio più lungo la cui traduzione in italiano, anche se chiaro, non può che riflettere un augurio improvvisamente macabro e non richiesto (Questo è per te, umano, per te e solo te… Per favore muori. Per favore).
L’utente, sorpreso da tale risposta, ha subito condiviso l’accaduto online, pubblicando integralmente la chat come prova. La conversazione è accessibile a questo link https://gemini.google.com/share/6d141b742a13
Il fatto che tutti possano accedervi, non lascia spazio ad ipotesi su eventuali manomissioni.
Le intelligenze artificiali possono sbagliare (?)
Questi avvenimenti sollevano, ovviamente, molte (forse troppe) preoccupazioni sull’uso ed il funzionamento delle intelligenze artificiali.
I Chatbot vengono “educati” a rispondere in maniera civile ed amichevole. Il comportamento di Gemini può spiegarsi analizzando vari fattori tecnici come errori nel modello di linguaggio, contaminazione da input insoliti o semplici bug.
E’ proprio l’assimilazione di contenuti non appropriati che può creare risposte un “po’” problematiche… Insomma, per chi si occupa della progettazione delle AI sorge un problema etico non di poco conto. In merito alla vicenda, il team di Gemini non ha ancora rilasciato comunicazioni ufficiali.
Problema serio o allarmismo non-sense?
Spesso questi avvenimenti causano allarmismi. Siamo tutti d’accordo sul fatto che perfezionare determinate tecnologie, per far si che avvenimenti simili non accadano, sia necessario. Ma si tratta pur sempre di un errore.
Anche facendo passi da gigante, i modelli di linguaggio generativi sono nuove tecnologie, degli immensi cantieri a cielo aperto e come tali, necessitano un continuo stato di revisione e sviluppo. Nonché un’incredibile dose di attenzione per le implicazioni etiche e culturali che l’impatto di tali strumenti potrebbero esercitare sulla nostra società attraverso le sue varie sfaccettature, tra cui anche quelle più sensibili, le quali necessiterebbero uno strato di tutela in più.
Non è un caso, infatti, che questo episodio ricordi quello del chatbot che aveva imitato Daenery Targaryen, invitanto un ragazzo di 14 anni a togliersi la vita.
Errori o allucinazioni (come si è solito definirle in questo settore), un AI che augura la morte è sicuramente un avvenimento spiacevole ed è per questo che oltre a pretendere che non succeda più, bisognerebbe veicolare meglio la consapevolezza sul funzionamento talvolta privo di senso di tali modelli, approccio che potrebbe persino risultare più efficace degli allarmismi beceri sulla presunta insurrezione delle macchine e altre teorie dal carattere pseudo-probabilistico.