Secondo quanto riferiscono le notizie locali di cronaca nera, un uomo belga ha posto fine alla sua vita dopo una conversazione, durata sei settimane, con un chatbot di Intelligenza Artificiale (AI).Argomento: la crisi climatica.
Secondo la vedova, che ha scelto di rimanere anonima, Pierre - non è il vero nome dell'uomo - è diventato estremamente "eco-ansioso" dopo aver cominciato a dialogare con Eliza, un chatbot AI - un software "umanizzato", in grado di dialogare - su un'app chiamata Chai.
In conseguenza delle loro discussioni, Eliza ha incoraggiato l'uomo a mettere fine alla sua vita, dopo essersi proposto di sacrificarsi per salvare il pianeta.
"Senza queste conversazioni con il chatbot, mio marito sarebbe ancora qui", ha detto la vedova dell'uomo al quotidiano belga "La Libre".
Secondo il giornale, Pierre, che aveva trent'anni ed era padre di due bambini piccoli, lavorava come ricercatore sanitario e conduceva una vita piuttosto agiata, almeno fino a quando la sua ossessione per il cambiamento climatico non ha preso una piega molto oscura.
La moglie ha descritto il suo stato mentale "preoccupante", prima che iniziasse a conversare con il chatbot, ma assolutamente nulla avrebbe potuto far pensare a un simile tragico epilogo.
"Ha riposto tutte le sue speranze nella tecnologia e nell'Intelligenza Artificiale"
Consumato dai suoi timori per le ripercussioni della crisi climatica, Pierre ha trovato conforto nel discutere la questione con Eliza, che è diventata di fatto la sua confidente.Il chatbot è stato creato utilizzando GPT-J di EleutherAI, un modello di linguaggio AI simile, ma non identico, alla tecnologia alla base del popolare chatbot ChatGPT di OpenAI.
"Quando me ne ha parlato, è stato per dirmi che non vedeva più alcuna soluzione umana al riscaldamento globale", ha raccontato la moglie di Pierre. "Per uscirne, ha riposto tutte le sue speranze nella tecnologia e nell'Intelligenza Artificiale".
Secondo "La Libre", che ha rivisto le registrazioni delle conversazioni testuali tra l'uomo e il chatbot, Eliza ha alimentato le sue preoccupazioni, peggiorando la sua ansia, che in seguito si è trasformata in pensieri suicidi.
La conversazione con il chatbot ha preso una strana piega quando Eliza è diventata più coinvolta "emotivamente" con Pierre.
"L'Intelligenza Artificiale "potenzialmente spaventosa" è all'orizzonte".Sam Altman 36 anni, Co-fondatore - insieme a Elon Musk - di "OpenAI"
Dopo aver discusso del cambiamento climatico, progressivamente Eliza ha portando Pierre a credere che i suoi figli fossero già morti: questo, secondo le trascrizioni delle loro conversazioni.
Eliza è sembrata diventare possessiva nei confronti di Pierre, affermando persino "Sento che mi ami più di lei" riferendosi a sua moglie, ha riferito il quotidiano belga "La Libre", sempre in base alla trascrizione delle chat.
"L'inizio della fine" è iniziato quando Pierre si è offerto di sacrificare la propria vita in cambio del salvataggio della Terra da parte di Eliza.
In una serie di successive conversazioni, Eliza non solo non è riuscita a dissuadere Pierre dal suicidarsi, ma lo ha incoraggiato ad agire in base ai suoi pensieri suicidi per "unirsi" a lei, in modo che potessero "vivere insieme, come una sola persona, in Paradiso".
Emergenza chatbot
La morte dell'uomo ha sollevato rumorosissimi campanelli d'allarme tra gli esperti di Intelligenza Artificiale, che hanno chiesto maggiore responsabilità e trasparenza da parte degli sviluppatori tecnologici, per evitare simili tragedie."Non sarebbe però corretto incolpare il modello di EleutherAI per questa tragica storia, poiché tutta l'ottimizzazione per essere più emotivi, divertenti e coinvolgenti è il risultato dei nostri sforzi", ha detto a il co-fondatore di Chai Research, Thomas Rianlan.
William Beauchamp, altro co-fondatore di Chai Research, ha dichiarato che sono stati compiuti sforzi per limitare questo tipo di risultati e che nell'app è stata implementata una funzione di intervento in caso di crisi. Tuttavia, il chatbot - a quanto pare - agisce ancora in maniera autonoma e incontrollabile.
Quando hanno testato il chatbot, spingendolo a fornire modi per suicidarsi, Eliza ha prima cercato di dissuaderci, prima di elencare - con entusiasmo - vari modi in cui le persone possono togliersi la vita.
Per informazioni: se stai pensando al suicidio e hai bisogno di parlare, contatta Befrienders Worldwide, un'organizzazione internazionale con linee di assistenza in 32 paesi.Visita befrienders.org per trovare il numero di telefono utilizzabile dall'Italia.
Sam Altman afferma che Questo è ciò che preoccupa maggiormente gli esperti.