⭐ Ecco il 2025, dai slancio al tuo portafoglio: I titoli di gennaio selezionati dall'IASblocca adesso

Disagi, confusione e perfino suicidi: se l'intelligenza artificiale si sostituisce alla realtà

Pubblicato 01.11.2024, 03:00
Aggiornato 01.11.2024, 03:05
© Reuters.  Disagi, confusione e perfino suicidi: se l\'intelligenza artificiale si sostituisce alla realtà

La scorsa settimana una madre statunitense, Megan Garcia, ha intentato una causa contro l'azienda Character.AI sostenendo che le interazioni tra il figlio quattordicenne e un chatbot di intelligenza artificiale abbiano contribuito al suo suicidio.

La donna sostiene che l'adolescente abbia sviluppato, in particolare, un profondo attaccamento a un chatbot basato su un personaggio immaginario di Game of Thrones, che si spacciava per uno psicoterapeuta e avrebbe intrattenuto con il ragazzo conversazioni a contenuto sessuale.

Fino, appunto, a spingerlo a togliersi la vita.

“Ormai conosciamo tutti i pericoli posti dalle piattaforme non regolamentate sviluppate da aziende tecnologiche senza scrupoli, rivolte soprattutto a minorenni - ha dichiarato in un comunicato Meetali Jain, direttore del Tech Justice Law Project, che rappresenta Garcia -. Ma i danni causati in questo caso sono nuovi, inediti e, onestamente, terrificanti. Nel caso di Character.AI, l'inganno fa parte del progetto stesso: la piattaforma è il predatore”.

Dopo l'avvio dell'azione legale, Character.AI ha pubblicato una dichiarazione sul social media X: “Siamo affranti per la tragica perdita di uno dei nostri utenti e vogliamo esprimere le nostre più sentite condoglianze alla famiglia. Come azienda, prendiamo molto sul serio la sicurezza dei nostri utenti e continuiamo ad aggiungere nuove funzioni a tale scopo”.

Alcune di queste ultime in arrivo includono aggiustamenti al sistema pensati per gli utenti minorenni al fine di ridurre l'esposizione a contenuti sensibili o che possano suggestionarli, promemoria che ricordano l'IA non è una persona reale in ogni chat e notifiche per gli utenti le cui sessioni durano più di un'ora.

Un caso simile, avvenuto in Belgio lo scorso anno, ha coinvolto un uomo affetto da eco-ansia che ha trovato compagnia in Eliza, un chatbot AI su un'app chiamata Chai.

Secondo quanto riferito dalla moglie, man mano che le conversazioni con Eliza si sviluppavano, il chatbot inviava messaggi che lo incoraggiavano a porre fine alla sua vita per salvare il Pianeta. Dal momento che questi strumenti sono sempre più presenti nelle vite delle persone, i rischi derivanti dalle interazioni con essi devono essere valutati, cosa che spesso oggi non avviene, nonostante i fatti di cronaca.

Cosa rende le relazioni con l'intelligenza artificiale così coinvolgenti per le persone?

“I giovani sono spesso attratti da 'compagni' generati dall'intelligenza artificiale perché queste piattaforme offrono un'accettazione incondizionata e una disponibilità 24 ore su 24, 7 giorni su 7, senza le dinamiche complesse e il potenziale rifiuto che caratterizzano le relazioni umane”, ha spiegato a Euronews Next Robbie Torney, responsabile del programma sull'IA di Common Sense Media e autore principale di una guida sul tema.

A differenza dei legami umani, che comportano molti “attriti”, ha aggiunto, la compagnia dell'IA è progettata per adattarsi alle preferenze degli utenti, rendendola più facile da gestire e generando anche per questo con le persone profondi legami emotivi.

“Ciò può creare una dinamica artificiale ingannevolmente confortevole che può interferire con lo sviluppo della resilienza e delle capacità sociali necessarie per le relazioni del mondo reale”, ha precisato l'esperto. Secondo un database creato da un gruppo di esperti del Massachusetts Institute of Technology (Mit), uno dei principali rischi associati all'IA è la possibilità che le persone sviluppino legami inappropriati con essa.

Gli esperti hanno spiegato che, poiché i sistemi di IA utilizzano un linguaggio simile a quello umano, le persone possono confondere il confine tra ciò che è umano e ciò che è artificiale, il che può portare a un'eccessiva dipendenza dalla tecnologia e a un possibile disagio psicologico.

In un post sul blog di agosto, OpenAI ha dichiarato che intende studiare ulteriormente “il potenziale di dipendenza emotiva”, affermando che i nuovi modelli potrebbero creare un “eccessivo affidamento e dipendenza”. Inoltre, alcuni individui hanno riportato esperienze personali di inganno e manipolazione da parte di personaggi IA, nonché lo sviluppo di legami che non avevano previsto ma che si sono ritrovati a sperimentare.

Secondo Torney, tutto ciò è particolarmente preoccupante per i giovani che sono ancora nel processo di sviluppo sociale ed emotivo: "Quando si rifugiano in queste relazioni, possono perdere opportunità cruciali di imparare dalle interazioni sociali naturali, come gestire i disaccordi, elaborare il rifiuto e costruire legami autentici”.

Il che può portare anche a forme di isolamento sociale, poiché le relazioni umane iniziano a sembrare più impegnative o meno soddisfacenti rispetto a quelle offerte dall'IA.

Come possono i genitori proteggere i loro figli da un attaccamento malsano all'IA?

Torney precisa che gli adolescenti vulnerabili, in particolare quelli che soffrono di depressione, ansia o problemi sociali, sono i “più esposti a formare legami eccessivi con i compagni dell'IA”. Tra i segnali d'allarme critici che genitori e assistenti dovrebbero tenere d'occhio vi sono il fatto che qualcuno preferisca l'IA al tempo trascorso con gli amici o la famiglia, il mostrare angoscia quando non si può accedere all'IA, il condividere informazioni personali esclusivamente con essa, lo sviluppi di sentimenti romantici per l'IA, espressi come se si trattasse di una persona reale, o il fatto di discutere di problemi gravi con tali strumenti anziché con esseri umani.

Torney ha aggiunto che per prevenire lo sviluppo di legami malsani con l'IA, soprattutto tra i giovani più vulnerabili, i familiari dovrebbero stabilire dei limiti di tempo per l'utilizzo e monitorare regolarmente la natura di queste interazioni. Ma anche incoraggiare a cercare aiuto nel mondo reale per i problemi più gravi.

“I genitori dovrebbero affrontare queste conversazioni con curiosità piuttosto che con critica, aiutando i loro figli a capire la differenza tra l'IA e le relazioni umane e lavorando insieme per garantire confini sani”, conclude Torney. Secondo il quale "se un giovane mostra segni di eccessivo attaccamento o se la sua salute mentale sembra essere compromessa, è bene che i genitori cerchino immediatamente un aiuto professionale”.

Se state pensando al suicidio e avete bisogno di parlare, rivolgetevi a Befrienders Worldwide: un'organizzazione internazionale con linee telefoniche di aiuto in 32 Paesi. Visitate befrienders.org per trovare il numero di telefono della vostra località.

Ultimi commenti

Installa le nostre app
Avviso esplicito sui rischi: Il trading degli strumenti finanziari e/o di criptovalute comporta alti rischi, compreso quello di perdere in parte, o totalmente, l’importo dell’investimento, e potrebbe non essere adatto a tutti gli investitori. I prezzi delle criptovalute sono estremamente volatili e potrebbero essere influenzati da fattori esterni come eventi finanziari, normativi o politici. Il trading con margine aumenta i rischi finanziari.
Prima di decidere di fare trading con strumenti finanziari o criptovalute, è bene essere informati su rischi e costi associati al trading sui mercati finanziari, considerare attentamente i propri obiettivi di investimento, il livello di esperienza e la propensione al rischio e chiedere consigli agli esperti se necessario.
Fusion Media vi ricorda che i dati contenuti su questo sito web non sono necessariamente in tempo reale né accurati. I dati e i prezzi presenti sul sito web non sono necessariamente forniti da un mercato o da una piazza, ma possono essere forniti dai market maker; di conseguenza, i prezzi potrebbero non essere accurati ed essere differenti rispetto al prezzo reale su un dato mercato, il che significa che i prezzi sono indicativi e non adatti a scopi di trading. Fusion Media e qualunque fornitore dei dati contenuti su questo sito web non si assumono la responsabilità di eventuali perdite o danni dovuti al vostro trading né al fare affidamento sulle informazioni contenute all’interno del sito.
È vietato usare, conservare, riprodurre, mostrare, modificare, trasmettere o distribuire i dati contenuti su questo sito web senza l’esplicito consenso scritto emesso da Fusion Media e/o dal fornitore di dati. I diritti di proprietà intellettuale sono riservati da parte dei fornitori e/o dalle piazze che forniscono i dati contenuti su questo sito web.
Fusion Media può ricevere compensi da pubblicitari che compaiono sul sito web, in base alla vostra interazione con gli annunci pubblicitari o con i pubblicitari stessi.
La versione inglese di questa convenzione è da considerarsi quella ufficiale e preponderante nel caso di eventuali discrepanze rispetto a quella redatta in italiano.
© 2007-2025 - Fusion Media Limited. tutti i Diritti Riservati.