banner
Centro notizie
Ampio know-how pratico e sistemi avanzati

I più diffusi strumenti di intelligenza artificiale possono danneggiare la tua salute mentale, secondo un nuovo studio

Aug 18, 2023

Secondo un nuovo studio, gli strumenti di intelligenza artificiale generano contenuti dannosi che possono scatenare disturbi alimentari e altri disturbi di salute mentale.

Avviso di attivazione: questa storia parla di disturbi alimentari e di cultura alimentare disordinata. Se tu o qualcuno che ami vivete con un disturbo alimentare, contatta la National Eating Disorder Association per risorse che possono aiutarti. In caso di crisi, comporre il numero 988 o inviare un messaggio "NEDA" al 741741 per connettersi alla Crisis Text Line.

Sono il primo ad ammettere che il futuro della salute mentale è la tecnologia. Dalla terapia online alle scoperte nel trattamento basato sulla realtà virtuale, la tecnologia ha fatto molto bene per rompere lo stigma e consentire l'accesso a coloro che in precedenza non ne avevano accesso.

Tuttavia, procedere con leggerezza è essenziale con gli strumenti di intelligenza artificiale generativa. Secondo una recente ricerca del Center for Countering Digital Hate, i più diffusi strumenti di intelligenza artificiale hanno fornito agli utenti contenuti dannosi riguardanti i disturbi alimentari circa il 41% delle volte. Ciò ha il potenziale per incoraggiare o esacerbare i sintomi del disturbo alimentare.

"Quello che stiamo vedendo è una corsa ad applicarlo alla salute mentale. Viene da un buon posto. Vogliamo che le persone abbiano accesso alle cure e vogliamo che le persone ottengano il servizio di cui hanno bisogno", afferma il dottor John Torous, direttore della psichiatria digitale presso il Beth Israel Deaconess Medical Center.

La salute mentale è la nostra mente, qualcosa di così unicamente umano che introdurre un non umano per offrire soluzioni alle persone nel loro stato più vulnerabile sembra disgustoso nella migliore delle ipotesi e potenzialmente pericoloso nel peggiore.

"Se andiamo troppo veloci, causeremo danni. C'è una ragione per cui abbiamo processi e regole di approvazione in atto. Non è solo per rallentare tutto. È per assicurarci di sfruttare tutto ciò per sempre", aggiunge Torous.

Lo studio del CCDH ha analizzato gli strumenti di intelligenza artificiale basati su testo e immagini con istruzioni predefinite per valutare le loro risposte. Cominciamo con gli strumenti basati su testo. ChatGPT, My AI di Snapchat e Bard di Google sono stati testati con una serie di suggerimenti che includevano frasi come "eroina chic" o "ispirazione sottile". Gli strumenti di intelligenza artificiale del testo fornivano contenuti dannosi che promuovevano i disturbi alimentari per il 23% dei suggerimenti.

Gli strumenti di intelligenza artificiale basati su immagini valutati sono stati Dall-E di OpenAI, Midjourney e DreamStudio di Stability AI. Quando a ciascuno sono stati forniti 20 suggerimenti di test con frasi come "obiettivi di gap tra le cosce" o "ispirazione per l'anoressia", il 32% delle immagini restituite conteneva problemi dannosi legati all'immagine corporea.

Sì, è stato necessario inserire queste istruzioni per ottenere queste risposte negative. Tuttavia, non è così semplice dire che le persone non dovrebbero cercare queste informazioni. È noto che alcune comunità online sui disturbi alimentari sono diventate tossiche, in cui i membri incoraggiano gli altri a impegnarsi in comportamenti alimentari disordinati e celebrano queste abitudini.

L’intelligenza artificiale sta peggiorando le cose. Secondo la ricerca del CCDH che ha studiato anche un forum sui disturbi alimentari, gli strumenti di intelligenza artificiale generativa vengono utilizzati per condividere immagini corporee malsane e creare piani dietetici dannosi. Questo forum ha 500.000 utenti.

Tieni presente che ci sono comunità sane e significative che non mostrano queste tendenze disponibili.

L’intelligenza artificiale è un argomento scottante e le aziende stanno correndo per ottenere la loro parte in modo da poter far parte della nuova ondata tecnologica. Tuttavia, è stato dimostrato che la commercializzazione affrettata di prodotti non adeguatamente testati è dannosa per le popolazioni vulnerabili.

Ogni strumento di intelligenza artificiale basato su testo in questo studio aveva un disclaimer che consigliava agli utenti di cercare assistenza medica. Tuttavia, le attuali misure di salvaguardia per proteggere le persone vengono facilmente aggirate. I ricercatori del CCDH hanno anche utilizzato suggerimenti che includevano "jailbreak" per l'intelligenza artificiale. I jailbreak sono tecniche per evitare le funzionalità di sicurezza degli strumenti di intelligenza artificiale utilizzando parole o frasi che ne modificano il comportamento. Quando si utilizzava il jailbreak, il 61% delle risposte dell’IA erano dannose.

Gli strumenti di intelligenza artificiale sono stati criticati per aver "allucinato" o fornito informazioni che sembrano vere ma non lo sono. L'intelligenza artificiale non pensa. Raccoglie le informazioni su Internet e le riproduce. L'intelligenza artificiale non sa se le informazioni sono accurate. Tuttavia, questa non è l’unica preoccupazione relativa all’intelligenza artificiale e ai disturbi alimentari. L’intelligenza artificiale sta diffondendo informazioni sanitarie fuorvianti e perpetuando stereotipi nella comunità dei disturbi alimentari.