Vai al contenuto

ChatGPT: OpenAI rivela 1 milione di utenti a rischio suicidio a settimana

openai decrypt style 02 gID 7

OpenAI ha rivelato lunedì dati relativi alla salute mentale degli utenti di ChatGPT, indicando che una parte significativa di essi discute di suicidio sulla piattaforma. La società, con sede a San Francisco, ha reso noto che circa 1,2 milioni dei suoi 800 milioni di utenti settimanali affrontano temi legati al suicidio su ChatGPT. Questo dato rappresenta, secondo OpenAI, la più dettagliata analisi pubblica della crisi di salute mentale sulla sua piattaforma.

Secondo un post sul blog di OpenAI, le conversazioni che includono segni espliciti di potenziali piani o intenzioni suicide riguardano lo 0,15% degli utenti attivi in una determinata settimana. Inoltre, lo 0,05% dei messaggi contiene segni espliciti o impliciti di idea o intenzione suicidaria.

In termini assoluti, questi dati suggeriscono che circa 400.000 utenti attivi non solo indicano intenzioni suicide, ma cercano attivamente informazioni al riguardo. L’azienda ha inoltre rilevato che, ogni settimana, circa 560.000 utenti mostrano segni di psicosi o mania e 1,2 milioni mostrano un crescente attaccamento emotivo al chatbot.

OpenAI ha dichiarato di aver recentemente aggiornato il modello predefinito di ChatGPT per riconoscere e supportare meglio le persone in difficoltà. In futuro, oltre ai parametri di sicurezza esistenti per suicidio e autolesionismo, verranno aggiunti ai test di sicurezza standard per i futuri modelli la dipendenza emotiva e le emergenze di salute mentale non suicide.

Tuttavia, alcuni esperti ritengono che gli sforzi dichiarati da OpenAI potrebbero non essere sufficienti. Steven Adler, un ex ricercatore sulla sicurezza di OpenAI, ha espresso preoccupazioni riguardo allo sviluppo dell’intelligenza artificiale e ha sottolineato la mancanza di prove concrete di un miglioramento nella risposta di OpenAI agli utenti vulnerabili.

“Le persone meritano più della parola di un’azienda che dice che sta lavorando su questioni di sicurezza. In altre parole, dimostrarlo”, ha scritto Adler in un articolo per il Wall Street Journal.

Adler ha chiesto maggiore trasparenza e chiarimenti sulla politica di OpenAI riguardo alla generazione di contenuti erotici da parte di utenti adulti, data la preoccupazione che gli attaccamenti romantici possano alimentare crisi di salute mentale.

L’azienda è stata criticata in passato per aver rilasciato aggiornamenti, come GPT-4o, che hanno reso i chatbot eccessivamente servili, portando a reazioni negative e al successivo annullamento dell’aggiornamento da parte del CEO Sam Altman.

Dopo il lancio di GPT-5 con maggiori protezioni, alcuni utenti si sono lamentati della sua “freddezza”, portando OpenAI a ripristinare l’accesso al modello GPT-4o per gli abbonati paganti, nonostante le preoccupazioni relative alla salute mentale.

Secondo OpenAI, GPT-5 ha un tasso di conformità del 91% per gli scenari legati al suicidio, rispetto al 77% della versione precedente. Tuttavia, ciò implica che il modello precedente ha fallito quasi un quarto delle volte nel gestire conversazioni sull’autolesionismo.

Adler ha anche evidenziato un’analisi in cui il classificatore di sicurezza proprietario di OpenAI ha segnalato come problematiche oltre l’80% delle risposte di ChatGPT.

OpenAI sta affrontando una causa per omicidio colposo da parte dei genitori di un sedicenne che si è tolto la vita dopo aver discusso di suicidio su ChatGPT. La risposta dell’azienda è stata criticata, in particolare per la richiesta di un elenco dei partecipanti al memoriale del ragazzo.

Adler auspica un reporting regolare sulla salute mentale e un’indagine indipendente sulla crisi legata a GPT-4o.

OpenAI ha affermato di aver collaborato con 170 medici di salute mentale per migliorare la propria risposta, ma il suo comitato consultivo non è stato d’accordo nel 29% dei casi su ciò che costituisce una risposta “auspicabile”.

OpenAI riconosce che le sue protezioni diventano meno efficaci durante le conversazioni più lunghe, proprio quando gli utenti vulnerabili ne hanno più bisogno.

OpenAI rivela che oltre 1 milione di utenti ChatGPT discutono di suicidio ogni settimana


Leggi l’articolo completo

Entra nella community su Telegram

Vai al gruppo

Articoli correlati

Autore

×