Un’intelligenza artificiale (IA) di Reddit ha suggerito l’uso di eroina per la gestione del dolore a un utente. L’episodio, verificatosi sulla piattaforma Reddit Answers, solleva interrogativi sull’implementazione dell’IA e sulla sua accuratezza nel fornire consigli. L’incidente è stato segnalato dopo che l’IA ha fornito il suggerimento a un utente in cerca di informazioni sulla gestione del dolore cronico.
Il suggerimento dell’IA è stato definito come la sintesi di un consiglio potenzialmente pericoloso, evidenziando un problema legato all’addestramento dei modelli di IA su dati non verificati. L’IA, attingendo a contenuti generati dagli utenti, ha elevato aneddoti personali al rango di consiglio medico, promuovendo anche l’uso di kratom, una sostanza i cui rischi sono noti, e persino di eroina.
La vicenda mette in luce come l’IA, in quanto motore di correlazione statistica, impari a replicare modelli presenti nei dati con cui è stata addestrata. Se l’addestramento avviene su un corpus come Reddit, che include disinformazione e consigli potenzialmente letali, l’IA impara a imitare tutto senza discernimento.
Il pericolo risiede anche nell’interazione tra l’IA e l’utente, in particolare per chi ha una bassa alfabetizzazione medica e potrebbe fidarsi intrinsecamente delle risposte fornite da un sistema automatizzato. L’IA di Reddit ha amplificato contenuti rischiosi, servendoli a un pubblico meno preparato a gestirli.
La risposta di Reddit, successiva alla diffusione della notizia, è stata l’implementazione di un aggiornamento per impedire all’IA di generare risposte su argomenti considerati “sensibili”. Questa soluzione è stata definita come un tentativo di contenere il danno senza affrontare il problema strutturale.
Viene sollevata la questione della responsabilità di chi progetta questi sistemi, sottolineando che l’IA non ha la capacità di verificare la veridicità, la sicurezza o l’etica di ciò che dice. Si propone di progettare l’IA con l’umiltà di riconoscere i limiti della propria conoscenza.
Il caso viene presentato come un monito per l’intera industria, evidenziando il rischio di costruire sistemi potenti senza dotarli del minimo filtro critico. Il futuro dell’IA dipenderà dalla capacità di infondere in essa principi di cautela, verifica e consapevolezza dei propri limiti.
L’episodio solleva preoccupazioni sulla fiducia mal riposta nella tecnologia e sulla necessità di un approccio più responsabile nello sviluppo e nell’implementazione dell’intelligenza artificiale. La vicenda evidenzia come l’addestramento su dati non curati possa portare a risultati pericolosi.
La reazione di Reddit è considerata una risposta superficiale al problema.

