Questo sito contiene link di affiliazione per cui può essere compensato

Home » Hi-Tech » Internet » Si consulta con ChatGPT per suicidarsi, OpenAi: “Noi non c’entriamo”

Si consulta con ChatGPT per suicidarsi, OpenAi: “Noi non c’entriamo”

OpenAI ha risposto in merito alla causa intentata dalla famiglia di Adam Raine, un adolescente statunitense morto suicida ad agosto. La famiglia punta il dito contro ChatGPT per avere aiutato il 16enne a pianificare la sua morte dopo mesi di conversazioni ma OpenAI respinge le accuse, affermando che quanto accaduto, culminato nel “tragico evento”, è il risultato di “un uso scorretto, non autorizzato, negligente, non prevedibile e improprio” del chatbot.

Dopo la morte del ragazzo si è tornato a parlare dei pericoli dell’intelligenza artificiale per la sicurezza degli adolescenti e OpenAI ha attivato misure di sicurezza più rigorose per ChatGPT, attivando non solo controlli parentali ma anche misure per cercare di comprendere automaticamente l’età dell’utente con il quale ha a che fare.

In un post sul blog dell’azienda, OpenAI scrive: “Affronteremo rispettosamente la causa, consapevoli della complessità e delle sfumature della situazione che coinvolge persone e vite reali… Giacché siamo imputati nel caso, siamo tenuti a rispondere alle specifiche e gravi accuse”. A quanto pare nella denuncia la famiglia cita parti delle chat (sigillate dal tribunale) che, ad ogni modo, secondo OpenAI, richiederanno l’interpretazione nel contesto.

Secondo quanto riporta Bloomberg, negli atti presentati da OpenAI in tribunale quest’ultima evidenzia risposte dirette al ragazzo con oltre 100 suggerimenti a chiamare le linee di assistenza al suicidio per chiedere aiuto, sottolineando che dalla lettura della cronologia delle chat emerge che la morte, sebbene devastante, non è stata causata da ChatGPT.

I chatbot tendono a dare sempre ragione agli utenti

Secondo la famiglia del ragazzo, la tragedia è il risultato di “deliberate scelte di progettazione” di OpenAI che avreebe consapevolmente presentato prematuramente il modello GPT-4o, ignorando avvertimenti interni secondo cui era pericolosamente servile e psicologicamente manipolativo. L’adolescente della California si è tolto la vita nella sua cameretta dopo mesi di isolamento e depressione durante i quali aveva iniziato a usare ChatGPT per svolgere i compiti scolastici e chiedere consigli sull’ansia e sulla propria salute mentale, un rapporto con il chatbot diventato sempre più importante e assurdo: aveva ad esempio chiesto consigli su come  fare un cappio, caricato foto della corda che voleva usare e foto delle prove del rossore intorno al collo, ottenendo suggerimenti su come coprirlo senza attirare l’attenzione.

ChatGPT aveva invitato Adam a rivolgersi a persone che potessero aiutarlo ma allo stesso tempo avrebbe risposto in modo troppo semplicistico alle domande dalle quali era evidente la sua volontà di togliersi la vita. La rivista Psychiatric Services ha nei mesi passati pubblicato uno studio evidenziando che molti chatbot forniscono risposte chiare e puntuali a domande su metodi di autolesionismo, mentre sembrano più restie a suggerire il supporto psicologico agli utenti, alla stregua di quanto denunciato dei genitori statunitensi del ragazzo che contestano  la morte causata da fatto illecito, l’assistenza al suicidio, l’omicidio colposo e la negligenza.

OpenAI scansiona le conversazioni con ChatGPT e riporta contenuti pericolosi alle forze dell’ordine - macitynet.it

Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili a partire da questa pagina di Macitynet.

Offerte Apple e Tecnologia

Le offerte dell'ultimo minuto le trovi nel nostro canale Telegram

Le migliori offerte BLACK FRIDAY con macitynet.it

Pubblicità
Pubblicità

Ultimi articoli