Uno psichiatra statunitense riferisce di avere già trattato 12 pazienti ricoverati in ospedale per psicosi indotta dall’AI, e altri 3 sono sotto controllo in un poliambulatorio.
A riferirlo è il Wall Street Journal citando lo psichiatra Keith Sakata dell’Università della California che parla di “psicosi da intelligenza artificiale” spiegando che alcune persone tendono a raccontare alle AI la loro verità come realtà, le chatbot le accettano come verità assolute (sono assecondanti) con ovvie conseguenze: isolamento, convinzioni paranoidi, perdita di contatto con la realtà.
Le IA assecondano quello che vogliamo e possono essere, secondo Sakata, complici di delusioni ricorrenti, peggiorando patologie psichiatriche. Le persone con psicosi tendono ad avere pensieri distorti e possono essere incentivate nel loro modo di pensare perché, come accennato, le AI tendono a dare ragione all’utente, a confermare quello che vuole sentirsi dire, e di conseguenza a peggiore ulteriormente determinate condizioni.
Sakata riferisce di avere notato dalla scorsa primavera decine di casi di persone che soffrono di psicosi deliranti dopo aver partecipato a lunghe conversazioni con chatbot come ChatGPT e altri. Ha fatto scalpore il caso di un 16enne statunitense che considerava ChatGPT “il suo migliore amico”, arrivato al suicidio dopo essersi sempre più isolato e a chiedere consigli sull’ansia e sulla propria salute mentale, ma casi simili sono ormai all’ordine del giorno e alcuni medici e accademici stanno lavorando per documentare e comprendere il fenomeno.
Isolamento, convinzioni paranoidi, perdita del contatto con la realtà
È difficile quantificare quante persone sviluppano psicosi con le AI. Secondo OpenAI la percentuale di utenti che settimanalmente evidenziano segnali di problematiche legate alla salute mentale è bassa: 0,07%; tenendo conto che gli utenti attivi settimanalmente sono circa 800 milioni, parliamo di 560.000 persone.
L’a.d. di OpenAI, Sam Altman, in un recente podcast ha riferito che alcune persone vedono nelle AI una compagnia, riconoscendo che in alcuni casi qualcosa potrebbe andare storto. Un portavoce dell’azienda ha riferito al Wall Street Journal che l’azienda continua a migliorare ChatGPT e sta addestrando l’AI per riconoscere e rispondere a segnali di disagi mentali o stress emotivo, smorzare alcune conversazioni e invitare le persone a rivolgersi ad esperti in carne e ossa.
OpenAI sta anche cercando un responsabile delle azioni di Preparazione, una persona che può aiutare ad anticipare potenziali pericoli dei modelli AI, prevedere potenziali abusi e migliorare le strategie di sicurezza dell’azienda.
Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili a partire da questa pagina di Macitynet.












