In un lungo post sul blog aziendale, OpenAI riferisce di problematiche collegate alla salute psichica, legate alle conversazioni degli utenti con il suo chatbot GPT, questioni che più volte si è ritrovata a dover gestire: ricordiamo che è solo di pochi giorni addietro la notizia di un uomo che ha ucciso la madre e si è suicidato dopo aver validato e intensificato le sue convinzioni paranoidi a seguito di interazioni con ChatGPT.
In sintesi OpenAI ammette di scandagliare le conversazioni tra GPT e le persone e, che, quando lo ritiene necessario, riporta alle forze dell’ordine interazioni che esaminatori umani valutano come minacciose o pericolose per l’utente o per altri.
“Quando rileviamo utenti che pianificano di fare male agli altri, indirizziamo le loro conversazioni in pipeline specializzate dove sono esaminate da un piccolo team addestrato con le nostre policy di utilizzo, autorizzato ad agire in vari modi, compresa la possibilità di bannare l’account”, scrive OpenAI. E ancora. “Se i revisori umani determinano che un caso comporti una minaccia imminente, con possibilità di gravi danni fisici ad altri, possiamo deferirlo alle forze dell’ordine”.
Scelte di OpenAI in contraddizione con quanto dichiarato finora
Quando indicato nel blog di OpenAI solleva diversi interrogativi. Non è chiaro ad esempio, quali siano i toni che fanno scattare questa sorta di allarme. In passato il laboratorio specializzato in ricerca sull’intelligenza artificiale aveva riferito di meccanismi automatici per monitorare, valutare, prevedere e proteggere gli utenti dai rischi catastrofici.
Non è chiaro inoltre come OpenAI riesca a localizzare l’utente in modo preciso per fornire questi dettagli alle forze dell’ordine, o come protegge eventuali utenti che si spacciano per altri, fingendo di essere malviventi e costringendo le forze dell’ordine a intervenire nelle case dei malcapitati.

Le precisazioni nel blog sono ad ogni modo in contraddizione con quanto in precedenza dichiarato dal CEO Sam Altman, cha aveva invocato la privacy per le conversazioni sensibili con ChatGPT, spiegando che molti utenti, specialmente giovani, utilizzino l’AI come terapista o “life coach,” condividendo dettagli personali senza le garanzie di riservatezza tipiche del rapporto medico – paziente.
Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili a partire da questa pagina di Macitynet.












