OpenAI ha finalmente deciso di implementare meccanismi di controllo parentali in ChatGPT, decisione arrivata dopo che una famiglia ha fatto causa al laboratorio di ricerca sull’intelligenza artificiale sostenendo che l’azienda è responsabile della morte del figlio, un 16enne californiano che si è suicidato ad aprile, dopo aver confidato e discusso i suoi piani con il chatbot.
Solo dopo la tragedia i genitori del ragazzo hanno scoperto conversazioni tra il figlio e ChatGPT: a novembre dello scorso anno il ragazzo aveva cominciato a “chiacchierare” con il chatbot dei suoi problemi personali e quest’ultimo era diventato il suo confidente. A gennaio 2025 il ragazzo aveva chiesto consigli su come uccidersi e ChatGPT aveva risposto, includendo indicazioni sul materiale più adatto per fare un cappio.
Il New York Times ha recentemente messo in evidenzia l’accaduto, la storia di depressione del ragazzo, spiegando che il chatbot ha fornito varie risposte e persino suggerimenti su come evitare di attirare l’attenzione. ChatGPT prevede protezioni specifiche, ma l’adolescente era evidentemente riuscito a superarle con la scusa di informarsi per scrivere un racconto. “ChatGPT ha ucciso mio figlio”, ha dichiarato la madre del ragazzo”, e anche il padre è convinto che il ragazzo sarebbe ancora in vita se non avesse chiacchierato con il chatbot.
Controlli parentali e restrizioni
È la prima volta che OpenAI viene attaccata da una famiglia per accadimenti di questo tipo. La startup ha ora annunciato alcuni strumenti pensati ad hoc: in futuro, i genitori saranno in grado di collegare i loro account ChatGPT a quelli dei figli di 13 anni o più anni tramite un invito via e-mail. Potranno verificare le regole di comportamento previste dal modello (quelle attive di default), ma anche disattivare alcune funzioni, come la memoria o la cronologia delle conversazioni.
I genitori dovrebbero avere, tra le altre cose, la possibilità di ricevere notifiche quando ChatGPT rileva che un adolescente è in difficoltà. Il sistema mostra già degli avvisi agli utenti quando si accorge che passano troppo tempo a chattare con il modello. Per alcune discussioni “sensibili” è previsto il reindirizzamento a GPT-5-Thinking, modello che prevede regole di sicurezza avanzate anche per lunghe conversazioni.
“I lavori sono già in corso, ma vogliamo presentare in modo proattivo i nostri progetti nei prossimi 120 giorni in modo che non dobbiate aspettare i lanci per sapere dove stiamo andando”, dichiara OpenAI in un post sul blog aziendale. “Il lavoro continuerà ben oltre questo periodo, ma cercheremo di presentare il maggior numero possibile di miglioramenti già quest’anno”.
Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili a partire da questa pagina di Macitynet.












