L’Ai come un arma da tenere sotto controllo. Questo il concetto che sta alla base di un ammonimento che l’associazione nazionale dei procuratori generali statunitensi (NAAG) ha inoltrato con una lettera a 13 aziende del mondo IT, inclusa Apple, chiedendo un’azione decisa e misure di sicurezza contro i danni che le AI possono causare e hanno causato, “in particolare a soggetti vulnerabili” che non possono essere lasciati indifesi e senza vigilanza di fronte a questa pericolosa tecnologia.
Melle 12 pagine i procuratori generali di 42 stati espongono quelle che ritengono “serie preoccupazioni relative all’aumento di risposte adulatorie e delirante verso gli utenti, output provenienti da software di intelligenza generale generativa promossi e distribuiti dalle vostre aziende, così come le sempre più allarmanti notizie di interazioni con le AI da parte dei bambini, elementi che indicano la necessità di misure di salvaguardia e garanzie maggiori per i minori”.
Tali minacce, chiede la National Association of Attorneys General, richiedono interventi, dal momento che alcuni dei comportamenti delle AI sono stati associati a violenze e danni nella vita reale, inclusi omicidi e suicidi, violenza domestica, casi di avvelenamento e ospedalizzazione per psicosi.
Nella lettera (qui il testo completo in PDF) spedito a Apple, Anthropic, Chai AI, Character Technologies (Character.AI), Google, Luka Inc. (Replika), Meta, Microsoft, Nomi AI, OpenAI, Perplexity AI, Replika e xAI, si sottolinea che alcune aziende potrebbero avere già violato leggi statali, incluso lo statuto di tutela del consumatore, l’obbligo di avvisare gli utenti di possibili rischi, norme sulla privacy online dei bambini e in alcuni casi, persino il codice penale.
Il caso Adam Raine e altri ancora
Quest’anno ha suscitato clamore il caso del suicidio del 16enne Adam Raine dopo chiacchierate con ChatGPT: da diversi mesi la sua vita sociale, sportiva e scolastica aveva preso una brutta piega e aveva iniziato a chiedere consigli sull’ansia e sulla propria salute mentale al chatbot, un rapporto sempre più intimo tanto che a un certo punto il ragazzo ha iniziato a chiedere consigli su come fare il cappio con cui suicidarsi, modalità di interazioni con il “confidente” che hanno probabilmente avuto gravi implicazioni nella sua morte. Oltre al caso di Adam Raine sono numerosi altri i casi nei quali le AI hanno ignorato o sottovalutato i rischi; queste sembrano privilegiare il coinvolgimento degli utenti rispetto alla sicurezza, con ovvii effetti nocivi sugli utenti più deboli.
A ottobre di quest’anno OpenAI ha a introdotto un “Consiglio di esperti sul benessere e l’AI” con lo scopo di migliorare i test di sicurezza del suo chatbot; la speranza è che i vari strumenti AI, affrontino questi problemi riconoscendo determinati comportamenti e sintomi, attivando di conseguenza azioni responsabili.
Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili a partire da questa pagina di Macitynet.

![iGuide per i regali di Natale - macitynet..ti CTA Natale iGuida [per Settimio] - macitynet.it](https://www.macitynet.it/wp-content/uploads/2025/12/regali-di-natale-consigli-di-macitynet.jpg)









