Questo sito contiene link di affiliazione per cui può essere compensato

Home » Hi-Tech » Internet » Attacco stupido a ChatGPT svela numeri di telefono e indirizzi email

Attacco stupido a ChatGPT svela numeri di telefono e indirizzi email

Un team di ricercatori è riuscito a far sì che ChatGPT rivelasse loro alcuni dei dati su cui è stato addestrato, inclusi numeri di telefono e indirizzi email di utenti ignari, il tutto con un semplicissimo trucchetto: chiedendo al chatbot di ripetere parole casuali all’infinito.

In risposta a questo comando pare infatti che il chatbot  per antonomasia ChaGPT abbia cominciato a sfornare informazioni private delle persone, inclusi indirizzi mail e numeri di telefono, in mezzo a documenti, articoli di notizie, pagine Wikipedia e via dicendo.

Ad esempio quando hanno chiesto a ChatGPT di ripetere all’infinito la parola “poem” (poesia), inizialmente il chatbot ha eseguito la richiesta, ma poi incredibilmente ha finito per rivelare un indirizzo email e un numero di cellulare di un vero amministratore delegato. E quando invece hanno chiesto di ripetere la parola “company” (azienda), alla fine ChatGPT chatbot ha restituito email e numero di telefono di uno studio legale degli Stati Uniti.

Con questo sistema, quasi 1 test su 5 (il 16,9%) è andato a buon fine, generando risultati di questo tipo: in qualche altro caso ChatGPT ha persino rivelato indirizzi Bitcoin, numeri di fax, nomi, compleanni, informazioni prese dai social media, contenuti espliciti da siti di incontri e frammenti di documenti di ricerca normalmente protetti da copyright.

Perché ChatGPT svela numeri di telefono e dati sensibili

Gli studiosi che si sono applicati in questa ricerca hanno impieghi presso il Google DeepMind, l’Università di Washington, la Cornell di New York, la Carnegie Mellon della Pennsylvania, il Berkley e l’ETH di Zurigo.

Persone quindi con un certo livello di preparazione, rimaste sconvolte dal fatto che l’attacco abbia funzionato davvero; «Per noi è assurdo: una falla di questo tipo avrebbe dovuto essere trovata prima» scrivono nel documento che presenta la loro ricerca.

Speriamo che questi risultati fungano da stimolo per le aziende che operano nel settore dell’intelligenza artificiale: sono necessari test interni ed esterni – scrivono – prima di rilasciare grandi modelli linguistici come questi che operano sia nel mondo dei chatbot che in quello dei generatori di immagini.

Si sapeva già che una parte dei dati con cui vengono addestrate le AI è presa dalla Internet pubblica senza il consenso dei legittimi proprietari, ma fino ad ora non era chiaro quali fossero questi dati.

Applicazione iOS per ChatGPT, ma per ora noi non possiamo usarla
Foto di ilgmyzin su Unsplash

Adesso sappiamo che OpenAI, per il suo ChatGPT, ha usato anche mail e numeri di telefono di persone comuni, colpevoli semplicemente di aver pubblicato queste informazioni online.

Come fanno notare i ricercatori, il punto è che per questa loro ricerca hanno speso all’incirca 200 dollari, generando 10.000 informazioni personali come quelle sopracitate. Un malintenzionato – dicono – potrebbe ottenere molto di più investendo cifre più alte, tanto più che l’attacco in sé «è piuttosto stupido»: replicarlo è un vero e proprio gioco da ragazzi.

Dopo il ban a ChatGPT pronta la task force per controllarlo

Tutto risolto? Ni

Secondo i ricercatori OpenAI avrebbe corretto la falla il 30 agosto, tuttavia c’è chi di recente ha provato a chiedere al chatbot di ripetere all’infinito la parola “reply” (rispondi), ottenendo in risposta il nome e l’ID Skype di un utente a caso.

Tutto quel che dovete sapere sulle Intelligenze Artificiali è raccontato in questa sezione del nostro sito.

Offerte Apple e Tecnologia

Le offerte dell'ultimo minuto le trovi nel nostro canale Telegram

Top offerte Apple su Amazon

Sono arrivati gli iPhone 15 e 15 Pro, primo contatto

Minimo storico iPhone 15 Pro da 128 GB, solo 1029

Su Amazon iPhone 15 Pro scende al minimo storico nella versione da 128GB. Ribasso a 1029 €, risparmio di 210 €

Ultimi articoli

Pubblicità