OpenAI è in grado di capire, con i nuovi modelli per ChatGPT con capacità di ragionamento avanzato, dove una immagine è stata scattata con tutto quello che potrebbe comportare in termini di privacy.
L’aspetto interessante è che la località di uno scatto non viene individuata tenendo conto dei dati EXIF (metadati presenti nella foto) ma dal contesto, da segnali stradali, dalla vegetazione, dalle attività commerciali, dal clima, ecc.
La nuova funzionalità di ChatGPT è un esempio della capacità di lettura dei contenuti visivi, di ragionare tenendo conto dei contenuti visibili ed individuando dove è stata scattata una foto magari pubblicata su Instagram o Facebook. Questa funzionalità non è tutto nuova ma i modelli o3 e o4-mini sembra particolarmente abile nell’individuare una località partendo da indizi sulle foto, scovando città, punti di riferimento, ristoranti e bar tenendo conto di sottili indizi visivi.
Questa funzione può essere utile in tanti casi, ma rischia anche di essere usata male. Se qualcuno pubblica una foto innocente sui social — magari da casa sua o in un posto privato — un malintenzionato potrebbe usarla per scoprire dove si trova, anche se ha rimosso tutti i dati tecnici della foto.
The geoguessing power of o3 is a really good sample of its agentic abilities. Between its smart guessing and its ability to zoom into images, to do web searches, and read text, the results can be very freaky.
I stripped location info from the photo & prompted “geoguess this” pic.twitter.com/KaQiXHUvYL
— Ethan Mollick (@emollick) April 17, 2025
Wow, nailed it and not even a tree in sight. pic.twitter.com/bVcoe1fQ0Z
— swax (@swax) April 17, 2025
o3 is insane
I asked a friend of mine to give me a random photo
They gave me a random photo they took in a library
o3 knows it in 20 seconds and it's right pic.twitter.com/0K8dXiFKOY— Yumi (@izyuuumi) April 17, 2025
È qui che entra in gioco il rischio di doxing: quando qualcuno diffonde online informazioni private di una persona per metterla in difficoltà o in pericolo. Con questa funzione, anche una semplice foto può diventare una fonte di informazioni personali.
OpenAI, l’azienda dietro ChatGPT, dice di aver messo dei limiti: i modelli non dovrebbero dare risposte se la richiesta riguarda dati sensibili o privati, e non dovrebbero riconoscere persone nelle immagini.
Ma — e qui sta il problema — non è detto che questi filtri funzionino sempre. E quando si tratta di privacy, un piccolo errore può avere grandi conseguenze.
Tutte le notizie sull’Intelligenza Artificiale sono raccolte nella sezione dedicata di Macitynet











