Questo sito contiene link di affiliazione per cui può essere compensato

Home » Hi-Tech » Internet » Il test dell’alce di Dropbox con l’intelligenza artificiale

Il test dell’alce di Dropbox con l’intelligenza artificiale

Se vi state ancora chiedendo se l’intelligenza artificiale applicata alla vita digitale quotidiana sia un argomento divisivo, non chiedetevelo più, lo è, e basta: la prova del nove arriva dalle polemiche in corso in rete in questi giorni relativamente alla mossa di Dropbox in campo AI e alla sua rapida retromarcia.

Dropbox nelle settimane scorse ha aggiunto alcune nuove funzioni di intelligenza artificiale AI attive “di default” per rendere più potente la ricerca interna ai documenti nei profili a pagamento (in quelli gratuiti non c’è neanche, la funzione di ricerca interna).

Il meccanismo funziona esponendo i dati alle istanze di intelligenza artificiale del partner tecnologico dell’azienda che si occupa di servire l’intelligenza artificiale che fa le ricerche, cioè OpenAI.

L’accusa a Dropbox

Negli ultimi giorni queste hanno suscitato una tempesta di critiche. La questione principale è che le persone temono che i loro file privati su Dropbox vengano passati a OpenAI per essere utilizzati come dati di addestramento per i loro modelli AI, affermazione che è stata strenuamente negata da Dropbox e che poi, anche andando a leggere le scritte in piccolo, è confermata in tutti gli aspetti legali possibili: l’opzione di aiutare il training delle AI di OpenAI in effetti non esiste assolutamente.

Eppure la premessa sembrava molto, molto interessante e logica: l’azienda per lavoro sincronizza i dati delle persone e quindi, con l’aiuto delle AI si può pensare un approccio completamente diverso ai propri dati. Dropbox infatti ha lavorato su alcune funzioni che potremmo definire molto sensate: il riassunto su richiesta, “chattare con i propri dati” tramite la Retrieval Augmented Generation.

Ed ha fatto anche un lavoro moderatamente buono nel comunicare il loro funzionamento, considerando che si tratta di novità assolute che ancora devono essere metabolizzate dal pubblico. O, per meglio dire, usando una parola molto cara agli antropologi e ai sociologi, devono essere ancora “addomesticate”.

Per adesso infatti il mainstream nell’uso delle AI è piuttosto banale: copiare e incollare i compiti in classe dal compagno cibernetico e poco altro. Ma, oltre ai deepfake, la verità è che avere a disposizione un servizio capace di analizzare i propri dati contenuti nel serbatoio principale delle nostre vite digitali (e Dropbox è uno degli attori primari nel settore, assieme a iCloud Drive, Google Drive e Microsoft) è potenzialmente una rivoluzione. Si potrebbe fare qualsiasi cosa.

Quando abbastanza non è abbastanza

Tuttavia, c’è modo e modo di farlo. E quando si tratta di privacy dei dati e intelligenza artificiale, un “lavoro moderatamente buono” è un voto insufficiente. Soprattutto se si detiene una quantità di dati privati come quella di Dropbox, che è sostanzialmente enorme. Per questo, in rete è suonato l’allarme. E sempre più utenti hanno cominciato ad agitarsi. Cosa sta facendo Dropbox con i nostri dati? Che fine stanno facendo?

Il punto è duplice: Dropbox in maniera aggressiva ha attivato di default la funzione e dall’altro ha detto più o meno chiaramente che i dati degli utenti vengono scansionati ma non vengono utilizzati per addestrare i modelli di intelligenza artificiale di OpenAI. Solo che la gente non ci crede. C’è una vera e propria mancanza di fiducia diffusa nei confronti delle AI.

E una crisi di fiducia nelle AI proprio adesso che stiamo cominciando a ragionare su come e cosa fare con questo tipo di tecnologia è molto significativa perché potrebbe portare a conseguenze molto importanti in futuro. Anche perché stiamo entrando molto rapidamente nel reame delle teorie del complotto, che si basano non sulle evidenze logiche ma su quelle basate sulla presenza o meno della fiducia.

Per la Cina iPhone non è sicuro, ma non ne vieta la vendita

 

La leggenda metropolitana del telefono che ci spia

Un esempio viene dal recente passato: l’idea che Facebook ci spii attraverso il microfono del nostro telefono e ci mostri annunci pubblicitari in base a ciò di cui parliamo. La conoscono tutti e molti l’hanno sepolta nella loro testa perché questa teoria circola da anni.

In tre parole? Non è vera. Da un punto di vista tecnico dovrebbe essere facile da confutare: i sistemi operativi dei cellulari non lo permettono, i ricercatori di privacy possono verificare se succede, e comunque fare riconoscimento vocale su scala globale è estremamente costoso dal punto di vista computazionale e quindi non economico. Facebook andrebbe in bancarotta se facesse una cosa del genere.

Dal punto di vista non tecnico bensì legale e comportamentale, è ancora più chiaro che non viene fatto: Facebook ha detto più volte che non lo fa e non ha intenzione di farlo in maniera legalmente vincolante. Tuttavia, la teoria cospirativa che venga fatto esiste ed è diventata talmente diffusa che è nella testa di tutti.

Nessuno pensa che, oltretutto, Facebook non ha bisogno di fare tutto questo: ci sono modi molto, molto più economici ed efficaci per indirizzare gli annunci all’utente piuttosto che spiare attraverso il suo microfono. Questi altri metodi funzionano incredibilmente bene da anni. E comunque l’azienda produce decine di migliaia di annunci all’anno per ciascun utente, il 99,99% dei quali completamente non correlato a quanto detto ad alta voce neanche indirettamente. Però, se si continuano a lanciare i dadi abbastanza a lungo, alla fine si verifica una coincidenza.

Il punto è che nessuna di queste argomentazioni ha importanza. Il danno reputazionale di Facebook è enorme. Certo, Facebook ha altre colpe, se proprio vogliamo analizzare il suo comportamento nel mondo dell’etica della pubblicità, ma certo non quella di aver messo in piedi un sistema di spionaggio illegale basato sulla violazione tecnologica dei dispositivi utilizzati dagli utenti. Ma non ha quella di spiare gli utenti attraverso il microfono dei telefoni.

Il test dell’alce di Dropbox con l’intelligenza artificiale
Foto di Annie Spratt – Unsplash

La crisi della fiducia nelle AI

La stessa cosa sta accadendo con l’intelligenza artificiale? Pare di sì. E c’è poco che aiuti a pensarla diversamente. Non importa quanti annunci, quante carte e documenti, quante entità “terze” (un Antitrust per l’AI?) vengano create. Il sospetto c’è e si alimenta di credenze non tecnologiche ma di tipo sociale.

Dropbox ne è vittima ed è un problema di reputazione e comunicazione, più che tecnologico. L’azienda, una volta nota solo perché il suo servizio era il migliore di tutti quelli presenti sul mercato dal punto di vista dell’efficienza e funzionamento, oggi è vittima dell’immagine che ha costruito di sé nel corso del tempo.

È vittima cioè del rancore accumulato da parte degli utenti a causa dei cambiamenti e rimodulazione dei prezzi, riduzione progressive delle funzioni non a pagamento, politiche sostanzialmente incoerenti nel corso del tempo. Insomma, quando il profilo diventa quello di un’azienda che non ha cura del cliente, pensare che possa vendere i suoi dati per l’addestramento di una AI è quasi automatico. Qualsiasi cosa poi voglia dire l’addestramento di una AI.

Apple domina tra le aziende che offrono computer con funzioni IA nell'hardware
Immagine: Steve Johnson – Unsplash

Coriandoli digitali nel carnevale delle AI

Perché nella vulgata giornalistica sembra quasi che i dati vengano analizzati e utilizzati per qualche scopo specifico (spionaggio? vouyerismo? furto di identità? copioni digitali?) quando in realtà sono frammentati e sminuzzati in maniera tale da renderli non comprensibili neanche dagli autori stessi.

Se i documenti delle persone sono come alberi nelle foreste amazzoniche di dati, questi vengono tritai e utilizzati come si usano i listelli di legno per fare il parquet: sminuzzati, tritati, pressati e incollati assieme in forma completamente diversa. È come impuntarsi per l’uso dei vecchi documenti sotto forma di coriandoli a carnevale.

Certo, la materia è sempre quella: l’alfabeto e la grammatica e la sintassi e la successione statistica delle parole. Ma la distanza tra i testi di origine, la loro numerosità e la loro irrilevanza è tale che in realtà è molto più pericoloso scrivere su un foglio di carta vicino alla finestra al quarto piano, con il rischio che un satellite fotografi quel che stiamo scrivendo e un operatore annoiato di qualche base militare lo legga per diletto e poi lo metta sui social.

Baidu avrà il suo ChatGPT a marzo
Image by Gerd Altmann from Pixabay

Le soluzioni delle aziende per l’AI

Il riferimento che facevamo prima all’idea di “addomesticare una tecnologia” è proprio qui che diventa rilevante. Non solo i tecnologhi stanno lavorando sulle tecnologie di AI per modellarle in finezza (sostanzialmente stanno lavorando sull’1% dei problemi, visto che il restate 99% è stato risolto da anni e oggi si tratta soprattutto di esecuzione) ma anche i dirigenti del marketing cercano modi (come quello di Dropbox) per creare dei prodotti che consentano di massimizzare il fatturato nel breve o nel medio tempo, come è caratteristico delle aziende fare.

E il pubblico contemporaneamente ha drizzato le orecchie e ci si sta muovendo dentro. Lanciare una nuova tecnologia è come lanciare un nuovo modello di automobile: lo puoi fare una volta sola, poi devi lavorare su quel che hai costruito. E se sbagli è un vero problema. Perché ci vuole tantissimo tempo per cambiare la percezione di un prodotto lanciato male. Accadde una volta, trent’anni fa, quando Mercedes lanciò la prima vettura di classe A.

Una compatta monovolume all’epoca assolutamente inedita che, in una prova indipendente fatta da giornalisti di una rivista di settore, fece la cosiddetta “prova dell’alce”. Cioè, a pieno carico (quindi con le sospensioni caricate al massimo) scartò improvvisamente sulla strada come se dovesse evitare un alce uscito dal bosco.

Lo scarto fu fatale, l’auto si impuntò e cappottò un paio di volte, i giornalisti si ammaccarono e la notizia finì su tutti i giornali. Ci volle quasi un decennio e un investimento miliardario da parte del gruppo Mercedes Benz per riuscire a “ripulire” l’immagine dell’auto che si cappottava se sterzavi troppo bruscamente.

WhatsApp salva tutti con chat bloccate e nascoste
Foto di Dayne Topkin su Unsplash

La privacy ulteriore di Stefano Rodotà

La stessa cosa sta accadendo all’intelligenza artificiale: sta subendo un effetto “prova dell’alce”? In un periodo di grande dibattito sulla privacy anche tra gli utenti e non solo tra aziende e istituzioni, l’arrivo a gamba tesa di un prodotto come l’intelligenza artificiale che si “nutre” dei dati degli utenti (e lo ha fatto in maniera spregiudicata, senza informare nessuno) ripropone una delle osservazioni tra le più pregnanti e visionarie di un grande studioso della privacy digitale scomparso da tempo, cioè Stefano Rodotà.

L’ex garante della privacy, parlamentare e professore universitario, sosteneva che la privacy fosse sostanziale per la vita di tutti perché garanzia di libertà e modo per costruire il sé basato sulla propria riservatezza.

Ebbene, Rodotà sottolineava che uno dei maggiori problemi relativi all’utilizzo dei dati autorizzati per la raccolta era dato dagli usi ulteirori, ancora non immaginati: un database di informazioni che oggi non ha un possibile utilizzo perché non esiste una tecnologia capace di sfruttarli, domani può diventare invece una miniera per chi trova il modo di analizzarli ed estrarne valore.

Questo, diceva Rodotà, cozza frontalmente con il tipo di consenso che viene richiesto alle persone quando rendono disponibili i propri dati e deve essere regolato. La mancanza di una cultura informatica e digitale diffuse, ma anche di una cultura giuridica sui diritti che riguardano la riservatezza, la privacy e il trattamento dei dati, che viene casomai semplificata e trasformata in materia di paranoia e teoria del complotto, sta creando i maggiori guasti alla nostra epoca, mettendosi di traverso al processo di addomesticamento dell’intelligenza artificiale. Le conseguenze, come dicevamo, resteranno a lungo, anche dopo che Dropbox sarà definitivamente uscita di scena.

Incogni: il servizio che protegge la vostra privacy e vi rimuove dal web, se volete

Il succo della questione

Certo, esistono anche altre soluzioni, come i modelli locali, addestrati e tenuti sul proprio computer (ammesso che questo sia più “sicuro”). Ma così si perde molta della potenza e della convenienza dei modelli più grandi nel cloud a causa di preoccupazioni sulla privacy che poi si rivelano errate.

Qual è il problema, quindi? L’intersezione tra intelligenza artificiale e privacy sta diventando una questione cruciale. Dobbiamo essere in grado di tenere conversazioni di altissima qualità al riguardo, con la massima trasparenza e comprensione di ciò che sta effettivamente accadendo.

Questo è già difficile, e lo è ancora di più se non crediamo a nulla di ciò che le aziende ci dicono. Queste aziende devono guadagnarsi la nostra fiducia, questo è chiaro. Come si può fare? Questo non lo sappiamo.

Per tutto ciò che riguarda l’Intelligenza artificiale rimandiamo alla sezione dedicata di macitynet.

Offerte Apple e Tecnologia

Le offerte dell'ultimo minuto le trovi nel nostro canale Telegram

Top offerte Apple su Amazon

Sono arrivati gli iPhone 15 e 15 Pro, primo contatto

Minimo iPhone 15 Pro da 256 GB, solo 1169

Su Amazon iPhone 15 Pro scende al minimo storico nella versione da 256GB. Ribasso a 1169 €, risparmio di 200 €

Ultimi articoli

Pubblicità