Questo sito contiene link di affiliazione per cui può essere compensato

Home » Hi-Tech » Internet » Apple criticata per scarse misure CSAM contro la pedopornografia

Apple criticata per scarse misure CSAM contro la pedopornografia

Apple e Microsoft hanno fornito dettagli sui loro metodi CSAM, dalle iniziali di Child sexual abuse material, per rilevare o prevenire la distribuzione di materiali sugli abusi sessuali su minori e pedopornografia, ma secondo un regolatore australiano gli sforzi delle due multinazionali non sono sufficienti.

Il commissario australiano e-Safety ha chiesto che le principali aziende tecnologiche come Apple, Facebook, Snapchat, Microsoft e altre dettaglino i loro metodi CSAM per prevenire l’abuso e lo sfruttamento dei minori sulle loro piattaforme. La richiesta è stata inoltrata il 30 agosto scorso e le aziende hanno avuto 29 giorni per conformarsi all’ordine, per evitare sanzioni e multe.

Apple e Microsoft sono le prime aziende a ricevere un controllo sulla loro risposta e, secondo Reuters, il regolatore australiano ha trovato i loro sforzi insufficienti. Le due società non scansionano in modo proattivo i file degli utenti su iCloud o OneDrive per contenuti CSAM, né esistono rilevamenti algoritmici per FaceTime o Skype.

Apple criticata per scarse misure CSAM contro la pedopornografia

Il commissario Julie Inman Grant ha definito le risposte delle aziende “allarmanti”. Ha dichiarato che risulta esserci “Un uso chiaramente inadeguato e incoerente della tecnologia ampiamente disponibile per rilevare il materiale ed eliminare gli abusi sui minori”. Apple ha recentemente annunciato di aver abbandonato i suoi piani per scansionare le foto caricate su iCloud per i contenuti CSAM.

Questo metodo sarebbe stato sempre meno efficace poiché gli utenti hanno accesso all’archiviazione e ai backup di foto crittografati completamente end-to-end. Invece di cercare contenuti esistenti archiviati o distribuiti, Apple ha deciso di adottare un approccio diverso che si evolverà nel tempo. Attualmente, i dispositivi utilizzati dai bambini possono essere configurati dai genitori per avvisare il bambino se viene rilevata nudità nelle foto inviate tramite iMessage.

Apple prevede di espandere questa funzionalità per rilevare il materiale nei video, quindi spostare il sistema di rilevamento e avviso anche su FaceTime e altre app del colosso di Cupertino. Alla fine Apple spera di creare un’API che permetta agli sviluppatori di utilizzare il sistema di rilevamento CSAM contro la pedopornografia anche nelle loro app.

L’abbandono del rilevamento CSAM in iCloud è stato celebrato dai sostenitori della privacy. Allo stesso tempo, è stato condannato dai gruppi di sicurezza dei bambini, dalle forze dell’ordine e dai funzionari governativi.

Offerte Apple e Tecnologia

Le offerte dell'ultimo minuto le trovi nel nostro canale Telegram

Top offerte Apple su Amazon

Confronto iPhone 15 contro iPhone 14, quale scegliere

Su Amazon ancora ribassi per iPhone 15, ora al minimo storico con prezzo da 769€

Si allarga lo sconto su iPhone 15. Sono in promozione sia i modelli da 128 Gb che quelli di 256 Gb. Risparmio record fino al 21% e prezzi di 210 € sotto quelli consigliati da Apple.

Ultimi articoli

Pubblicità