Categorie
European Pirate Party Privacy Sorveglianza

Chatcontrol: : la (pessima) proposta UE di scansione materiale sullo sfruttamento sessuale dei minori

La Commissione europea propone di obbligare i fornitori a cercare automaticamente contenuti sospetti in tutte le chat private, i messaggi e le e-mail, in modo generale e indiscriminato. Lo scopo dichiarato: Perseguire il materiale di sfruttamento sessuale di minori (CSEM). Il risultato: sorveglianza di massa mediante sorveglianza in tempo reale completamente automatizzata di messaggistica e chat e fine della privacy della corrispondenza digitale.

La fine della privacy della corrispondenza digitale

La Commissione europea propone di obbligare i fornitori a cercare automaticamente contenuti sospetti in tutte le chat private, i messaggi e le e-mail, in modo generale e indiscriminato. Lo scopo dichiarato: Perseguire il materiale di sfruttamento sessuale di minori (CSEM). Il risultato: sorveglianza di massa mediante sorveglianza in tempo reale completamente automatizzata di messaggistica e chat e fine della privacy della corrispondenza digitale.

Altri aspetti della proposta includono il blocco della rete inefficace, lo screening dell’archiviazione cloud personale comprese le foto private, la verifica obbligatoria dell’età con conseguente fine della comunicazione anonima, la censura dell’appstore e l’esclusione dei minori dal mondo digitale.

Controllo chat 2.0 su ogni Smartphone

L’11 maggio 2022 la Commissione europea ha presentato una proposta che renderebbe obbligatoria la ricerca del controllo della chat per tutti i provider di posta elettronica e di messaggistica e si applicherebbe anche ai servizi di comunicazione crittografati end-to-end finora sicuri. Prima della proposta, una consultazione pubblica aveva rivelato che la maggioranza degli intervistati, sia cittadini che parti interessate, si opponeva all’imposizione dell’obbligo di utilizzare il controllo della chat. Oltre l’80% degli intervistati si è opposto alla sua applicazione alle comunicazioni crittografate end-to-end.

Attualmente è in vigore un regolamento che consente ai fornitori di scansionare volontariamente le comunicazioni (il cosiddetto “Chat Control 1.0”). Finora solo alcuni servizi di comunicazione statunitensi non crittografati come GMail, Facebook/Instagram Messenger, Skype, Snapchat, e-mail iCloud e X-Box applicano volontariamente il controllo della chat (maggiori dettagli qui ). A seguito della proposta obbligatoria di Chat Control 2.0, la Commissione prevede un aumento di 3,5 volte dei rapporti di scansione (del 354% ).

La proposta di Chat Control 2.0

Questo è ciò che l’attuale proposta comporta in realtà:

Proposta di controllo della chat dell’UE

Sono previsti il ​​controllo della chat, il blocco della rete, la verifica dell’età obbligatoria per messaggi e chat, la verifica dell’età per gli app store e l’esclusione dei minori dall’installazione di molte app

Tutti i servizi normalmente forniti dietro compenso (inclusi i servizi finanziati dalla pubblicità) rientrano nell’ambito, senza alcuna soglia in termini di dimensioni, numero di utenti, ecc.

Solo i servizi non commerciali che non sono finanziati dalla pubblicità, come molti software open source, sono esclusi

I servizi di comunicazione interessati includono telefonia, e-mail, messenger, chat (anche nell’ambito di giochi, su parti di giochi, su portali di incontri, ecc.), videoconferenza

Testi, immagini, video e discorsi (ad es. riunioni video, messaggi vocali, telefonate) dovrebbero essere scansionati

I servizi di messaggistica crittografati end-to-end non sono esclusi dall’ambito di applicazione

I fornitori di servizi di comunicazione crittografati end-to-end dovranno scansionare i messaggi su ogni smartphone (scansione lato client) e, in caso di hit, denunciare il messaggio alla polizia

I servizi di hosting interessati includono web hosting, social media, servizi di streaming video, file hosting e servizi cloud

Anche l’archiviazione personale che non viene condivisa, come iCloud di Apple, sarà soggetta al controllo della chat

I servizi che possono essere utilizzati per materiale illegale o per l’adescamento dei bambini sono obbligati a cercare il contenuto delle comunicazioni personali e dei dati memorizzati (controllo della chat) senza sospetto e indiscriminatamente

Poiché presumibilmente ogni servizio viene utilizzato anche per scopi illegali, tutti i servizi saranno obbligati a implementare il controllo della chat

L’autorità nel paese di stabilimento del fornitore è obbligata a ordinare l’implementazione del controllo della chat

Non c’è discrezionalità su quando e in che misura viene ordinato il controllo della chat

Il controllo della chat prevede la ricerca automatica di immagini e video CSEM noti, i messaggi/file sospetti verranno segnalati alla polizia

Secondo la Polizia Federale Svizzera, 
l’80% delle denunce che ricevono (di solito basate sul metodo dell’hashing) sono penalmente irrilevanti. 
Allo stesso modo in Irlanda solo 
il 20% delle segnalazioni NCMEC ricevute nel 2020 è stato confermato come vero e proprio “materiale pedopornografico”.

Il controllo della chat prevede anche ricerche automatiche di immagini e video CSEM sconosciuti, i messaggi/file sospetti verranno segnalati alla polizia

La ricerca automatica di rappresentazioni di abusi sconosciuti è una procedura sperimentale che utilizza l’apprendimento automatico (“intelligenza artificiale”). 
Gli algoritmi non sono accessibili al pubblico e alla comunità scientifica, né la bozza contiene alcun obbligo di divulgazione. 
Il tasso di errore non è noto e non è limitato dal progetto di regolamento. 
Presumibilmente, queste tecnologie si traducono in enormi quantità di falsi rapporti. 
Il progetto di legge consente ai fornitori di trasmettere alla polizia i rapporti sui risultati automatizzati senza che gli esseri umani li controllino.

Il controllo della chat prevede ricerche automatiche per possibili adescamenti di bambini, i messaggi sospetti verranno segnalati alla polizia

La ricerca automatica della potenziale cura dei bambini è una procedura sperimentale che utilizza l’apprendimento automatico (“intelligenza artificiale”). 
Gli algoritmi non sono disponibili al pubblico e alla comunità scientifica, né la bozza contiene un obbligo di divulgazione. 
Il tasso di errore è sconosciuto e non è limitato dal progetto di regolamento, presumibilmente queste tecnologie provocano enormi quantità di segnalazioni false.

I servizi di comunicazione che possono essere utilizzati in modo improprio per la toelettatura dei bambini (quindi tutti) devono verificare l’età dei loro utenti

In pratica, la verifica dell’età implica l’identificazione completa dell’utente, il che significa che la comunicazione anonima via e-mail, messenger, ecc. sarà effettivamente vietata. 
Gli informatori, i difensori dei diritti umani e i gruppi emarginati fanno affidamento sulla protezione dell’anonimato.

Gli app store devono verificare l’età dei propri utenti e impedire ai bambini/ragazzi di installare app che possono essere utilizzate in modo improprio a scopo di adescamento

Tutti i servizi di comunicazione come app di messaggistica, app di incontri o giochi possono essere utilizzati in modo improprio per la cura dei bambini (secondo i 
sondaggi ) e verrebbero bloccati per l’uso da parte di bambini/ragazzi.

I fornitori di accesso a Internet possono essere obbligati a bloccare l’accesso a immagini e video vietati e non rimovibili ospitati al di fuori dell’UE mediante il blocco della rete (blocco degli URL)

Il blocco della rete è tecnicamente inefficace e facile da aggirare e comporta la costruzione di un’infrastruttura tecnica di censura

Analisi del progetto di relazione del relatore Javier Zarzalejos (PPE) (19 aprile 2023)

• Controllo chat: la ricerca indiscriminata obbligatoria di corrispondenza privata e dati di cittadini ignari è ancora in vigore. L’obbligo di “limitare l’ordine di rilevamento a una parte o componente identificabile di un servizio” come canali o gruppi specifici (AM 128) va a buon fine direzione ma non assicura che le ricerche siano mirate/limitate a persone specifiche presumibilmente collegate al CSEM, come richiesto per evitare l’annullamento dei provvedimenti di accertamento da parte della Corte di giustizia. I risultati del servizio di ricerca del Parlamento europeo non trovano ancora riscontro.

• Diversamente dalla Commissione, il relatore non vuole che gli utenti siano informati che la loro corrispondenza è stata (falsamente) segnalata (emendamento 138).

• “Rilevamento volontario”/Controllo chat : proposta di nuovo potere per i fornitori di ricercare corrispondenza privata e dati di cittadini ignari di propria iniziativa, anche laddove non siano soddisfatte le condizioni di un ordine di rilevamento (emendamento 99). Anche in questo caso non mirato/limitato a persone specifiche presumibilmente collegate al CSEM, come richiesto per evitare l’annullamento da parte della Corte di giustizia.

• Crittografia end-to-end : l’indebolimento della crittografia è escluso (AM 106), sebbene la formulazione non sia ancora sufficiente per escludere con certezza la scansione lato client obbligatoria (alcuni sostengono che la scansione lato client non interferirebbe con il processo di crittografia in quanto tale).

• Controllo dei metadati: proposta di un nuovo potere per la conservazione e l’analisi automatizzate dei metadati per modelli di comunicazione presumibilmente sospetti da parte dei fornitori (emendamento 106). Tale tecnologia è di nuovo closed-source e non valutata in modo indipendente, probabilmente inaffidabile con innumerevoli falsi positivi. La Commissione avverte che “i fornitori di servizi non considerano i metadati uno strumento efficace per rilevare il materiale pedopornografico” e “i metadati di solito non sono sufficienti per avviare
indagini” (p. 29). La maggior parte delle disposizioni proposte, ancora una volta, non garantisce che il trattamento sia mirato/limitato a persone specifiche presumibilmente collegate al CSEM, come richiesto dalla sentenza La Quadrature della Corte di giustizia (par. 172 pp.).

• Ordini di blocco dell’accesso/cancellazione dai motori di ricerca : il blocco dell’accesso inefficace al CSEM è ancora attivo. Proposta di un nuovo potere per rimuovere il CSEM dai motori di ricerca e dall'”intelligenza artificiale”. Entrambi sono inefficaci perché il materiale non viene cancellato alla fonte.

• Censura delle app per i bambini : è ancora in vigore l’obbligo per gli app store di impedire ai minori di installare app di comunicazione come Whatsapp, giochi o chat. La bozza di relazione propone di estendere questa censura delle app (AM 101 pp.).
• Divieto di comunicazioni anonime : l’obbligo sui servizi di comunicazione di verificare l’età degli utenti è ancora valido, con sistemi di verifica che escludono di fatto l’uso anonimo. Questa sarebbe la fine delle e-mail anonime o degli account di messaggistica di cui hanno bisogno gli informatori, gli attivisti politici ecc.

• Promettente: Proposta di istituire un Forum consultivo delle vittime (EM 273)
• Promettente: I servizi possono garantire un “elevato livello di privacy, sicurezza e protezione fin dalla progettazione e per impostazione predefinita ” (EM 79)

Altri video su Chatcontrol sono disponibili in questa playlist

I negoziati: la cronologia

2020: la Commissione europea propone una legislazione “temporanea” che consente il controllo della chat

La legislazione “provvisoria” proposta consente la ricerca di tutte le chat private, i messaggi e le e-mail per raffigurazioni illegali di minori e tentativi di avvio di contatti con minori. Ciò consente ai fornitori di Facebook Messenger, Gmail e altri di scansionare ogni messaggio alla ricerca di testo e immagini sospette. Ciò avviene in un processo completamente automatizzato, in parte utilizzando “intelligenza artificiale” soggetta a errori. Se un algoritmo considera un messaggio sospetto, il suo contenuto e i metadati vengono divulgati (di solito automaticamente e senza verifica umana) a un’organizzazione privata con sede negli Stati Uniti e da lì alle autorità di polizia nazionali di tutto il mondo. Gli utenti segnalati non vengono avvisati.

6 luglio 2021: il Parlamento europeo ha adottato la legislazione che consente il controllo della chat .

Il Parlamento europeo ha votato a favore della deroga ePrivacy, che consente il controllo volontario della chat per i provider di messaggistica e di posta elettronica. Di conseguenza, alcuni fornitori statunitensi di servizi come Gmail e Outlook.com stanno già eseguendo tali controlli automatici di messaggistica e chat.

9 maggio 2022: il membro del Parlamento europeo Patrick Breyer ha intentato una causa contro la società statunitense Meta.

Secondo la giurisprudenza della Corte di giustizia europea, l’analisi automatizzata permanente e completa delle comunicazioni private viola i diritti fondamentali ed è vietata (paragrafo 177). L’ex giudice della Corte di giustizia europea Prof. Dr. Ninon Colneric ha ampiamente analizzato i piani e conclude in una valutazione legale che i piani legislativi dell’UE sul controllo della chat non sono in linea con la giurisprudenza della Corte di giustizia europea e violano il diritti fondamentali di tutti i cittadini dell’UE al rispetto della vita privata, alla protezione dei dati e alla libertà di espressione. Su questa base è stata intentata la causa.

11 maggio 2022: la Commissione ha presentato una proposta per rendere obbligatorio il controllo della chat per i fornitori di servizi.

L’11 maggio 2022 la Commissione UE ha presentato una seconda proposta legislativa, in cui la Commissione UE obbliga tutti i fornitori di servizi di chat, messaggistica ed e-mail a implementare questa tecnologia di sorveglianza di massa in assenza di qualsiasi sospetto. Tuttavia, un sondaggio rappresentativo condotto nel marzo 2021 mostra chiaramente che la maggioranza degli europei si oppone all’uso del controllo della chat  ( Risultati dettagliati del sondaggio qui) .

8 maggio, 22 giugno, 5 luglio, 25 luglio , 6 settembre, 22 settembre, 5 ottobre, 19 ottobre, 3 novembre, 24 novembre 2022:La proposta è stata discussa nell’ambito dei lavori del Council’s Law Enforcement Working Party

I negoziatori

Gli attori coinvolti nel Parlamento europeo:Relatoree relatori ombra

PPES&DRinnovareVerdi/ALELa sinistraECRID
LIBE (protagonista)Javier ZarzalejosPaolo TangHilde VautmannPatrick BreyerCornelia ErnstVincenzo SofoAnnalisa Tardino
IMCOMarion WalsmannAlex Aguis SalibaCaterina RinzemaMarcello KolajaKateřina KonečnáAdam BilanJean-Lin Lacapelle
CULTOAsim AdemovMarcos Ros SempreLucia Duris NicolsonovaMarcello KolojaNiyazi KizilyürekElzbieta KrukCaterina Griset
FEMMEleni StavrouHelene FritzonKaren MelchiorrePierrette Herzberger-FofanaSandra PereraJadwiga Wiśniewska
BILANCIONicolas HerbstNils UšakovsNils TorvaldsAlexandra OcheSilvia ModigBogdan RzoncaJoachim Kuhs

In che modo questo ti influenza?

Scansione del controllo della messaggistica e della chat:

  • Tutte le tue conversazioni in chat e le e-mail verranno automaticamente ricercate per contenuti sospetti. Nulla rimane confidenziale o segreto. Non è richiesto un ordine del tribunale o un sospetto iniziale per la ricerca dei tuoi messaggi. Si verifica sempre e automaticamente.
  • Se un algoritmo classifica il contenuto di un messaggio come sospetto, le tue foto private o intime potrebbero essere visualizzate da personale e appaltatori di società internazionali e autorità di polizia. Anche le tue foto private di nudo possono essere guardate da persone a te sconosciute, nelle cui mani le tue foto non sono al sicuro.
  • I flirt e il sexting possono essere letti dal personale e dagli appaltatori di società internazionali e autorità di polizia, perché i filtri di riconoscimento del testo alla ricerca di “adescamento dei bambini” spesso contrassegnano erroneamente le chat intime.
  • Puoi essere falsamente denunciato e indagato per presunta diffusione di materiale di sfruttamento sessuale di minori. È noto, ad esempio, che gli algoritmi di controllo della messaggistica e della chat contrassegnano foto di vacanze completamente legali di bambini su una spiaggia. Secondo le autorità di polizia federale svizzere, l’80% di tutte le denunce generate dalla macchina risultano prive di fondamento. Allo stesso modo in Irlanda solo il 20% delle segnalazioni NCMEC ricevute nel 2020 è stato confermato come vero e proprio “materiale pedopornografico”. Quasi il 40% di tutte le procedure di indagine penale avviate in Germania per “pornografia infantile” prendono di mira i minori.
  • Nel tuo prossimo viaggio all’estero, puoi aspettarti grossi problemi. I rapporti generati dalla macchina sulle tue comunicazioni potrebbero essere stati trasmessi ad altri paesi, come gli Stati Uniti, dove non esiste la privacy dei dati, con risultati incalcolabili.
  • I servizi di intelligence e gli hacker potrebbero essere in grado di spiare le tue chat ed e-mail private. La porta sarà aperta a chiunque disponga dei mezzi tecnici per leggere i tuoi messaggi se la crittografia sicura viene rimossa per poter filtrare i messaggi.
  • Questo è solo l’inizio . Una volta stabilita la tecnologia per il controllo della messaggistica e della chat, diventa molto facile utilizzarli per altri scopi. E chi garantisce che queste macchine di incriminazione non verranno utilizzate in futuro sui nostri smartphone e laptop?

Verifica dell’età:

  • Non è più possibile impostare e-mail anonime o account di messaggistica o chattare in modo anonimo senza dover presentare un documento d’identità o il proprio volto, rendendosi identificabili e rischiando fughe di dati. Ciò inibisce, ad esempio, le chat sensibili relative alla sessualità, le comunicazioni anonime dei media con fonti (ad es. informatori) e l’attività politica.
  • Se hai meno di 18 anni, non potrai più installare le seguenti app dall’app store (motivo addotto: rischio di toelettatura): app di messaggistica come Whatsapp, Snapchat, Telegram o Twitter, app di social media come Instagram, TikTok o Facebook, giochi come FIFA, Minecraft, GTA, Call of Duty, Roblox, app di appuntamenti, app di videoconferenza come Zoom, Skype, FaceTime.
  • Se non utilizzi un appstore, il rispetto dell’età minima del provider verrà comunque verificato e applicato. Se hai meno di 16 anni non puoi più utilizzare Whatsapp a causa dei requisiti di verifica dell’età proposti; lo stesso vale per le funzioni online del gioco FIFA 23. Se hai meno di 13 anni non potrai più utilizzare TikTok, Snapchat o Instagram.

Fare clic qui per ulteriori argomenti contro la messaggistica e il controllo della chat

Fai clic qui per scoprire cosa puoi fare per interrompere il controllo della messaggistica e della chat


Cosa puoi fare

Teme che questa legge provochi un danno enorme ai diritti fondamentali ed è l’approccio sbagliato?

Firma la petizione “ I bambini meritano un internet sicuro e protetto ” e condividila
Ciò che è importante ora è aumentare la pressione sui negoziatori:
1) Contatta il tuo governo che sta negoziando in Consiglio. Contatta la rappresentanza permanente del tuo governo o il tuo ministero dell’interno.
2) Entra in contatto con i tuoi Membri del Parlamento Europeo! I cosiddetti relatori ombra guidano i negoziati. Qui puoi trovare i recapiti:
Javier Zarzalejos– relatore per il gruppo PPE
Paul Tang – relatore ombra per il gruppo S&D
Patrick Breyer – relatore ombra per il gruppo Verts/ALE
Hilde Vautmans – relatore ombra per il gruppo Renew
Annalisa Tardino – relatore ombra per il gruppo ID
Vincenzo Sofo – relatore ombra per il gruppo ECR
Cornelia Ernst – relatrice ombra per il gruppo di sinistra
Esprimi gentilmente le tue preoccupazioni sul controllo della chat ( argomenti qui ). L’esperienza dimostra che le telefonate sono più efficaci delle e-mail o delle lettere. Il nome ufficiale della prevista legge obbligatoria sul controllo della chat è “Proposta di regolamento che stabilisce norme per prevenire e combattere gli abusi sessuali sui minori”.
Parlami di ciò! Informa gli altri sui pericoli del controllo della chat. Qui puoi trovare modelli di tweet, condividere foto e video . Naturalmente, puoi anche creare le tue immagini e i tuoi video.
Genera attenzione sui social media! Usa gli hashtag #chatcontrol e #secrecyofcorrespondence
Genera l’attenzione dei media! Finora pochissimi media hanno coperto i piani di controllo della messaggistica e della chat dell’UE. Mettiti in contatto con i giornali e chiedi loro di trattare l’argomento, online e offline.
Chiedi ai tuoi fornitori di servizi di posta elettronica, messaggistica e chat! Evita Gmail, Facebook Messenger, outlook.com e la funzione chat di X-Box, dove è già in atto un controllo indiscriminato della chat. Chiedi ai tuoi provider di posta elettronica, messaggistica e chat se in genere monitorano i messaggi privati ​​alla ricerca di contenuti sospetti o se hanno intenzione di farlo.
Sharepics e infografiche da scaricare e utilizzare :
(fare clic destro sulle immagini e selezionare “Salva immagine con nome…”)







Risposte al Q2 del sondaggio tra i minori sul controllo della chat
Risposte alla Q6 del sondaggio tra i minori sul controllo della chat
Risposte alla Q14 del sondaggio tra i minori sul controllo della chat

Ulteriori informazioni e argomenti

Sfatare i miti

Quando nel maggio 2022 è stata presentata per la prima volta la bozza di legge sul controllo della chat, la Commissione Ue ha promosso il controverso piano con varie argomentazioni. Di seguito, varie affermazioni vengono messe in discussione e sfatate:

1. “Oggi su Internet circolano in maniera massiccia foto e video che ritraggono abusi sessuali su minori. Nel 2021, 29 milioni di casi sono stati segnalati al Centro nazionale statunitense per i bambini scomparsi e sfruttati.

Parlare esclusivamente di raffigurazioni di abusi sessuali su minori nel contesto del controllo della chat è fuorviante. A dire il vero, il materiale sullo sfruttamento sessuale di minori (CSEM) è spesso filmato di violenza sessuale contro minori (materiale di abuso sessuale di minori, CSAM). Tuttavia, sottolinea un gruppo di lavoro internazionale di istituzioni per la protezione dei minoritale materiale criminale include anche registrazioni di atti sessuali o di organi sessuali di minori in cui non viene usata violenza o non è coinvolta un’altra persona. Vengono menzionate anche registrazioni effettuate in situazioni quotidiane, come una foto di famiglia di una ragazza in bikini o nuda con gli stivali di sua madre. Sono coperte anche le registrazioni effettuate o condivise all’insaputa del minore. Punishable CSEM include anche fumetti, disegni, manga/anime e rappresentazioni generate al computer di minori immaginari. Infine, le raffigurazioni criminali includono anche registrazioni sessuali di minori realizzate da sé, ad esempio, per l’inoltro a partner della stessa età (“sexting”). Lo studio propone quindi il termine “raffigurazioni di sfruttamento sessuale” di minori come corretta descrizione. In questo contesto,

2. “Solo nel 2021, in tutto il mondo sono stati segnalati 85 milioni di immagini e video di abusi sessuali su minori”.

Circolano molte affermazioni fuorvianti su come quantificare l’entità delle immagini di sfruttamento sessuale di minori (CSEM). La cifra che la Commissione UE usa per difendere i suoi piani proviene dall’organizzazione non governativa statunitense NCMEC (National Center for Missing and Exploited Children) e include duplicati perché CSEM è condiviso più volte e spesso non cancellato. Escludendo i duplicati, rimangono 22 milioni di registrazioni uniche degli 85 milioni segnalati.

Il 75 percento di tutti i rapporti NCMEC del 2021 proveniva da Meta (FB, Instagram, Whatsapp). L’analisi interna di Facebook afferma che “oltre il 90 percento di [CSEM su Facebook nel 2020] era identico o visivamente simile ai contenuti precedentemente segnalati. E le copie di soli sei video erano responsabili di oltre la metà dei contenuti di sfruttamento dei minori”. Quindi i numeri tanto citati dell’NCMEC non descrivono realmente l’entità delle registrazioni online di violenza sessuale contro i bambini. Piuttosto, descrivono la frequenza con cui Facebook scopre copie di filmati di cui è già a conoscenza. Anche questo è rilevante.

Non tutte le registrazioni uniche segnalate all’NCMEC mostrano violenza contro i bambini. Gli 85 milioni di raffigurazioni segnalate da NCMEC includono anche il sexting consensuale, ad esempio. Il numero di raffigurazioni di abusi segnalate all’NCMEC nel 2021 è stato di 1,4 milioni.

Il 7% delle SAR globali di NCMEC va all’Unione Europea.

Inoltre, anche su Facebook, dove il controllo della chat è stato a lungo utilizzato volontariamente, i numeri per la diffusione di materiale offensivo continuano a salire. Il controllo della chat non è quindi una soluzione.

Fonte

3. “Aumento del 64% delle segnalazioni di abusi sessuali confermati su minori nel 2021 rispetto all’anno precedente”.

Il fatto che gli algoritmi di controllo volontario della chat dei grandi fornitori statunitensi abbiano riportato più CSEM non indica come la quantità di CSEM si sia evoluta nel complesso. La stessa configurazione degli algoritmi ha un grande impatto sul numero di SAR. Inoltre, l’aumento dimostra che la circolazione del CSEM non può essere controllata attraverso il controllo della chat.

4. “L’Europa è l’hub globale per la maggior parte del materiale”.

Il 7% delle SAR NCMEC globali va all’Unione Europea. Per inciso, le forze dell’ordine europee come Europol e BKA consapevolmente non segnalano materiale abusivo ai servizi di stoccaggio per la rimozione, quindi la quantità di materiale immagazzinato qui non può diminuire.

5. “Un’indagine sostenuta da Europol basata su un rapporto di un fornitore di servizi online ha portato al salvataggio di 146 bambini in tutto il mondo, con oltre 100 sospetti identificati in tutta l’UE.”

La segnalazione è stata effettuata da un fornitore di servizi di archiviazione cloud, non da un fornitore di servizi di comunicazione. Per controllare l’archiviazione cloud, non è necessario imporre il monitoraggio delle comunicazioni di tutti. Se vuoi catturare gli autori di reati online relativi a materiale pedopornografico, dovresti utilizzare i cosiddetti honeypot e altri metodi che non richiedono il monitoraggio delle comunicazioni dell’intera popolazione.

6. “I mezzi esistenti per rilevare i contenuti pertinenti non saranno più disponibili quando l’attuale soluzione provvisoria scadrà”.

I fornitori di servizi di hosting (filehoster, cloud) e i fornitori di social media potranno continuare la scansione dopo la scadenza dell’esenzione ePrivacy. Per i fornitori di servizi di comunicazione, il regolamento di esenzione per la scansione volontaria della chat potrebbe essere esteso senza richiedere la scansione a tutti i fornitori.

7. metafore: il controllo della chat è “come un filtro antispam” / “come una calamita che cerca un ago in un pagliaio: la calamita non vede il fieno”. / “come un cane poliziotto che fiuta le lettere: non ha idea di cosa ci sia dentro.” Il contenuto della tua comunicazione non sarà visto da nessuno se non ci sono riscontri. “Il rilevamento a fini di sicurezza informatica è già in corso, come il rilevamento di collegamenti in WhatsApp” o filtri antispam.

I filtri antimalware e antispam non rivelano il contenuto delle comunicazioni private a terzi e non comportano la segnalazione di persone innocenti. Non comportano la rimozione o il blocco a lungo termine dei profili nei social media o nei servizi online.

8. “Per quanto riguarda il rilevamento di nuovo materiale offensivo in rete, il tasso di successo è ben oltre il 90 %. … Alcune tecnologie di rilevamento della toelettatura esistenti (come quelle di Microsoft) hanno un “tasso di precisione” dell’88%, prima della revisione umana.”

Con il numero ingestibile di messaggi, anche un piccolo tasso di errore si traduce in innumerevoli falsi positivi che possono superare di gran lunga il numero di messaggi corretti. Anche con un tasso di successo del 99%, ciò significherebbe che dei 100 miliardi di messaggi inviati quotidianamente solo tramite Whatsapp, 1 miliardo (ovvero 1.000.000.000) di falsi positivi dovrebbe essere verificato. E questo ogni giorno e solo su un’unica piattaforma. L ‘”onere della revisione umana” per le forze dell’ordine sarebbe immenso, mentre l’arretrato e il sovraccarico di risorse stanno già lavorando contro di loro.

Separatamente, una richiesta FOI dell’ex deputato europeo Felix Reda ha rivelato il fatto che queste affermazioni sull’accuratezza provengono dall’industria, da coloro che hanno un interesse acquisito in queste affermazioni perché vogliono venderti tecnologia di rilevamento (Thorn, Microsoft). Si rifiutano di sottoporre la loro tecnologia a test indipendenti e non dovremmo prendere per oro colato le loro affermazioni.

La valutazione dell’UE degli strumenti di rilevamento degli abusi sui minori si basa esclusivamente sulle affermazioni del settore prese per oro colato.

La sorveglianza di massa è l’approccio sbagliato per combattere la “pornografia infantile” e lo sfruttamento sessuale

  • La scansione di messaggi privati ​​e chat non contiene la diffusione di CSEM. Facebook, ad esempio, pratica da anni il controllo della chat e il numero di segnalazioni automatizzate è aumentato ogni anno, raggiungendo di recente i 22 milioni nel 2021.
  • Il controllo obbligatorio della chat non rileverà gli autori che registrano e condividono materiale di sfruttamento sessuale di minori. Gli abusatori non condividono il loro materiale tramite e-mail commerciali, messenger o servizi di chat, ma si organizzano attraverso forum segreti autogestiti senza algoritmi di controllo. Inoltre, gli utenti in genere caricano immagini e video come archivi crittografati e condividono solo i collegamenti e le password. Gli algoritmi di controllo della chat non riconoscono archivi o collegamenti crittografati.
  • L’approccio corretto consisterebbe nell’eliminare il file CSEM memorizzato dove è ospitato online. Tuttavia, Europol non segnala materiale CSEM noto.
  • Il controllo della chat danneggia il perseguimento degli abusi sui minori inondando gli investigatori con milioni di segnalazioni automatizzate, la maggior parte delle quali penalmente irrilevanti.

Il controllo dei messaggi e della chat danneggia tutti

  • Tutti i cittadini sono sospettati, senza motivo, di aver commesso un reato. I filtri di testo e foto monitorano tutti i messaggi, senza eccezioni. Nessun giudice è tenuto ad ordinare tale controllo – contrariamente al mondo analogico che garantisce la segretezza della corrispondenza e la riservatezza delle comunicazioni scritte. Secondo una sentenza della Corte di giustizia europea, l’analisi automatica permanente e generale delle comunicazioni private viola i diritti fondamentali (causa C-511/18, paragrafo 192). Ciononostante, l’UE intende ora adottare tale legislazione. Perché il tribunale lo annulli possono volerci anni. Pertanto, dobbiamo in primo luogo impedire l’adozione della legislazione.
  • La riservatezza della corrispondenza elettronica privata viene sacrificata. Gli utenti di servizi di messaggistica, chat ed e-mail rischiano che i loro messaggi privati ​​vengano letti e analizzati. Foto e contenuti di testo sensibili potrebbero essere inoltrati a entità sconosciute in tutto il mondo e cadere nelle mani sbagliate. Secondo quanto riferito, in passato il personale della NSA ha diffuso foto di nudi di cittadini di sesso femminile e maschile. È stato segnalato che un ingegnere di Google perseguita i minori.
  • La messaggistica indiscriminata e il controllo della chat incriminano ingiustamente centinaia di utenti ogni giorno. Secondo la polizia federale svizzera, l’80% dei contenuti segnalati dalle macchine non è illegale, ad esempio le foto innocue delle vacanze che mostrano bambini nudi che giocano in spiaggia. Allo stesso modo in Irlanda solo il 20% delle segnalazioni NCMEC ricevute nel 2020 è stato confermato come vero e proprio “materiale pedopornografico”.
  • La comunicazione crittografata in modo sicuro è a rischio. Fino ad ora, i messaggi crittografati non possono essere cercati dagli algoritmi. Per cambiare quella backdoor dovrebbe essere integrata nel software di messaggistica. Non appena ciò accade, questa falla nella sicurezza può essere sfruttata da chiunque disponga dei mezzi tecnici necessari, ad esempio dai servizi segreti stranieri e dai criminali. Le comunicazioni private, i segreti aziendali e le informazioni sensibili del governo verrebbero esposte. La crittografia sicura è necessaria per proteggere le minoranze, le persone LGBTQI, gli attivisti democratici, i giornalisti, ecc.
  • La giustizia penale viene privatizzata. In futuro gli algoritmi di aziende come Facebook, Google e Microsoft decideranno quale utente è sospetto e quale no. La legislazione proposta non contiene requisiti di trasparenza per gli algoritmi utilizzati. In base allo stato di diritto, le indagini sui reati spettano a giudici indipendenti e funzionari pubblici sotto la supervisione del tribunale.
  • Il controllo indiscriminato della messaggistica e della chat crea un precedente e apre le porte a tecnologie e legislazioni più invadenti . L’implementazione della tecnologia per il monitoraggio automatico di tutte le comunicazioni online è pericolosa: può essere facilmente utilizzata per altri scopi in futuro, ad esempio violazioni del copyright, abuso di droghe o “contenuti dannosi”. Negli stati autoritari tale tecnologia serve a identificare e arrestare oppositori del governo e attivisti democratici. Una volta che la tecnologia è stata implementata in modo completo, non si può tornare indietro.

Il controllo della messaggistica e della chat danneggia i bambini e le vittime di abusi

I fautori affermano che la messaggistica indiscriminata e il controllo della chat facilitano il perseguimento dello sfruttamento sessuale dei minori. Tuttavia, questo argomento è controverso, anche tra le vittime di abusi sessuali su minori. Infatti la messaggistica e il controllo della chat possono ferire le vittime e le potenziali vittime di sfruttamento sessuale:

  1. Gli spazi sicuri vengono distrutti. Le vittime di violenza sessuale hanno particolarmente bisogno della capacità di comunicare in modo sicuro e confidenziale per cercare consulenza e sostegno, ad esempio per scambiarsi in sicurezza tra loro, con i loro terapisti o avvocati. L’introduzione del monitoraggio in tempo reale toglie loro queste stanze sicure. Ciò può scoraggiare le vittime dal cercare aiuto e sostegno.
  2. Le foto di nudo di minori autoregistrate (sexting) finiscono nelle mani dei dipendenti dell’azienda e della polizia dove non appartengono e non sono al sicuro.
  3. I minori vengono criminalizzati. Soprattutto i giovani spesso condividono tra loro registrazioni intime (sexting). Con il controllo della messaggistica e della chat in atto, le loro foto e i loro video potrebbero finire nelle mani di investigatori criminali. Le statistiche tedesche sulla criminalità dimostrano che quasi il 40% di tutte le indagini per pornografia infantile prende di mira i minori.
  4. La messaggistica indiscriminata e il controllo della chat non limitano la circolazione di materiale illegale, ma in realtà rendono più difficile perseguire lo sfruttamento sessuale dei minori. Incoraggia i trasgressori a nascondersi e utilizzare server crittografati privati ​​che possono essere impossibili da rilevare e intercettare. Anche sui canali aperti, la messaggistica indiscriminata e il controllo delle chat non contengono il volume di materiale circolato, come testimoniato dal numero sempre crescente di segnalazioni di macchine.

Alternative

Rafforzare la capacità delle forze dell’ordine

Attualmente, la capacità delle forze dell’ordine è così inadeguata che spesso occorrono mesi e anni per seguire le piste e analizzare i dati raccolti. Il materiale noto spesso non viene né analizzato né rimosso. I responsabili dell’abuso non condividono il loro materiale tramite Facebook o canali simili, ma sulla darknet. Per rintracciare autori e produttori, deve svolgersi un lavoro di polizia sotto copertura invece di sprecare le scarse capacità nel controllare rapporti di macchine spesso irrilevanti. È inoltre essenziale rafforzare le unità investigative responsabili in termini di personale, finanziamenti e risorse finanziarie, per garantire indagini a lungo termine, approfondite e sostenute. Devono essere sviluppati e rispettati standard/linee guida affidabili per la gestione da parte della polizia delle indagini sugli abusi sessuali.

Affrontare non solo i sintomi, ma la causa principale

Invece di tentativi tecnici inefficaci per contenere la diffusione del materiale di sfruttamento che è stato rilasciato, tutti gli sforzi devono concentrarsi in primo luogo sulla prevenzione di tali registrazioni. I concetti di prevenzione e formazione svolgono un ruolo chiave perché la stragrande maggioranza dei casi di abuso non viene mai nemmeno resa nota. Le organizzazioni di protezione delle vittime spesso soffrono di finanziamenti instabili.

Supporto rapido e facilmente disponibile per le (potenziali) vittime

  1. Meccanismi di segnalazione obbligatori presso i servizi online: al fine di ottenere un’efficace prevenzione degli abusi online e in particolare dell’adescamento, i servizi online dovrebbero essere tenuti a collocare in modo ben visibile le funzioni di segnalazione sulle piattaforme. Se il servizio è rivolto a e/o utilizzato da giovani o bambini, i fornitori dovrebbero anche essere tenuti a informarli sui rischi dell’adescamento online.
  2. Hotline e centri di consulenza: molte hotline nazionali che si occupano di casi di abusi segnalati sono alle prese con problemi finanziari. È essenziale garantire che vi sia una capacità sufficiente per dare seguito ai casi segnalati.

Migliorare l’alfabetizzazione mediatica

Insegnare l’alfabetizzazione digitale in tenera età è una parte essenziale della protezione per proteggere i bambini e i giovani online. I bambini stessi devono avere le conoscenze e gli strumenti per navigare in Internet in sicurezza. Devono essere informati che i pericoli si nascondono anche online e imparare a riconoscere e mettere in discussione i modelli di toelettatura. Ciò potrebbe essere ottenuto, ad esempio, attraverso programmi mirati nelle scuole e nei centri di formazione, in cui personale qualificato trasmette conoscenze e conduce discussioni. I bambini devono imparare a parlare, rispondere e denunciare gli abusi, anche se l’abuso proviene dalla loro sfera di fiducia (ad esempio, da persone a loro vicine o altre persone che conoscono e di cui si fidano), come spesso accade. Devono inoltre avere accesso a canali sicuri, accessibili e adeguati all’età per segnalare gli abusi senza timore.

Pool di documenti

Commento critico e ulteriori letture

“I governi che cercano di limitare la crittografia spesso non sono riusciti a dimostrare che le restrizioni che avrebbero imposto sono necessarie per soddisfare un particolare interesse legittimo, data la disponibilità di vari altri strumenti e approcci che forniscono le informazioni necessarie per specifiche forze dell’ordine o altri scopi legittimi. Tali misure alternative includono una polizia tradizionale migliorata e dotata di risorse migliori, operazioni sotto copertura, analisi dei metadati e una cooperazione di polizia internazionale rafforzata”.

“Qualsiasi sorveglianza digitale dei minori, unitamente a qualsiasi trattamento automatizzato di dati personali associato, dovrebbe rispettare il diritto del minore alla privacy e non dovrebbe essere condotta di routine, indiscriminatamente o all’insaputa del minore…”

“suggeriamo che la Commissione dia la priorità a questo lavoro non tecnico e alla rimozione più rapida dei siti Web offensivi rispetto al filtraggio lato client […]”

“A causa dell’assenza di una valutazione d’impatto che accompagna la proposta, la Commissione deve ancora dimostrare che le misure previste dalla proposta sono strettamente necessarie, efficaci e proporzionate per raggiungere l’obiettivo prefissato.”

“Come sopravvissuto ad abusi, io (e milioni di altri sopravvissuti in tutto il mondo) facciamo affidamento su comunicazioni riservate sia per trovare supporto che per denunciare i crimini contro di noi – rimuovere i nostri diritti alla privacy e alla riservatezza significa sottoporci a ulteriori danni e, francamente, abbiamo sofferto abbastanza. […] non importa quali misure intraprendiamo per trovare gli autori di abusi, non importa quante libertà o diritti costituzionali distruggiamo per raggiungere quell’agenda – NON impedirà ai bambini di subire abusi, semplicemente spingerà il abusi ulteriormente clandestini, rendono sempre più difficile l’individuazione e alla fine portano ad abusi su più bambini come risultato finale.

“Usare il velo della moralità e il pretesto di proteggere i più vulnerabili e amati nelle nostre società per introdurre questo potenziale mostro di iniziativa è spregevole”.

“Soprattutto essendo vittima di abusi sessuali, per me è importante che sia possibile una comunicazione fidata, ad esempio nei gruppi di auto-aiuto e con i terapisti. Se la crittografia viene minata, ciò indebolisce anche le possibilità per le persone colpite da abusi sessuali di cercare aiuto”.

“Essendo io stessa stata vittima di violenza sessuale da bambina, sono convinta che l’unico modo per andare avanti su questo tema sia attraverso l’educazione. La sorveglianza generalizzata delle comunicazioni non aiuterà i bambini a smettere di subire questa inaccettabile violenza”.

“In pratica ciò significa che metterebbero le società private a capo di una questione che dovrebbero essere gestite dalle autorità pubbliche”

„la valutazione dei fatti relativi agli abusi sui minori fa parte dell’area di responsabilità della professione legale. Di conseguenza, la comunicazione scambiata tra avvocati e clienti conterrà spesso parole chiave pertinenti. […] Secondo le proposte della Commissione, c’è da temere che in tutte le suddette costellazioni ci sarà regolarmente una violazione della riservatezza a causa dell’inevitabile uso di termini pertinenti.

“Non avevo strumenti di comunicazione riservata quando sono stata stuprata; tutte le mie comunicazioni erano monitorate dai miei aggressori: non c’era niente che potessi fare, non c’era fiducia. […] Non posso fare a meno di chiedermi quanto sarebbe stata diversa la mia vita se avessi avuto accesso a queste moderne tecnologie. [Il previsto voto sulla e-Privacy Derogation] guiderà gli abusi nella clandestinità rendendoli molto più difficili da rilevare; impedirà ai gruppi di sostegno di essere in grado di aiutare le vittime di abusi – DISTRUGGERÀ VITE”.

“Un monitoraggio generale e non provocato dei canali di comunicazione digitale non è né proporzionato né necessario per rilevare gli abusi sui minori online. La lotta alla violenza sessuale sui minori deve essere affrontata con misure mirate e specifiche. Il lavoro investigativo è compito delle forze dell’ordine e non deve essere affidato a operatori privati ​​di servizi di messaggistica”.

“Come con altri tipi di scansione dei contenuti (sia su piattaforme come YouTube che nelle comunicazioni private), scansionare tutto da tutti in ogni momento crea enormi rischi di portare alla sorveglianza di massa fallendo il test di necessità e proporzionalità. Inoltre, crea un pendio scivoloso in cui iniziamo a cercare casi meno dannosi (copyright) e poi passiamo a questioni più difficili (abusi sessuali su minori, terrorismo) e prima che ti rendi conto di cosa è successo, scansionare tutto tutto il tempo diventa la nuova normalità.

“La DAV è esplicitamente favorevole a combattere la preparazione e la commissione di abusi sessuali su minori e la loro diffusione via Internet attraverso misure efficaci a livello dell’UE. Tuttavia, il regolamento provvisorio proposto dalla Commissione consentirebbe violazioni palesemente sproporzionate dei diritti fondamentali degli utenti dei servizi di comunicazione basati su Internet. Inoltre, il regolamento provvisorio proposto non dispone di garanzie procedurali sufficienti per le persone interessate. Questo è il motivo per cui la proposta legislativa dovrebbe essere respinta nel suo insieme”.

“Colpi positivi con successiva divulgazione ad agenzie governative e non governative sarebbero temuti non solo dagli imputati ma soprattutto dalle vittime di abusi sessuali su minori. In questo contesto, l’assoluta riservatezza della consulenza legale è indispensabile nell’interesse delle vittime, specialmente in queste questioni che sono spesso cariche di vergogna. In questi casi in particolare, il cliente deve mantenere la facoltà di decidere quali contenuti del mandato possono essere comunicati a chi. In caso contrario, c’è da temere che le vittime di abusi sessuali su minori non cercheranno consulenza legale”.

“Nel corso dell’iniziativa “Lotta agli abusi sessuali sui minori: rilevamento, rimozione e segnalazione di contenuti illegali”, l’Unione Europea prevede di abolire la privacy digitale della corrispondenza. Per rilevare automaticamente i contenuti illegali, in futuro tutti i messaggi di chat privati ​​dovranno essere controllati. Questo dovrebbe valere anche per i contenuti che finora sono stati protetti con una forte crittografia end-to-end. Se questa iniziativa venisse attuata secondo il piano attuale danneggerebbe enormemente i nostri ideali europei ei fondamenti indiscutibili della nostra democrazia, vale a dire la libertà di espressione e la tutela della privacy […]. L’iniziativa danneggerebbe inoltre gravemente l’autonomia strategica dell’Europa e quindi le imprese con sede nell’UE.

Esperti della polizia e del mondo accademico sono piuttosto critici nei confronti del piano dell’UE: da un lato, temono molte false segnalazioni da parte degli scanner e, dall’altro, una funzione di alibi della legge. Daniel Kretzschmar, portavoce del Consiglio federale dell’Associazione degli investigatori criminali tedeschi, afferma che la lotta contro le rappresentazioni di abusi sui minori è “enormemente importante” per la sua associazione. Tuttavia, è scettico: persone insospettate potrebbero facilmente diventare il fulcro delle indagini. Allo stesso tempo, afferma, privatizzare queste iniziative investigative significa “rendere le forze dell’ordine dipendenti da queste società, che in realtà è un compito statale e sovrano. “

Anche Thomas-Gabriel Rüdiger, capo dell’Istituto di cybercriminologia presso l’Università di polizia di Brandeburgo, è piuttosto critico nei confronti del progetto UE. “Alla fine, probabilmente colpirà di nuovo principalmente i minori”, ha detto a WELT. Rüdiger fa riferimento ai dati della statistica criminale, secondo cui il 43 per cento dei reati registrati nell’area dei contenuti pedopornografici sarebbe riconducibile a bambini e adolescenti stessi. È il caso, ad esempio, del cosiddetto “sexting” e della “pornografia scolastica”, quando ragazzi di 13 e 14 anni si scambiano foto oscene.

I veri colpevoli, che vuoi davvero catturare, probabilmente preferirebbero non essere catturati. “Sono consapevoli di ciò che hanno fatto e utilizzano alternative. Presumibilmente, le chiavette USB e altri supporti dati verranno riutilizzati sempre di più”, continua Rüdiger.

“Conformemente al diritto dell’UE in materia di diritti fondamentali, la sorveglianza o l’intercettazione di comunicazioni private o dei relativi metadati per individuare, indagare o perseguire il materiale pedopornografico online deve essere limitata a veri sospetti nei confronti dei quali sussistono ragionevoli sospetti, deve essere debitamente giustificata e specificamente giustificata e deve seguire le norme nazionali e dell’UE in materia di polizia, giusto processo, buona amministrazione, non discriminazione e tutela dei diritti fondamentali.

In vista della proposta ufficiale entro la fine dell’anno, esortiamo tutti i Commissari europei a ricordare le proprie responsabilità nei confronti dei diritti umani e a garantire che una proposta che minaccia l’essenza stessa del diritto alla privacy delle persone e la pietra angolare della società democratica, non viene proposto.

“Secondo i nostri esperti, accademici e professionisti IT, tutti gli sforzi per intercettare e monitorare ampiamente le comunicazioni chat tramite la scansione del sito del cliente hanno un enorme impatto negativo sulla sicurezza IT di milioni di utenti Internet e aziende europee. Pertanto, il diritto europeo alla sicurezza delle comunicazioni e alla crittografia efficace per tutti deve diventare uno standard”.

LINK AL POST ORIGINALE

I commenti sono disabilitati, ma se vuoi segnalare un errore o aggiungere un contributo, puoi scriverci su Twitter o su Mastodon

A cura di InformaPirata
A cura di InformaPirata