Categorie
Privacy Sorveglianza

Rapporto di valutazione di chatcontrol: la Commissione UE non riesce ancora una volta a dimostrare l’efficacia della sorveglianza di massa di foto e video personali intimi

Il nuovo report della Commissione UE demolisce il #ChatControl volontario, che vogliono rendere permanente:

“Dati insufficienti”, alti tassi di errore e nessuna prova che porti a condanne.

Trovate qui la traduzione del post che Patrick Breyer ha pubblicato oggi

L’attuale pressione del Consiglio dell’UE per rendere permanente il Chat Control 1.0 (Regolamento (UE) 2021/1232) è giuridicamente ed eticamente sconsiderata. La stessa relazione di valutazione del 2025 della Commissione ammette un fallimento totale nella raccolta dei dati, l’incapacità di collegare la sorveglianza di massa alle condanne effettive e significativi tassi di errore nelle tecnologie di rilevamento. Consacrare in modo permanente una deroga ai diritti fondamentali sulla base di una relazione che afferma esplicitamente che “i dati disponibili sono insufficienti” per giudicare la proporzionalità è una violazione dei principi legislativi dell’UE.

Critica dettagliata

1. L’”argomento dell’ignoranza” sulla proporzionalità

La relazione: nella sezione 3 (Conclusioni), la Commissione afferma che “i dati disponibili sono insufficienti per fornire una risposta definitiva” in merito alla proporzionalità del regolamento. Tuttavia, nello stesso paragrafo, conclude: “non vi sono indicazioni che la deroga non sia proporzionata”.
La critica: si tratta di un errore logico. La Commissione sostiene che, poiché i suoi dati sono troppo frammentati per dimostrare che la legge è cattiva , debba essere buona . Non è possibile sospendere definitivamente il diritto fondamentale alla privacy (articolo 7 della Carta dei diritti fondamentali) sulla base dell’assenza di dati. L’onere della prova spetta al legislatore, che deve dimostrarne la necessità e l’efficacia, cosa che la presente relazione non fa.

2. Il legame interrotto tra sorveglianza e condanne

La relazione: la sezione 2.2.3 ammette esplicitamente: “Attualmente non è possibile… stabilire un chiaro collegamento tra queste condanne e le segnalazioni presentate dai fornitori”. Inoltre, importanti Stati membri come Germania e Spagna non hanno fornito dati utilizzabili sulle condanne collegate a questo regolamento.
La critica: come osservato nel mio post sul blog sulla precedente valutazione , non vi sono prove che la scansione di massa dei messaggi privati ​​contribuisca in modo significativo alla condanna degli autori di abusi. Se milioni di messaggi privati ​​vengono scansionati e vengono generate centinaia di migliaia di segnalazioni (708.894 nel 2024), ma la Commissione non può indicare un numero specifico di condanne risultanti, il sistema è una rete a strascico che viola la privacy senza un comprovato beneficio per la sicurezza dei minori. Il sistema genera “rumore” per le forze dell’ordine piuttosto che informazioni fruibili.

3. Elevati tassi di errore e algoritmi “Black Box”

Il rapporto:

  • Microsoft (Sezione 2.1.6) ha segnalato che i suoi dati erano “insufficienti per calcolare un tasso di errore”.
  • Yubo ha segnalato tassi di errore nel rilevamento di nuovi CSAM/toelettatura pari al 20% nel 2023 e al 13% nel 2024 .
  • Il rapporto sottolinea che “la revisione umana non è presa in considerazione nelle statistiche”, il che significa che l’intrusione algoritmica grezza è ancora meno accurata di quanto presentato.

La critica: rendere permanente questa regolamentazione avalla l’uso di una tecnologia che è notoriamente imperfetta. Un tasso di errore del 13-20% nella segnalazione di “adescamento” o di nuovo materiale pedopornografico significa che migliaia di utenti innocenti vengono segnalati, le loro comunicazioni private visualizzate dai moderatori aziendali e potenzialmente segnalate erroneamente alla polizia. Il fatto che un gigante come Microsoft non riesca nemmeno a calcolare il suo tasso di errore dimostra che le Big Tech operano senza responsabilità o trasparenza. Secondo la polizia tedesca e l’ex commissario europeo Johansson, il tasso di errore effettivo è molto più alto (50-75%).

4. Caos nei dati e mancanza di controllo da parte dell’UE

La relazione: la Commissione ammette che i fornitori “non hanno utilizzato il modulo standard per la segnalazione” (sezione 1) e che gli Stati membri hanno fornito dati “frammentati e incompleti”. La disparità tra le segnalazioni NCMEC inviate agli Stati membri e quelle riconosciute dagli Stati membri è enorme (ad esempio, la Francia ha ricevuto 150.000 segnalazioni da NCMEC, ma i dati di elaborazione sono incompleti).
La critica: l’UE non può supervisionare efficacemente questa sorveglianza. Se, dopo tre anni, la Commissione non può obbligare i fornitori a utilizzare un modulo standard per la segnalazione o a far sì che gli Stati membri monitorino le statistiche di base, il regolamento è disfunzionale. Rendere permanente una soluzione temporanea disfunzionale è indice di cattiva governance. Consolida un sistema in cui i giganti della tecnologia statunitensi (Google, Meta, Microsoft) agiscono come forze di polizia private senza una supervisione standardizzata.

5. Obsolescenza tramite crittografia

Il rapporto: Il rapporto rileva un calo del 30% delle segnalazioni riguardanti l’UE nel 2024, attribuito in gran parte al passaggio dei servizi di messaggistica interpersonale alla crittografia end-to-end (E2EE) (Sezione 2.2.1).
La critica: Il regolamento è già obsoleto. Come osservato nel commento precedente, con il passaggio delle piattaforme a E2EE (come Meta), la scansione volontaria diventa impossibile senza violare la crittografia (scansione lato client). Il calo delle segnalazioni dimostra che la scansione volontaria è un modello in declino. Rendere permanente questo regolamento è un disperato tentativo di aggrapparsi a un approccio fallimentare anziché investire in indagini mirate e in una “sicurezza fin dalla progettazione” che rispetti la crittografia.

6. Mancata valutazione dell’intrusione nella privacy

La relazione: La conclusione afferma: “I fornitori non hanno fornito informazioni sull’eventuale impiego delle tecnologie… nel modo meno invasivo possibile per la privacy”.
La critica: Il regolamento richiede che la deroga sia utilizzata solo quando necessario e nel modo meno invasivo possibile. La Commissione ammette di non disporre di informazioni sull’effettivo rispetto di questo requisito giuridico. Prorogare una legge in modo permanente quando la garanzia primaria (minimizzazione dell’intrusione nella privacy) non viene monitorata costituisce un inadempimento del dovere.

Conclusione

Il Consiglio mira a legalizzare in modo permanente un regime di sorveglianza di massa in cui:

  1. La tecnologia ha tassi di errore a due cifre (Yubo).
  2. L’efficacia (convinzioni) non è dimostrata.
  3. La supervisione (raccolta dati) è interrotta.
  4. Gli obiettivi (chat crittografate) sono sempre più immuni.

Ciò conferma i timori sollevati nella valutazione precedente: si tratta di una sicurezza performativa che sacrifica la privacy di tutti i cittadini a favore di un sistema che la Commissione ammette di non poter misurare o convalidare adeguatamente.

Continua a leggere: chatcontrol.eu

Qui il post originale:https://www.patrick-breyer.de/en/chat-control-evaluation-report-eu-commission-again-fails-to-demonstrate-effectiveness-of-mass-surveillance-of-intimate-personal-photos-and-videos/

I commenti sono disabilitati, ma se vuoi segnalare un errore o aggiungere un contributo, puoi scriverci su Twitter o su Mastodon

A cura di InformaPirata