Categorie
European Pirate Party Hacking Politico Open Source Privacy

Le piattaforme online possono essere guidate dalla comunità

Un importantissimo studio del gruppo dei Verdi e dei Pirati al Parlamento Europeo sulle piattaforme collaborative e federate: 5 modelli di governance alternativi come Wikipedia, Diaspora, Mastodon, Der Standard e Slashdot

Il gruppo parlamentare dei Verdi/ALE (Greens/EFA) al quale aderiscono i quattro europarlamentari pirata eletti alle elezioni del 2019, ha pubblicato uno studio per evidenziare come la creazione di comunità online con un approccio trasparente dal basso verso l’alto alla moderazione dei contenuti può costituire un modello virtuoso per la sicurezza online e la salvaguardia dei diritti digitali.

Riportiamo di seguito il post pubblicato e il link dello studio (qui il link al post in inglese), preparato dagli europarlamentari Alexandra GeeseMarcel KolajaPatrick BreyerKim Van Sparrentak e Rasmus Andresen.

Perché abbiamo bisogno di un Internet che funzioni per le persone e sia guidato dalle persone

Nuovo studio sulle “piattaforme online guidate dalla comunità”

03.05.2021

Nel nostro nuovo studio sulle “piattaforme online guidate dalla comunità” , abbiamo scoperto che le comunità online e un approccio trasparente dal basso verso l’alto alla moderazione dei contenuti siano la scelta migliore per la nostra sicurezza online e i nostri diritti digitali.

Rappresentazione della democrazia online

Wikipedia è un nome familiare. L’abbiamo usato tutti: che sia alle 2 del mattino e stiamo leggendo dei crimini irrisolti più sconcertanti del mondo, o nel mezzo di una discussione familiare su quale attore ha recitato in un certo programma televisivo degli anni ’90. Negli ultimi vent’anni, Wikipedia è diventata una delle più popolari “piattaforme online guidate dalla comunità”. Chiunque abbia un account può aiutare a modificare, moderare e gestire il contenuto pubblicato nei suoi articoli. In questo modo, Wikipedia attinge alla conoscenza e all’esperienza di persone in tutto il mondo. Tutti i post sono scritti da persone reali (anziché generati automaticamente dai bot) e le comunità online decidono apertamente se un post deve essere rimosso o meno. Come ha scoperto il nostro nuovo studio , questo spirito di comunità è ottimo anche per combattere l’incitamento all’odio e il cyberbullismo.

Il problema con Tiktok: dove sono finiti i miei contenuti?

Tutto ciò è in netto contrasto con aziende come Facebook, Twitter, Instagram, Tiktok e Snapchat, che utilizzano un approccio dall’alto verso il basso rimuovendo i post con l’aiuto della tecnologia più recente, come l’IA avanzata (intelligenza artificiale). Man mano che queste aziende sono cresciute, hanno sviluppato tecnologie complesse per evitare di dover esaminare e curare personalmente la grande quantità di dati che vengono pubblicati sulle loro piattaforme ogni giorno. Queste tecnologie fanno molto affidamento sulla rimozione di contenuti dannosi e altrimenti indesiderabili. Tuttavia, crescono le preoccupazioni circa l’impatto di queste decisioni automatizzate dall’intelligenza artificiale sulla libertà di espressione e sui diritti digitali delle persone online.

Le regole che attribuiscono alle piattaforme la responsabilità di rimuovere e moderare i contenuti sono torbide e poco chiare. Le aziende devono affrontare tempi eccessivamente brevi per la rimozione dei contenuti e la minaccia di pesanti multe per non conformità. Le grandi piattaforme tecnologiche spesso rispettano eccessivamente le richieste legali e rimuovono rapidamente grandi quantità di contenuti online senza trasparenza e controllo pubblico. L’enorme volume di richieste porta inevitabilmente a rimozioni errate, mentre troppo spesso i contenuti odiosi, in particolare rivolti a gruppi di minoranza, rimangono online. La maggior parte delle piattaforme online non divulga il modo in cui raggiunge le decisioni di moderazione dei contenuti e ricorre all’eliminazione dei contenuti senza fornire una spiegazione all’utente. La mancanza di trasparenza e responsabilità ci lascia impotenti di fronte a queste enormi aziende tecnologiche.

Icona dei social media / CC0 alexander-shatov

Internet è la mia vita sociale: come posso costruire una forte comunità online?

Tutto ciò ha un effetto molto reale sulla nostra vita quotidiana, in particolare perché abbiamo trascorso sempre più tempo online a causa della pandemia COVID-19. Le piattaforme online non sono solo per meme e foto di gatti. Per molte persone, ora costituiscono la base della nostra vita sociale. Sono spazi pubblici che influenzano il dibattito pubblico e il comportamento umano.

Dobbiamo assicurarci che le regole siano chiare in modo che tutti possano partecipare con sicurezza e correttezza. Dobbiamo assicurarci che le nostre comunità online siano forti in modo da essere al sicuro da incitamento all’odio e discriminazione. Che la nostra libertà di parola – e la libertà di parola dei gruppi minoritari – non sia violata da un bot automatizzato che utilizza un algoritmo basato su un codice parziale o discriminatorio.

Siamo più bravi che mai a costruire comunità di assistenza online. Esistono già ottime alternative alle gigantesche società tecnologiche: alternative come Mastodon , Diaspora e Wikipedia . E sono già operative. Queste piattaforme decentralizzate “guidate dalla comunità” sono alimentate dall’uomo. Restituiscono il potere agli utenti. Cercano di rafforzare le loro comunità in modo che la moderazione dei contenuti sia notevolmente meno necessaria. Quando devono rimuovere o censurare i contenuti, condividono gli stessi obiettivi comuni:

  • Migliorano la trasparenza fornendo spiegazioni agli utenti sul motivo per cui il loro contenuto è stato rimosso.
  • È per la comunità e non è una decisione aziendale basata sulla conservazione dei ricavi pubblicitari.
  • Incoraggiano la diversità nella moderazione dei contenuti. I membri della società possono partecipare in sicurezza, indipendentemente dal colore della pelle, dall’identità di genere o dall’orientamento sessuale.

Il nostro studio ha mostrato chiaramente che l’automazione della moderazione dei contenuti non è una soluzione. Gli strumenti automatizzati sono inclini a commettere errori, il che potrebbe compromettere la fiducia degli utenti nel sistema di moderazione. Un coinvolgimento umano significativo nelle decisioni di moderazione dei contenuti aiuta a creare fiducia e promuovere un buon comportamento. Le piattaforme gestite dalla comunità sono il modo migliore e più giusto per combattere la disinformazione e l’incitamento all’odio e preservare la privacy e la libera espressione delle persone nel mondo online.

Se vuoi saperne di più sulle piattaforme gestite dalla comunità e su come possono proteggere i nostri diritti digitali in futuro: 


Nell’ambito della nostra campagna I miei contenuti, i miei diritti , i Verdi / ALE vogliono concentrarsi sul mettere i diritti e le libertà al centro della legge sui servizi digitali, promuovendo al contempo un Internet che funzioni per le persone e sia guidato dalle persone.

Il Digital Services Act è un’opportunità per i responsabili politici di trarre ispirazione da sistemi di governance dei contenuti di piattaforme più piccole, alternative, federate o decentralizzate al fine di stabilire le migliori pratiche e creare incentivi nella legislazione futura.

*********

SOMMARIO DELLO STUDIO

REIMMAGINARE LA MODERAZIONE DEI CONTENUTI E SALVAGUARDARE I DIRITTI FONDAMENTALI:

UNO STUDIO SULLE PIATTAFORME GUIDATE DALLA COMUNITÀ

 Leggi il report completo (pdf) 

SINOSSI

Internet è uno strumento di potenziamento che ci consente di comunicare a livello globale, di incontrarci, di costruire reti e unire le forze, di accedere a informazioni e cultura, di esprimere e diffondere opinioni politiche. Sfortunatamente, piattaforme come Youtube, Instagram, Twitter e TikTok filtrano e moderano con molti danni collaterali: troppo spesso, i contenuti odiosi, specialmente rivolti a gruppi di minoranza, rimangono online. D’altra parte, i post, i video, gli account e gli annunci legittimi vengono rimossi e le piattaforme rendono difficile la contestazione. Alcune aziende tecnologiche molto grandi sono gli attori dominanti delle nostre interazioni sociali quotidiane: i loro meccanismi di governance dei contenuti, in gran parte basati su strumenti automatizzati imposti unilateralmente, hanno gravi implicazioni non solo per i diritti e le libertà online ma anche per la creazione e lo sviluppo di modelli innovativi e alternativi in Europa.

Pagina web di Wikipedia / CC0 luke-chesser

OBIETTIVI DELLO STUDIO

Lo studio per: 

  • La promozione di piattaforme controllate dalle comunità di utenti anziché dalle grandi aziende, per spiegare la sostenibilità dei modelli esistenti e come funzionano nella pratica.
  • Analizzare e riassumere i modelli di governance di piattaforme federate e altre decentralizzate alternative e guidate dalla comunità;
  • Documentare i vantaggi e le sfide dei modelli di governance delle piattaforme esistenti guidate dalla comunità e delle politiche di moderazione dei contenuti;
  • Includere raccomandazioni politiche specificamente rivolte ai legislatori dell’UE con l’obiettivo di rendere noto il dibattito in corso sulla proposta di legge sui servizi digitali dell’UE

METODOLOGIA: COME È STATA SVOLTA LA RICERCA?

Questo studio si basa su un design di ricerca qualitativa. I ricercatori hanno utilizzato metodi di ricerca qualitativa, in particolare “casi di studio”, per indagare su piattaforme online guidate dalla comunità applicando modelli di governance dei contenuti alternativi. 

Lo studio presenta cinque casi di studio di piattaforme di social media guidate dalla comunità che utilizzano approcci alternativi alla governance e alla moderazione dei contenuti. Cinque piattaforme che applicano modelli di governance dei contenuti alternativi sono state studiate in modo più dettagliato, vale a dire: 

  1. Wikipedia,
  2. diaspora,
  3. Mastodon,
  4. Der standard,
  5. Slashdot.

Sono stati utilizzati diversi metodi per raccogliere dati per i casi di studio: interviste semi-strutturate (con moderatori e amministratori di diverse piattaforme online e ricercatori sull’argomento) e revisione della letteratura di pubblicazioni esistenti sull’argomento. Sono state condotte 16 interviste semi-strutturate con moderatori, amministratori, varie piattaforme online e ricercatori per discutere pratiche alternative di moderazione dei contenuti e modelli di governance dei contenuti. Mentre i casi di studio mostreranno alcuni aspetti dei modelli di governance dei contenuti alternativi, il materiale aggiuntivo serve a discutere ulteriori alternative e diverse prospettive sui modelli di governance dei contenuti alternativi.

Elementi visivi visivi / CC0 non protetti

COSA HA SCOPERTO LO STUDIO?

  • L’eliminazione del contenuto non è una soluzione . È semplicemente un “cerotto” per un problema già esistente.
  • L’automazione della moderazione dei contenuti non è una soluzione. Piuttosto, l’automazione può supportare alcune aree limitate di moderazione dei contenuti e governance dei contenuti. Tempi eccessivamente brevi per la rimozione dei contenuti creano una pressione inutile per le piattaforme affinché utilizzino strumenti automatizzati altamente problematici.
  • Coinvolgimento umano significativo nelle decisioni di moderazione dei contenuti è la chiave per un’efficace moderazione dei contenuti. –
  • Democratizzare i Termini di servizio delle piattaforme: i Termini di servizio  sviluppati congiuntamente e comunicati in modo chiaro, indipendentemente dal loro contenuto, hanno maggiori probabilità di essere rispettati e visti come legittimi dai membri della comunità. 
  • Le piattaforme hanno bisogno di comunicare in modo chiaro alle persone colpite dalle loro decisioni che tipo di moderazione la piattaforma ha il potere di esercizio e quali vengono utilizzati strumenti.
  • Community-led e community-driven nella moderazione di contenuti sembra essere molto efficace, perché offre “modelli alternativi di moderazione top-down”, in contrasto con la moderazione di contenuti su piattaforme commerciali che si basa principalmente sulla valutazione ed eliminazione di un singolo pezzo di contenuto. 
  • Necessità di basare le piattaforme sulle migliori pratiche per la moderazione dei contenuti e creare meccanismi per la loro condivisione.
  • Creare un sistema di revisione della moderazione e di policy di governance dei contenuti ( tra cui le revisioni del codice o l’esame dei dati di allenamento) potrebbe consentire un ecosistema che migliora le politiche rispetto all’attuale gara al ribasso.
  • I responsabili politici dovrebbero sostenere piattaforme orientate alla comunità nella costruzione di spazi pubblici e contribuire alla diversità negli spazi per il dibattito pubblico.
  • Significative misure di trasparenza devono essere parte integrante di qualsiasi sistema di moderazione dei contenuti
  • Efficace e misure di responsabilità facilmente accessibili devono essere a posto. Ciò include una notifica che dovrebbe avvenire prima che venga intrapresa qualsiasi azione contro i contenuti segnalati o notificati e dovrebbe contenere un’adeguata spiegazione di quale regola è stata violata, come e quali passi successivi verranno intrapresi riguardo al contenuto, introducendo la salvaguardia della procedura procedurale.
  • Equità. Agli utenti dovrebbero essere fornite spiegazioni significative su come vengono identificate e applicate le violazioni delle regole.
  • E ‘la chiave per costruire un ecosistema di ricerca sostenibile sulla moderazione dei contenuti e la governance dei contenuti in Europa. Al momento, la ricerca empirica sulla moderazione dei contenuti e sulla governance dei contenuti in Europa è insufficiente. Quella poca ricerca esistente in questo settore si svolge in società private con sede negli Stati Uniti ed è raramente disponibile al pubblico.
  • Le piattaforme online devono consentire la libera espressione in modo che tutti i membri della società possano impegnarsi in sicurezza in esse, indipendentemente dal colore della pelle, dal sesso o dalle preferenze sessuali.
  • È necessario migliorare il supporto, la protezione e la formazione del personale addetto alla moderazione dei contenuti. Attualmente non esistono standard comuni sui livelli minimi di supporto, protezione e formazione per gli esseri umani nella moderazione dei contenuti online. Anche per i peggiori tipi di contenuto, abbiamo familiarità con i casi (al di fuori dell’ambito di questo studio) in cui viene fornito supporto e protezione insufficienti a tale personale. Alle piattaforme dovrebbe essere richiesto di avere uno standard di cura di base per questo personale, così come per tutti i volontari impegnati nella moderazione dei contenuti. A tal fine, dovrebbe essere creata una chiara categoria di moderatori di contenuti volontari, che definisca i diritti e le responsabilità di questo gruppo.

***

Leggi il report completo (pdf) 

Eurodeputati responsabili

Questo studio è stato commissionato da  Alexandra Geese , Marcel Kolaja , Patrick Breyer , Kim Van Sparrentak , Rasmus Andresen per conto del gruppo di eurodeputati Green / EFA Green and social economy, nell’ambito della campagna “My Content, My Rights”. Questo studio è il punto di vista degli autori e non rappresenta il punto di vista del gruppo Verdi / ALE.

I commenti sono disabilitati, ma se vuoi segnalare un errore o aggiungere un contributo, puoi scriverci su Twitter o su Mastodon

A cura di InformaPirata
A cura di InformaPirata