Contatti

Moderare senza censurare

, di Carlo Rasmus Schwarz , Rafael Jiménez-Durán
Uno studio della Bocconi sull'impatto della legge tedesca contro l'incitamento all'odio dimostra che una moderazione efficace può ridurre l'odio sia online che offline senza danneggiare il dibattito pubblico. Tuttavia, trovare un equilibrio tra sicurezza e libertà rimane una sfida cruciale per le piattaforme e i responsabili politici

Le piattaforme di social media sono diventate una componente indispensabile del dibattito pubblico. Queste piattaforme, che inizialmente promettevano di democratizzare l'accesso alle informazioni, si sono evolute in arene in cui l'impegno democratico e la tossicità prosperano fianco a fianco.

Le aziende di social media hanno compiuto sforzi per affrontare questi problemi. L'incitamento all'odio è stato ufficialmente vietato su YouTube almeno dal 2006, su Facebook almeno dal 2012 e su X (precedentemente e d'ora in poi Twitter) dal 2015. Tuttavia, sia Facebook che Twitter hanno recentemente ridotto i loro sforzi di moderazione dei contenuti, poiché la moderazione dei contenuti rimane altamente controversa. Alcuni sostengono che le piattaforme non moderano abbastanza, mentre altri temono che la moderazione soffochi la libertà di espressione e limiti il dibattito online.

Poiché i contenuti dannosi ed estremisti continuano a rappresentare rischi tangibili, i responsabili politici e le piattaforme si trovano ad affrontare una sfida cruciale: come regolamentare la libertà di espressione online senza comprometterla?

I social media a un bivio

Come su molte altre questioni, anche in materia di politiche di moderazione dei contenuti, gli Stati Uniti e l'Europa sembrano aver preso direzioni molto diverse. Mentre negli Stati Uniti, soprattutto con l'inizio dell'amministrazione Trump, la moderazione dei contenuti è stata ridotta sulla maggior parte delle principali piattaforme di social media, i legislatori europei hanno approvato sempre più leggi che obbligano le piattaforme di social media a moderare i contenuti in violazione della legislazione europea sull'incitamento all'odio. Quale direzione è più auspicabile? Per rispondere a questa domanda è necessario capire se gli sforzi di moderazione dei contenuti sono effettivamente efficaci nel frenare l'odio online e offline.

La moderazione dei contenuti funziona?

Abbiamo affrontato questa domanda in diversi progetti di ricerca che hanno generato nuove e importanti intuizioni su questa cruciale questione politica. In un recente progetto, abbiamo studiato gli effetti della “Netzwerkdurchsetzungsgesetz” (NetzDG) tedesca, uno dei primi interventi legislativi completi al mondo volti a frenare l'incitamento all'odio online. I risultati sono chiari: una maggiore moderazione dei contenuti è in grado di ridurre significativamente la prevalenza dei discorsi di odio sui social media. Ancora più sorprendente è il fatto che abbiamo anche documentato che una maggiore moderazione dei contenuti porta a una diminuzione misurabile dei crimini d'odio contro i rifugiati. Questi risultati evidenziano il ruolo che i social media svolgono nel plasmare il comportamento offline. Ricerche precedenti hanno dimostrato il legame tra i discorsi di odio online e la violenza nel mondo reale, ma lo studio sulla NetzDG fornisce prove causali dirette che le politiche di moderazione possono mitigare questi effetti offline. Ciò ha implicazioni significative per i responsabili politici che stanno valutando interventi simili in altri paesi. Nel loro insieme, questi risultati suggeriscono che la moderazione dei contenuti è in grado di raggiungere uno dei suoi obiettivi politici primari.

La moderazione dei contenuti ha distorto i dibattiti online?

Una delle preoccupazioni più persistenti riguardo alla moderazione dei contenuti è la tensione tra la limitazione dei discorsi dannosi e la preservazione della pluralità del dibattito online. I critici sostengono che politiche come la NetzDG possono incoraggiare le piattaforme a censurare eccessivamente i contenuti per paura di sanzioni finanziarie.

Nel nostro studio non abbiamo trovato prove che la legge abbia portato a un calo significativo delle discussioni politiche complessive o della varietà di argomenti trattati su Twitter. Anziché soffocare il coinvolgimento, la legge sembra aver contribuito a una più ampia inclusione delle voci nelle conversazioni online. Per molti utenti, le piattaforme con politiche di moderazione più severe possono sembrare più accessibili e meno ostili. I dati sul traffico web suggeriscono che la NetzDG abbia effettivamente aumentato il numero di utenti sulle piattaforme interessate, rafforzando l'idea che una moderazione efficace possa creare un ambiente digitale più accogliente.

I compromessi della moderazione dei contenuti

Nonostante i risultati positivi, rimangono ancora importanti questioni irrisolte sulle implicazioni più ampie delle politiche di moderazione dei contenuti. Sebbene la NetzDG abbia ridotto con successo i discorsi di incitamento all'odio e i crimini d'odio, non è chiaro se politiche simili in contesti diversi produrrebbero gli stessi risultati. Inoltre, permangono preoccupazioni circa l'effetto dissuasivo della moderazione dei contenuti. Sebbene questo studio non abbia riscontrato gravi perturbazioni nel dibattito politico, gli effetti a lungo termine sull'autocensura e sull'impegno politico meritano ulteriori approfondimenti.

In altre ricerche metodologiche, abbiamo documentato che la rimozione di contenuti tossici può effettivamente portare a distorsioni significative dei contenuti online, paragonabili alla rimozione di interi argomenti di dibattito online.

La via da seguire

Le intuizioni emerse da questi progetti di ricerca offrono uno sguardo sul potenziale di politiche di moderazione ben applicate per frenare la tossicità online e ridurre i danni nel mondo reale. Tuttavia, esse evidenziano anche la necessità di approcci sfumati che bilancino i vantaggi della moderazione con i principi fondamentali della libertà di espressione. I responsabili politici devono garantire che tali leggi siano progettate con garanzie integrate contro gli abusi e gli eccessi, in particolare in contesti in cui i governi potrebbero utilizzare la moderazione dei contenuti come strumento di repressione politica.

In definitiva, la moderazione dei contenuti non è solo una questione tecnica, ma riguarda il modo in cui definiamo e proteggiamo il dibattito democratico nell'era digitale. Se attuate con attenzione, le normative possono promuovere ambienti online più sani, preservando al contempo il vivace scambio di idee che i social media sono stati concepiti per facilitare. La sfida della moderazione dei contenuti non è se moderare, ma come farlo in modo da migliorare, anziché erodere, il dibattito pubblico.

 

CARLO RASMUS SCHWARZ

Bocconi University
Dipartimento di Economia
Rafael Jimenez-Duràn

RAFAEL JIMENEZ DURAN

Bocconi University
Dipartimento di Economia

Vai al Focus 'News media'