Intervento EUROVISIONI 2019

Roma, Villa Medici, 11 Ottobre 2019

Disinformazione ed hatespeech online. Le forme di regolamentazione delle piattaforme anche in vista del recepimento della nuova direttiva SMAV


Habermas sosteneva che «nessuno possiede a priori una verità unilaterale che possa diventare, di per sé, cioè fuori dal confronto nel dibattito pubblico, una verità per tutti», ma allo stesso tempo riconosceva la necessità di una prospettiva normativa per la convivenza tra ragione e fede fondata sull’assunzione di alcune verità basilari del pensiero religioso che si risolvono nella prevaricazione della libertà e nella rinuncia ai presupposti del pensiero razionale.

Ugualmente il tema della disinformazione impone prima di tutto un dibattito sulla questione della libertà e sui suoi limiti. Due i capisaldi da cui partire: la libertà di espressione è un valore fondamentale dell’Unione europea sancito dalla Carta dei diritti fondamentali dell’Unione europea e dalle costituzioni degli Stati membri; le nostre società democratiche e aperte dipendono dalla capacità dei cittadini di accedere a una serie di informazioni verificabili che permettano loro di formarsi un’opinione su diverse questioni politiche. Ciò consente ai singoli di partecipare con cognizione di causa ai dibattiti pubblici e di esprimere la loro volontà mediante processi politici liberi e regolari.

Ecco che allora per garantire queste esigenze, di certo non si può replicare quel modello di democrazia protetta o militante, né imporre la verità oggettiva delle notizie. L’arbitrarietà che implicitamente ne deriverebbe sarebbe estranea al concetto moderno di democrazia.

Ciononostante, il dibattito sulla disinformazione ha spesso riguardato la necessità o meno di superare i paradigmi costituzionali in materia di libertà di manifestazione del pensiero.

Probabilmente in tale discussione, su quella che potremmo definire l’etica della verità, potrebbe venirci in soccorso Karl Popper che rivendica la necessità di qualificare come illeciti («outside the law») i movimenti che predicano l’intolleranza e di perseguire penalmente l’incitamento all’intolleranza e alla persecuzione, alla stessa stregua dell’istigazione all’omicidio. Ma operando in questo modo si riesce realmente a salvaguardare la democrazia nelle società contemporanee o al contrario si rischia di sconfessare la matrice della forma di Stato democratico pluralistica?

Per cui, prima ancora di definire le regole e quel level playing field tanto invocato, a giusta ragione, dagli operatori tradizionali, occorre delineare il “campo del gioco”. Comprendere l’idea di Stato e di società su cui innestare la policy anti fake news e anti hate speech.

IL FALSO INFORMATIVO IN EUROPA

In termini pratici, occorre prima di tutto porre l’accento sulle differenti legislazioni anti fake news: queste possono però essere ritenute conformi, o comunque non in conflitto, con l’essenza della sovranità popolare?

Sembra tornare alla mente quella contrapposizione tra paradosso platonico della libertà nella prospettiva dei limiti al potere, e l’idea kelseniana di democrazia pluralistica, la quale pare poter essere salvaguardata solo rinunciando al rispetto delle sue forme essenziali.[1] Ma più concretamente vediamo quali sono stati gli strumenti finora adottati.

In Europa, diversi sono state le proposte finora vagliate per qualificare il “falso informativo”.

In Francia, l’approccio[2], pur se talvolta aspramente criticato, persino dal sindacato dei giornalisti, ha voluto proporre una visione fortemente interventista: attribuire a un giudice il potere di rimuovere una notizia entro 48 ore dal ricorso significa conferirgli il potere di «decidere sulla veridicità di notizie la cui attendibilità richiede talvolta indagini di diversi mesi».

Una soluzione severa che è apparsa troppo stringente, finanche allo stesso esecutivo che ha fortemente voluto la legge. Qualche tempo fa, infatti, per timore di infrangere la legge anti fake news, Twitter ha bloccato la campagna “Oui je vote” (sì, io voto), in occasione delle ultime elezioni europee del 26 maggio, sorta con l’intento di spingere i più giovani a non disertare le urne e a iscriversi alle liste elettorali.

Una situazione paradossale, che ha di fatto impedito al Governo promotore di quella legge, di fare la campagna elettorale.

Approccio simile si è verificato in Germania, dove la legge del 30 giugno 2017, ha imposto una attività quasi “censoria”, per di più in assenza delle garanzie di un giudice (diversamente da quanto avvenuto in Francia). Nel Paese, i contenuti oggetto da parte degli utenti di un certo numero di segnalazioni a causa della asserita falsità del loro contenuto devono essere rimossi dai social network entro 7 giorni. La discrezionalità di un simile approccio viene, però, limitata da una autorità di autoregolamentazione, di nuova istituzione, riconosciuta da un organo del Ministro della Giustizia, la quale opera d’intesa con il Ministro dell’Interno e il Ministro dell’Economia.

Volgendo lo sguardo a culture ben più lontane, non può non segnalarsi la legge approvata in Malaysia il 2 aprile 2018 e il disegno di legge governativo che era stato presentato in India nell’aprile 2018; entrambi volti a reprimere penalmente le fake news. Tuttavia, anche in questo caso il risultato non è apparso soddisfacente. La prima, infatti, è stata abrogata dopo appena sei mesi di vigenza, il secondo ritirato in seguito alla mobilitazione di ampi settori dell’opinione pubblica.

Probabilmente allora il tema deve concentrarsi su una differente visione. Come ha recentemente sostenuto la Prof.ssa Eva Lehner se “l’obiettività, l’imparzialità e la correttezza non possono essere “prescritte” in relazione alla singola notizia, ma al complesso del panorama informativo”, allora “non esiste alternativa, perché ogni tentativo di definire la nozione di falso informativo è fallace[3]. Ciò non solo sul piano teorico e linguistico, ma anche su quello della legislazione.

Non a caso, persino l’ONU, l’OSCE, l’Organizzazione degli Stati Americani (OAS) e l’African Commission on Human and Peoples’ Rights – in una dichiarazione congiunta adottata a Vienna il 3 marzo 2017 – hanno ritenuto che «divieti generici di diffusione delle informazioni basati su fattispecie vaghe e ambigue, incluse quelle relative alle “false notizie” o alle “informazioni non obiettive”, sono incompatibili con gli standard internazionali sulle restrizioni della libertà di espressione […] e dovrebbero essere aboliti».

La verità prescrittiva infatti sembra per lo più associata a scenari quasi Orwelliani. Non si tratta di un’esagerazione. In questo senso, Oltreoceano, il giudice Kennedy, nell’opinion relativa al caso Alvarez, poi recepita in motivazione dal plenum ha espressamente dichiarato che «permettere allo Stato di decretare che [talune] false dichiarazioni siano un reato, sia che vengano gridate dai tetti o espresse in un sussurro appena udibile, avallerebbe l’autorità pubblica a compilare una lista di argomenti in relazione ai quali sia punibile la falsità in sé e per sé. Si tratterebbe di attribuire allo Stato un potere in assenza di un principio che possa limitarne in modo chiaro l’esercizio. La nostra tradizione costituzionale si oppone all’idea che si abbia bisogno del Ministero della Verità di Oceania, quello immaginato da Orwell nel suo romanzo 1984». Ma se l’informazione si costruisce solo a partire da altre informazioni e se lo Stato non può chiaramente intervenire in modo stringente, se non con il rischio di dissacrare quei principi costituzionali, frutto del nostro sentire democratico, a maggior ragione, tale “potere” non può essere di certo attribuito a operatori privati.

Ecco perché la situazione appare di difficile risoluzione.

Consci dei limiti della fallace idea di poter definire il falso informativo, non è in ogni caso possibile immaginare un atteggiamento passivo. Occorre quindi adottare un approccio giuridicamente valido che possa cercare di arginare questi fenomeni.

L’occasione per riflettere su questo tema ci è fornita dal dibattito che oggi ci chiama a tratteggiare il passaggio dall’autoregolamentazione a un intervento di contrasto alla disinformazione più strutturato.

IL VENTO DI RIFORMA EUROPEO

Nell’ambito della cornice del Digital Single Market, la strategia della Commissione si è focalizzata su due aree d’intervento:

  • Aggiornare la legislazione dei servizi di media audiovisivi
  • Analizzare il ruolo delle piattaforme online nel nuovo ecosistema digitale

Del resto, la necessità di un intervento di ammodernamento è evidente in più settori.

Come risulta dalla stessa strategia per il DSM, vi sono numerosi dossier rilevanti per il settore audiovisivo (SMAV, copyright, e-commerce, fiscalità, privacy).

In tal senso, deve collocarsi l’intervento legislativo che l’Europa ha messo in campo nell’ambito del diritto d’autore. Non dimentichiamo, infatti, che in materia sono state recentemente approvate la direttiva (UE) 2019/789, che he stabilisce norme relative all’esercizio del diritto d’autore e dei diritti connessi applicabili a talune trasmissioni online degli organismi di diffusione radiotelevisiva e ritrasmissioni di programmi televisivi e radiofonici, e la dibattuta direttiva (UE) 2019/790 sul diritto d’autore e sui diritti connessi nel mercato unico digitale. Le norme Ue, infatti, riconoscono agli editori un diritto connesso sui propri contenuti, lasciando però libertà di utilizzo per le singole parole e gli «estratti molto brevi» oltre che i link agli articoli. Si tratta di disposizioni che andranno applicate a tutte le opere e altri materiali protetti dal diritto nazionale nel settore del diritto d’autore.

A tal riguardo interessante è il recepimento avviato dalla Francia, primo Stato membro dell’Unione a disciplinare un diritto a beneficio delle agenzie di stampa e degli editori, al fine di garantire una giusta retribuzione da parte delle piattaforme e dei motori di ricerca per il riutilizzo dei contenuti prodotti da terzi (Legge 2019- 775 del 24 luglio 2019). Ma la Francia sembra fare un passo in più: la quota degli introiti provenienti agli editori grazie al nuovo diritto oltreché adeguata, deve anche essere equa. Le piattaforme Internet saranno quindi direttamente responsabili dei contenuti caricati sul loro sito, dando automaticamente agli editori il diritto di negoziare accordi.

Un intervento a cui non sono mancate polemiche. Google ha deciso infatti di non pagare gli editori francesi per mostrare l’anteprima dei loro articoli nei risultati del suo motore di ricerca, ma piuttosto di presentare solo i titoli. Una presa di posizione molto pericolosa per i titolari dei diritti messi alle strette tra la concessione gratuita dei contenuti e la penalizzazione dovuta alla minore visibilità.

Opposto all’intervento francese si colloca invece la Polonia, da sempre contraria al provvedimento, che si è rivolta alla Corte di giustizia Ue dichiarando che la direttiva introduce forme di censura preventiva. In questo caso, però, a essere contestata sarebbe la parte sulla responsabilità delle piattaforme di condivisione per contenuti protetti e non quella sui diritti degli editori.

Quanto alla direttiva SMAV, la Commissione europea ha proposto una modernizzazione con l’intento di riflettere i cambiamenti del mercato, dei consumi e tecnologici nel settore audiovisivo.

La nota esplicativa che ha accompagnato la proposta della Commissione sottolineava che, nonostante la trasmissione “tradizionale” rimanga salda, gli spettatori accedono sempre più ai contenuti audiovisivi (compresi quelli generati dagli utenti) su richiesta e mediante dispositivi connessi e, a loro volta, nuovi lettori online (ad esempio video provider on demand e piattaforme di condivisione video) competono sempre più con le emittenti.

LA SMAV E IL SUO REFIT

Sono trascorsi ben vent’anni dall’emanazione della direttiva “televisioni senza frontiere”, che, come noto, nel 1989 è intervenuta nel settore dei servizi audiovisivi, ancora frammentato, con l’intento di facilitare la creazione di un mercato unico e quindi la loro diffusione transfrontaliera.

Sicuramente un primo passo, quello compiuto nello scorso ventennio, ma non sufficiente soprattutto perché messo a dura prova dalla facoltà, riconosciuta ai singoli Stati membri, di adottare misure restrittive con lo scopo di tutelare esigenze imperative legate all’interesse generale.

La tutela di obiettivi culturali quali la diversità linguistica, il pluralismo dei media e l’equa ripartizione delle risorse, la tutela dei minori e dei consumatori, purché idonee e proporzionate allo scopo, hanno amplificato le differenze legislative nell’Unione, oggi chiamata nuovamente a intervenire. Non è bastato infatti l’intervento di “restyling” della direttiva originaria dell’89 (quello avvenuto con la direttiva n. 2010/13/UE) a colmare quelle differenze ormai annidatesi nel sistema normativo dei singoli Stati membri.

In un contesto sempre più transnazionale, la crescente esigenza di garantire uguali regole del gioco si è fatta più pressante.

Ciononostante, il percorso per il refit della direttiva SMAV si è comunque rivelato lungo e incerto: dall’adozione della proposta iniziale del maggio 2016 alla concreta realizzazione e condivisione del testo finale è infatti trascorso più di un anno e mezzo e, come noto, solo a fine novembre 2018 si è addivenuti alla pubblicazione sulla Gazzetta Ufficiale. La proposta della Commissione ha seguito un processo di revisione lungo ben tre anni e iniziato con la consultazione sul Libro verde sulla preparazione per un mondo audiovisivo convergente dell’aprile 2013.

Oggi, però, il termine per il recepimento da parte dei singoli Stati membri si avvicina e, sebbene il 19 settembre 2020 non sia più così lontano, i progressi in tal senso stentano.

Se ci guardiamo intorno possiamo segnalare la chiusura di una serie di consultazioni pubbliche in Germania e l’avvio, nel Regno Unito, su come implementare le nuove regole per le piattaforme di condivisione video; mentre il governo irlandese ha pubblicato un’analisi dei risultati della sua recente consultazione pubblica e quelli di un’indagine di un comitato consultivo sono stati presentati anche in Svezia. In Francia, invece, si discute sull’opportunità di imporre obblighi di investimento ai fornitori di servizi VOD (compresi quelli che si rivolgono al pubblico francese di altri Stati membri) in linea con gli obblighi che attualmente si applicano ai canali TV. 

Nel nostro Paese, le recenti vicende politiche hanno rallentato il dibattito. Secondo la timeline della precedente legislatura, il recepimento della direttiva AVMS avrebbe dovuto essere incluso nella legge di delegazione europea per il 2019, atto, come noto, in base al quale il Parlamento delega al governo l’adozione di un decreto legislativo per recepire le leggi europee senza richiedere l’approvazione del Parlamento.

Ciononostante, preme comunque rimarcare come alcune disposizioni della direttiva sono state già attenzionate a livello nazionale. La quota del 30% e i c.d. obblighi di preminence per i servizi VOD, nonché gli obblighi in materia di investimento imposti ai fornitori di servizi VOD stranieri sono stati già attuati con decreto (convertito in legge lo scorso agosto), la cui entrata in vigore è prevista per il prossimo gennaio 2020.

Per ottenere condizioni di parità migliori tra la televisione lineare e i servizi di media audiovisivi su richiesta, infatti, la nuova direttiva n. 2018/1808 ha imposto più regole a questi ultimi servizi su richiesta, prevedendo le c.d. EU works quotas anche a carico di questi, nonché obblighi più rigorosi per proteggere i minori e alcune restrizioni aggiuntive sulla pubblicità degli alcolici.

Certamente un passo avanti significativo, considerando che, pur non essendo tecnicamente qualificabili come “servizi di media audiovisivi”, le piattaforme di condivisione di video finiscono per entrare nel campo di applicazione della direttiva.[4]

Tuttavia, se lo scopo, tra gli altri, è quello di arginare contenuti illegali e comunque pregiudizievoli, ma anche di rendere maggiormente equilibrato il rapporto con i mezzi di diffusione tradizionali di SMAV, probabilmente si poteva fare di più, almeno in termini di parità di regole del gioco.

Vero è che, ad esempio, sul fronte della protezione dei minori, la direttiva estende il divieto di sponsorizzazione di prodotti dannosi per la salute e del teleshopping anche alle piattaforme online(come già avviene per le tv) e proibisce la diffusione di contenuti pedopornografici, violenti, di incitamento all’odio e terroristici anche nelle piattaforme di videosharing. Tutti i servizi (lineari e non lineari) dovranno poi realizzare un sistema di segnalazione e rimozione dei contenuti pericolosi.

Tuttavia, i servizi di televisione lineare rimangono ancora vincolati da alcune restrizioni aggiuntive (ad esempio un limite di tempo pubblicitario e obblighi a favore di produzioni indipendenti dell’Unione) e quote più elevate per le opere europee.

IL BINOMIO DISINFORMAZIONE HATE SPEECH: QUALI SOLUZIONI?

In chiave critica, spiace constatare come la questione della “disinformazione”, con il connesso tema del pluralismo dell’informazione sia stata scarsamente considerata nell’ambito del refit della direttiva SMAV.

Ciò, nonostante le sollecitazioni intervenute sia dal Parlamento europeo (non dimentichiamo, ad esempio, da ultimo la Risoluzione del Parlamento europeo del 3 maggio 2018 sul pluralismo e la libertà dei media nell’Unione europea) sia dai Gruppi di lavoro creati dalla Commissione (si pensi all’High-Level Group on Media Freedom and Pluralism, creato nel 2011).

Certo, la repressione di questo insidioso fenomeno richiede un delicato bilanciamento che implicitamente chiede di valutare se, e come, la libertà di manifestazione del pensiero possa subire restrizioni riconducibili all’ordine pubblico, inteso in senso squisitamente ideale. Una considerazione questa che impone una valutazione intrinseca sul significato da attribuire al limite dell’ordine pubblico.

Il problema posto in questi termini rende ancor più difficile l’utilizzo di quegli strumenti di soft law (come il Codice anti fake news oppure quello anti hate speech) che, come prefigurati dalla Commissione europea, finirebbero per delegare alle Internet platforms forme di bilanciamento della libertà di espressione online. Per tale ragione un intervento più marcato nel refit della direttiva SMAV sarebbe stato sicuramente più apprezzato.

Se infatti guardiamo agli strumenti di auto o coregolamentazione esistenti scorgiamo più di un limite. Il Code of Practice on Disinformation (c.d. Codice anti fake news), ad esempio, che costituisce la diretta propagazione della comunicazione “Tackling online disinformation: a European approach”, frutto a sua volta del report “A multi-dimensional approach to disinformation”, riunisce su base volontaria alcuni dei più importanti attori del mondo digitale e tenta di delineare una serie di principi comuni che possano orientare l’azione di questi soggetti privati nel contrasto alla diffusione di fake news. Il limite in questo caso non è solo quello di rimettere a privati, su base coregolamentare, l’applicazione di una strategia anti fake news, ma anche di avere uno scarso effetto coercitivo, tenuto conto anche della piena libertà per ogni firmatario di ritirare la propria adesione al Codice o ad ogni suo specifico impegno, mediante notifica alla Commissione e agli altri aderenti.

In attesa di interventi più strutturati a livello europeo, anche Agcom ha proposto una soluzione coregolamentare, al fine di tutelare il pluralismo informativo, e ha avviato un percorso di moral suasion per le piattaforme digitali, con l’istituzione del “Tavolo tecnico per la garanzia del pluralismo e della correttezza dell’informazione sulle piattaforme digitali”.[5]

È stata così costituita una sede istituzionale di confronto finalizzata a favorire forme di autoregolamentazione delle piattaforme digitali e lo scambio di buone prassi per il contrasto dei fenomeni di disinformazione online.

Sul fronte della lotta all’hate speech, il considerando n. 45 della direttiva SMAV, segnala la necessità di stabilire norme proporzionate, anche per le piattaforme per la condivisione di video, volte a proteggere i minori e il grande pubblico da contenuti nocivi e discorsi di incitamento all’odio. “Nuove sfide si presentano, in particolare in relazione alle piattaforme per la condivisione di video, su cui gli utenti, in particolare i minori, fruiscono in misura crescente di contenuti audiovisivi.” Questo l’incipit del considerando che trova poi adeguata collocazione nella parte dispositiva dell’atto normativo.

La soluzione individuata dal Legislatore europeo preme su una azione condivisa: da un lato incoraggiare la coregolamentazione, dall’altro continuare a permettere ai fornitori di piattaforme per la condivisione di video la possibilità di adottare misure più rigorose su base volontaria, conformemente al diritto dell’Unione e nel rispetto della libertà di espressione e informazione nonché del pluralismo dei media.

Il considerando n. 47 della direttiva, infatti, afferma che i gestori di tali servizi dovrebbero «essere tenuti ad adottare le misure appropriate per tutelare il grande pubblico dai contenuti che istigano alla violenza o all’odio nei confronti di un gruppo o di un membro di un gruppo per uno dei motivi di cui all’articolo 21 della Carta dei diritti fondamentali dell’Unione europea o la cui diffusione costituisce reato ai sensi del diritto dell’Unione».

La direttiva ha voluto rafforzare la possibilità di imporre obblighi di vigilanza alle piattaforme digitali di condivisione di video proprio in materia di hate speech.

Pur consapevoli che il confronto continuo tra il livello nazionale e il livello europeo non può limitarsi all’elaborazione della norma, ma deve attivarsi anche nella fase della sua concreta applicazione, in attesa del recepimento, è comunque utile iniziare a interrogarsi sull’efficacia del disposto in esame.

Da un lato deve segnalarsi sicuramente il superamento di un limite notevole della direttiva n. 2010/13/UE, propagatrice di una protezione limitata al settore radiotelevisivo tradizionale, che oggi, invece, la direttiva n. 2018/1808 estende anche ai programmi trasmessi attraverso i nuovi canali messi a disposizione dallo sviluppo tecnologico (e in particolare con riferimento ai servizi di video a richiesta e alle piattaforme per la condivisione di video e i contenuti audiovisivi dei social network).

Tuttavia, la previsione di un’armonizzazione minima che rimette agli Stati membri adozione di misure volte a fornire un livello più elevato di protezione, rischia di aumentare quella frammentazione normativa che nel mondo transnazionale della Rete costituisce un serio problema ai fini della tutela effettiva, senza contare le difficoltà applicative. I meccanismi di soft law, infatti, come è stato già rilevato, sono in linea di principio privi di effetti nei confronti dei soggetti comunque interessati, ma formalmente non coinvolti nella redazione del codice di coregolazione e di autoregolazione.

Dall’altro, non si può certo sorvolare sulla difficoltà di definire concretamente i contenuti d’odio o comunque ritenuti nocivi, i quali risentono dei valori morali che risultano caratterizzati da una certa soggettività di apprezzamento e che appaiono fortemente influenzati dalle diverse tradizioni etico-culturali.

L’auto o coregolamentazione costituiscono mezzi supplementari certamente efficaci, ma non del tutto sufficienti.

Ne sono prova i risultati derivanti dall’ultimo rapporto sull’applicazione del Codice di condotta per contrastare i discorsi d’odio illegali online, sottoscritto nel maggio 2016, dalla Commissione europea e dalle maggiori piattaforme di social media (Facebook, Twitter, YouTube e Microsoft).

Nel report pubblicato a febbraio 2019, le aziende coinvolte hanno rimosso in media il 71,7% dei contenuti segnalati dagli utenti e dalle organizzazioni della società civile. Certo i casi di rimozione sono cresciuti costantemente dal maggio 2017 al dicembre 2018 (data dell’ultima elaborazione dei valori), ciononostante sussistono delle differenze nazionali rilevanti: le percentuali di rimozione dei contenuti vanno dal 38% del Portogallo al 100% di Cipro. Differenze si segnalano anche tra le piattaforme: Twitter ad esempio è piuttosto lento o restio a rimuovere contenuti, dando seguito a solo il 43,5% delle segnalazioni.

Del resto, come indica l’Unesco, i discorsi d’odio su internet sono contraddistinti da alcune caratteristiche che li rendono più sfuggenti: l’anonimato dei loro autori; la permanenza, ovvero la capacità dei messaggi d’odio di restare online nel tempo; l’itineracy, cioè la capacità di propagarsi in piattaforme ed ambienti diversi da quelli dove i messaggi sono stati creati; il carattere intergiurisdizionale e transnazionale dei contenuti e delle piattaforme che li ospitano.

Una difficoltà ampiamente condivisa anche da altre istituzioni. A livello nazionale, Agcom, in materia di hate speech e nelle more della trasposizione della nuova direttiva – che, come ricordato, estende alle piattaforme di condivisione di video online taluni obblighi in materia – ha approvato (con delibera 157/19/CONS) nel maggio 2019, il Regolamento recante disposizioni in materia di rispetto della dignità umana e del principio di non discriminazione di contrasto all’hate speech. Nell’atto sono contenuti i principi e le disposizioni cui devono adeguarsi i fornitori di servizi media audiovisivi e radiofonici soggetti alla giurisdizione italiana nei programmi di informazione e intrattenimento per assicurare il rispetto della dignità umana e del principio di non discriminazione e contrasto alle espressioni di odio. L’intervento è chiaramente rivolto agli operatori tradizionali, circostanza legata al quadro legislativo vigente. In attesa del recepimento della nuova SMAV, infatti, le norme primarie che delimitano l’area di competenza dell’Autorità non consentono, allo stato, interventi regolatori aventi a oggetto i contenuti diffusi sulle piattaforme per la condivisione di video.

Tuttavia, a ben vedere, Agcom non trascura completamente il mondo del web. La scelta è quella di istituire una sorta di doppio binario: per i contenuti audiovisivi si prevede una potestà di intervento diretto dell’Autorità, mentre per Internet si opta per il coinvolgimento delle piattaforme digitali mediante la codeterminazione di codici e protocolli di condotta. L’intento infatti è quello di gettare un ponte tra operatori tradizionali e non, con l’auspicio di una prossima unificazione del modello di intervento.

CONCLUSIONI

Affidare alle grandi multinazionali di Internet la potestà di decidere su cosa deve o non circolare nella pubblica arena solleva molti interrogativi dal punto di vista del rispetto della tradizione costituzionale. In dottrina c’è chi ha ritenuto che una simile operazione «costituirebbe un’illegittima violazione della libertà di informazione»[6].

Per risolvere allora l’annoso problema e cercare un bilanciamento tra le diverse esigenze, sembra più utile innanzitutto definire la ratio del possibile intervento, che richiede necessariamente di accantonare finalità di controllo o repressione sui contenuti. In questo caso, infatti, il rischio potrebbe essere quello di sfociare in forme di censura o eccessi autoritari. Più opportuno sarebbe ispirarsi a quelle regole di lealtà, correttezza e trasparenza sui mezzi.[7] Tale visione, infatti, consentirebbe di salvaguardare quei principi liberali tutelati dalla nostra Costituzione.

Il tema quindi riguarda il tipo di approccio da adottare: a censure e oscuramento delle opinioni (che andrebbero comunque limitati nel rispetto delle garanzie ordinamentali previste per la libera manifestazione del pensiero) sembra di gran lunga preferibile l’imposizione, a carico delle piattaforme, di doveri di trasparenza, correttezza, lealtà e informazione verso gli utenti[8].

Un passo importante per garantire le tutele costituzionali. Tuttavia, pur poste queste basi, restano ancora aperte delle questioni, di non semplice risoluzione, che vorrei sottoporre all’attenzione di coloro che interverranno nel panel.

In primo luogo, un quesito preliminare riguarda la necessità o meno di introdurre nuovi limiti alla libertà di espressione.

Accedendo alla prima ipotesi, ne potrebbe però conseguire una sorta di involuzione di tutele.

Nella seconda ipotesi, invece, occorrerebbe stabilire con maggior rigore “comandati e comandanti”. Affidare, infatti, funzioni di controllo e vigilanza a operatori privati, come sinora prospettato concorrerebbe a generare più di una perplessità. Vero è che il regime di coregolamentazione consente di limitarne il potere, ma non possiamo dimenticare che questi soggetti operano in virtù di logiche legate al profitto.

In altri termini, come ho recentemente letto in un interessante saggio[9], dobbiamo chiederci se la libertà di espressione ha davvero bisogno di nuove custodie e nuovi custodi? Possiamo dunque affidare, in modo così approssimativo, a Google&co. quel rinnovato ruolo che i miti greci affidavano alle nove Eliconie (muse), custodi della cultura e delle arti?[10] Del resto, riadattando un vecchio adagio di Kant, prima di valutare se una soluzione è esatta si deve valutare se la domanda è corretta![11]


[1] Kelsen riteneva che la democrazia pluralistica fosse fondata sulla centralità dell’individuo e quindi sul concetto di autodeterminazione individuale e collettiva. In tal senso propugnava il rigetto di ogni concezione funzionalistica della libertà di manifestazione del pensiero (cfr. H. KELSEN, Forme di governo e concezioni del mondo (1933), trad. it. in C. GERACI (a cura di), Il primato del parlamento, Milano, 1982, 37 ss., 56). «Rispetto allo Stato, allo svolgimento della vita dello Stato, il diritto così riconosciuto a volte apporterà dunque bene, a volte male, a volte rafforzerà un regime, a volte ne corroderà le basi e ne preparerà la fine»; «Non la democraticità dello Stato ha per conseguenza il riconoscimento di quella libertà, sicché possa determinarne la funzione e i limiti […]. Le ragioni ideali del riconoscimento di quella libertà (e cioè il valore della persona umana) porta tra le tante conseguenze anche alla affermazione dello Stato democratico» (cfr. C. ESPOSITO, La libertà di manifestazione del pensiero nell’ordinamento italiano, Milano, 1958, 20).

[2] Si tratta di progetto di legge ordinaria per le elezioni parlamentari (“Proposta di legge sulla lotta alle false informazioni”, n. 799 del 21 marzo 2018); l’altro è un progetto di legge organica per le elezioni presidenziali (“Proposta di legge organica sulla lotta alle false informazioni”, n. 772 presentata il 16 marzo 2018).

[3] E. Lehner, Fake news e democrazia, in Rivista di diritto dei media n. 1/2019.

[4] Cfr. il nuovo Capo IX bis della Direttiva SMAV, introdotto dall’art. 1 della direttiva 2018/08 rubricato

“Disposizioni applicabili ai servizi di piattaforma per la condivisione di video”.

[5] Il Tavolo è stato istituito il 16 novembre 2017 ha istituito con la delibera n. 423/17/CONS.

[6] F. DONATI, Fake news e libertà di informazione, in Medialaws, 2, 2018, 444

[7] M. CUNIBERTI, Potere e libertà nella rete, in Medialaws, 3, 2018, 60-1.

[8] In tal senso C. MAGNANI, Il Regolamento dell’Agcom sull’hate speech: una prima lettura, in Forum Quaderni Costituzionali.

[9] C. MAGNANI, Il Regolamento dell’Agcom sull’hate speech: una prima lettura, in Forum Quaderni Costituzionali.

[10] Le Muse (o Eliconie, dal nome del monte Elicona dove vivevano, o Pieridi, perché nate appunto in Pieria, ai piedi del monte Olimpo) erano nove ed ognuna era associata ad un particolare aspetto dell’arte e del sapere.

  • Calliope, la musa dalla bella voce che con il suo stilo e la tavoletta di cera rende eterna la poesia epica.
  • Clio, la musa della Storia che siede con una pergamena in mano.
  • Euterpe, la musa che suona il flauto e rallegra con la poesia lirica.
  • Erato, la musa della poesia corale e amorosa.
  • Melponene, la musa della Tragedia, ritratta con maschera, spada e il bastone di Eracle (o Ercole).
  • Polimnia, “colei che ha molti inni”, la musa degli inni religiosi e dell’oratoria.
  • Talia (o Thalia), la musa della Commedia che indossa la maschera comica e una ghirlanda d’edera.
  • Tersicore, la musa della danza e Urania, la musa dell’astronomia con il globo in mano.

[11] Kant diceva che “prima di valutare se la risposta è esatta si deve valutare se la domanda è corretta”.

Condividi questo articolo: