Libertà di espressione su Internet: fake news, hate speech e responsabilità della piattaforma elettronica

Consiglio dell'ordine degli avvocati, 27 Aprile 2018

Intervento dell’On. Dott. Antonio Martusciello

Commissario Agcom

27 aprile 2018, ore 15.30

Consiglio dell’Ordine degli Avvocati

Piazza De Nicola Enrico, 1 – Sala della Biblioteca

Bari

PREMESSA: LO SCENARIO

“La mia libertà finisce dove inizia la tua”. È con queste parole di Martin Luther King che vorrei partire per confrontarci su un tema particolarmente delicato come quello della libertà di espressione su Internet.

Un precetto, quello di King, che trae origine dal precetto classico per il quale «Iuris praecepta sunt haec: honeste vivere alterum non laedere, suum cuique tribuere»[1] e che assume rinnovata attualità nel contesto attuale, in cui questa stessa libertà viene utilizzata come strumento per giustificare comportamenti denigratori, sapienti accostamenti di titoli, immagini ed espressioni ovvero studiate e decisive omissioni volte a mettere in crisi la corretta formazione del pensiero critico.

Già da queste prime battute è evidente come spesso si confonda quella libertas philosophandi teorizzata da Spinoza con l’informazione ispirata ai principi di obiettività, completezza, lealtà e imparzialità.

Questioni, queste ultime, centrali in considerazione del nuovo assetto posto dal digitale. Il mondo dell’informazione è soggetto a una radicale e crescente trasformazione, che sta rapidamente coinvolgendo forme di consumo, modelli di business, modalità di generazione, composizione e offerta del prodotto informativo, fino ad arrivare alla natura stessa della professione giornalistica.

Dal lato della domanda, si evidenziano modalità di fruizione differenti rispetto a quelle tradizionalmente conosciute. Se nell’informazione classica, ci si trovava dinanzi a un attore, piuttosto passivo, di un sistema consolidato, in quella attuale, i cittadini hanno, di converso, un ruolo sempre maggiore. Questi partecipano alla generazione delle notizie, in quello che assume le fattezze del citizen journalist, sia perché con le tecnologie comunicative, quali tablet, smartphone, anche gli users possono produrre materiale di interesse giornalistico, sia perché, con l’avvento delle piattaforme di condivisione sociale, essi possono attivamente partecipare al dibattito. Questi poi sono posti in una posizione spesso privilegiata se consideriamo che essi, attraverso la “viralità” delle comunicazioni in rete, diventano potenziali amplificatori delle news.

Dal lato dell’offerta, la copiosità dell’offerta (gratuita) di informazione sul web, attraverso anche l’intermediazione delle piattaforme online, genera fallimenti del mercato sia per la difficoltà di stimolare il pagamento da parte degli utenti per i contenuti fruiti, sia per l’acquisizione di quote di fatturato pubblicitario con le piattaforme di aggregazione, ricerca e condivisione. Un sistema che rischia di innescare una spirale tesa a una drammatica riduzione delle risorse per gli editori tradizionali, a cui vengono a mancare i fondi necessari per produrre e stimolare un’informazione di qualità.

Il Rapporto “Journalism, media and technologies trends and prediction 2018[2], realizzato da Nic Newman per conto del Reuters institute for the study of journalism, ha rilevato che il 55% degli editori del campione analizzato è fortemente preoccupato dello strapotere delle web company. Questi percepiscono aziende, quali Twitter, Facebook e Google, “come una delle più grandi minacce per il 2018”.

Anche se può sembrare un paradosso, si può in sostanza affermare che il rovescio della medaglia della moltiplicazione delle fonti derivante dal digitale sia quello di una minore quantità di risorse a disposizione per produrre contenuti originali e di qualità. In questo senso, il pluralismo rischia di essere solo “quantitativo”, laddove esso deve, per sua stessa natura, essere anche “qualitativo”.

La sfida del futuro quindi non è avere maggiore informazione, ma è avere più qualità.

Le ragioni di tanto clamore: il consumo di informazione in Italia

In questo contesto, un primo aspetto da considerare è quindi quello dell’accesso ai mezzi di informazione. Secondo gli ultimi dati rilevati dall’Autorità nell’ambito del Rapporto sul consumo di informazione (pubblicato lo scorso febbraio), a questi vi accede il 97% della popolazione. Tuttavia, esso costituisce solo un prerequisito per potersi dire effettivamente compiuto il processo informativo.

Secondo aspetto è quello legato all’accesso alle news. Al riguardo, i dati risultano altrettanto incoraggianti: esso viene operato da quasi il 95% degli italiani.

Terzo elemento riguarda la fonte più rilevante da cui reperire notizie: sebbene la tv resti quella principale per i cittadini italiani (48.2%), Internet si colloca al secondo posto, con il 26.3%, mentre solo il 17.1% conferisce ai quotidiani un ruolo prioritario e ancor più scarna è valutazione circa la radio 8.4%.

Si tratta di dati significativi, che consentono alcune considerazioni. Sicuramente dimostrano la pervasività del mezzo Internet, ma soprattutto permettono di concludere che il consumo di informazione per più di un terzo della popolazione può avvenire in modo disintermediato, mediante modalità (si pensi ai social network) in cui le notizie sono confuse con altre informazioni, e contemporaneamente ad altre attività.

Certo non possiamo ritenere che l’informazione online sia costituita solo dai social.

Dobbiamo infatti precisare come esista una vasta pluralità di fonti che si differenziano per tipologia di editore (tradizionale, nativo digitale), fase nella catena produttiva e distributiva dell’ecosistema informativo (editori, blog, piattaforme), modalità di diffusione (editoriale e algoritmica).

Nell’ambito di questa differenziazione, però, è innegabile che l’incidenza delle fonti c.d. algoritmiche sia importante. L’analisi delle fonti digitali attraverso cui i cittadini si informano mostra la forte presenza delle piattaforme digitali nella dieta mediale dei cittadini, accompagnata da una minore presenza dei marchi editoriali

Gli algoritmi infatti informano ben il 54,5% della popolazione (è questa la percentuale di italiani che si informa attraverso social network, motori di ricerca, aggregatori, in generale le piattaforme digitali), a fronte del 39% raggiunto da siti web e applicazioni degli editori.

Ebbene quale conclusione possiamo trarre da questi dati? In via complessiva, esaminando la totalità dei mezzi di comunicazione (classici e online), i motori di ricerca e social network rappresentano rispettivamente la terza e la quarta fonte più importante per reperire notizie.

Ecco che allora, consci dell’incidenza di questi strumenti tra la popolazione, è chiaro come la possibile distorsione del sistema, attraverso la diffusione di notizie false, sia capace di suscitare un dibattito che coinvolge, non solo l’opinione pubblica, ma soprattutto centri di ricerca e istituzioni a livello internazionale.

Già, cinque anni fa, il World Economic Forum aveva dichiarato come la diffusione di disinformazione attraverso i social media fosse uno dei più grandi rischi globali verso il nostro futuro e la nostra prosperità e oggi questa previsione pare quanto mai verificata.

 

Basta parlare di fake news!

Se solo poco tempo fa, il termine “Fake news” non era un usato da molte persone, nel 2017, questo è stato eletto parola dell’anno dal Collins Dictionary[3] che lo ha definito come un’informazione falsa, spesso sensazionale, diffusa sotto le spoglie del giornalismo. Anche il Cambridge Dictionary, fornisce una definizione simile, evidenziando però un concetto che non può essere separato dal mezzo che lo alimenta (“False stories that appear to be news, spread on the internet or using othermedia, usually created to influence political views or as a joke”).

Certo non possiamo negare che un tale fenomeno era già conosciuto anche su altri mezzi di informazione, o ancora nella storia più remota.

Tuttavia, è con l’avvento delle piattaforme digitali che la manipolazione dell’informazione ha assunto una nuova portata sia in termini di dimensioni del fenomeno, sia in termini di capacità di condizionamento dell’opinione pubblica, dinanzi alla quale siamo ancora giuridicamente inermi.

L’inapplicabilità di regole sulla responsabilità editoriale e, quindi, di quei canoni di correttezza e professionalità giornalistica, consente di registrare un aumento sempre crescente della diffusione di notizie false e tendenziose da parte di siti e altre fonti che operano intenzionalmente con l’obiettivo di condizionare l’opinione pubblica, soprattutto in occasione di appuntamenti elettorali.

Non dimentichiamo che l’art. 3, Protocollo I, della Convenzione dei diritti dell’uomo, sancisce anche un diritto a delle libere elezioni, che può essere garantito solo se l’elettorato si forma su un’informazione libera. Ma per raggiungere ciò si pone la necessità di distinguere, non solo tra notizie verificate e non, ma anche, all’interno di queste ultime, tra quelle false, superficiali o pilotate allo scopo di attirare audience.

Ecco che allora, riprendendo le considerazioni del rapporto del Consiglio d’EuropaInformation Disorder Toward an interdisciplinary framework for research and policymaking”, pubblicato a settembre dello scorso anno,[4] dobbiamo rilevare come vi sia un’erronea concezione del fenomeno fake news, almeno dal punto di vista lessicale.

È infatti riduttivo relegare la questione solo a queste: l’inquinamento informativo non consta esclusivamente di notizie false. Oltre alla mis-information, che si verifica quando queste notizie sono condivise con l’intento di non apportare alcun danno; e alla dis-information, quando le notizie false vengono consapevolmente condivise per causare danni, si affianca quella mal-information, che si riscontra quando invece notizie tendenzialmente autentiche vengono manipolate e condivise per provocare danni, (come avviene per l’hate speech e i leaks, ossia quelle indiscrezioni destinate a divenire diventano).

Non a caso un paper[5], pubblicato recentemente sulla Rivista in Journalism Studies, ha rilevato come, su un esame di 34 articoli accademici che utilizzavano il termine “notizie false” tra il 2003 e il 2017, ciascuno di essi le abbia definite seguendo punti di vista differenti: da quelle di satira, alla parodia, a quelle con intenti manipolativi, fino alla pubblicità e alla propaganda.

Più ampiamente quindi dovremmo discutere di “information disorder”, in modo da descrivere tutte le sfaccettature di cui può essere vittima la comunicazione online. Anche il report, pubblicato lo scorso marzo, dall’High level Group della Commissione Europea, su fake news and online disinformation, piuttosto che di fake news, ha ritenuto più corretto parlare di disinformazione, definita come un’“informazione falsa, inesatta o fuorviante progettata, presentata e promossa a fini di lucro o per causare intenzionalmente danno pubblico o per profitto”. Non si tratta solo di una questione terminologica, il rischio è quello di semplificare eccessivamente un problema molto complesso.

 

Quale approccio verso il fenomeno?

Conquistare il contenuto delle notizie rappresenta solo un aspetto della questione, cui segue la conquista dell’attenzione degli utenti e infine quella delle menti.

Più praticamente questo processo si fonda su alcune faglie, su elementi di vulnerabilità dell’informazione. Se pensiamo ai social, rileviamo come questi siano i principali portatori di questo fenomeno, ma perché?

Sicuramente per la loro funzione: essi infatti in quanto aggregatori di diverse fonti, ostacolano il lettore nel source-checking, con la conseguenza che ci si focalizzi più sulla storia che sulla fonte.

Un ulteriore elemento riguarda le modalità di funzionamento, ossia la selezione su cui si articola l’offerta informativa fondata su notizie che amici e contatti hanno condiviso o sulla base degli algoritmi.

La conseguenza è che se gli utenti ritengono che sia troppo costoso cercare e convalidare informazioni da fonti diverse, potrebbero fare affidamento su informazioni distorte che corrispondono ai loro preconcetti, favorendo potenzialmente i lock-in ideologici.

Secondo Filippo Menczer, del Center for Complex Networks and Systems Research (CNetS), la disinformazione online segue la struttura della rete e tende a polarizzare l’aggregazione di informazioni e di persone. In questo modo nascono quelle “echo chambers”, in cui agli utenti sono presentate in maniera amplificata soltanto le notizie che già riflettono le opinioni e preferenze politiche favorite in base a quelle scelte in precedenza o ad altri parametri di personalizzazione. La conseguenza è che le narrazioni rischiano di essere autoreferenziali e l’informazione polarizzata.

Uno studio svolto da Agcom, sempre nell’ambito del Rapporto sul consumo di informazione online, ha mostrato come coloro che presentano un più alto tasso di polarizzazione esibiscono un deciso aumento della frequenza di tutte le azioni informative svolte nei social, incluse quelle con un maggior grado di coinvolgimento attivo (postare proprie foto e video di una notizia e partecipare alla discussione su una notizia).

Ecco perché fenomeni come quelli di cronaca più recente – come il caso Facebook-Cambridge Analytica – scuotono con preoccupazione le istituzioni politiche e i regolatori. L’elaborazione dei dati personali degli utenti con modelli e algoritmi consente di delineare “profili psicometrici”, usati per creare pubblicità e propaganda politica estremamente personalizzata, in grado di aumentare notevolmente le possibilità di convincere gli elettori a votare un determinato candidato, e mettere a rischio i sistemi democratici.

Del resto, la raccolta smisurata di dati ha un impatto significativo su tre aspetti in particolare:

  • diritti delle persone connessi all’utilizzo delle informazioni personali (Privacy)
  • diritto di accesso all’attività d’impresa, e possibilità di libera scelta per i consumatori (Concorrenza)
  • diritto dei cittadini a essere informati (Pluralismo informativo)

Ed ecco perché l’evoluzione del fenomeno disinformativo necessita sempre più di un approccio «olistico» che tenga in considerazione in maniera coordinata e complessiva l’insieme dei diritti in gioco.

In tal senso, lo scorso 30 maggio, Agcom, unitamente all’Agcm e al Garante Privacy hanno avviato un’indagine conoscitiva congiunta riguardante l’individuazione di eventuali criticità connesse all’uso dei Big Data e la definizione di un quadro di regole in grado di promuovere e tutelare la protezione dei dati personali, la concorrenza dei mercati dell’economia digitale, la tutela del consumatore, nonché i profili di promozione del pluralismo nell’ecosistema digitale.

L’indagine intende, tra l’altro, esaminare le modalità di approvvigionamento e diffusione delle notizie, collegate a intermediari digitali, quali social network e motori di ricerca.

Dalle ultime risultanze emerse, a seguito delle audizioni finora effettuate[6], sono svariati gli ambiti impattati da questo sistema quali: la trasparenza e la neutralità degli algoritmi realizzati per il trattamento dei dati (personali e non personali) e la determinazione dei prezzi, la regolamentazione delle piattaforme online, la normativa in materia di numerazione e gli obblighi in tema di comunicazioni elettroniche, ma anche i temi oggi trattati come la libertà di informazione, il pluralismo delle fonti informative, oltre che la tutela della proprietà intellettuale, l’intera catena del valore del mercato pubblicitario online.

 

Il ruolo di Agcom: tra difficoltà e iniziative concrete

È evidente che nella prospettiva dell’Autorità per le Garanzie nelle Comunicazioni, l’information disorder assume una notevole rilevanza. Da un lato, l’Autorità è il soggetto istituzionalmente preposto dalla legge n. 249 del 1997 sia alla garanzia dell’affidabilità e imparzialità dell’informazione, sia alla tutela del pluralismo; dall’altro, in base sempre al mandato istitutivo, essa applica detti principi sui mezzi di comunicazione, essendo questi fonte primaria da cui i cittadini attingono le notizie. Ciò anche nel suo significato di parità delle condizioni di accesso ai mezzi di informazione (par condicio) per le formazioni politiche che competono nell’arena pubblica, su tutti i medium, comprese le piattaforme digitali.

Attraverso la televisione, la radio, i giornali e Internet, infatti, ciascun individuo acquisisce contenuti di attualità, politica, economia, cultura, ecc. Per questa ragione, i media hanno grande rilevanza sociale e sono in grado di influire su aspetti essenziali della vita democratica e di condizionare le opinioni e le preferenze degli individui.

Come noto, ai sensi degli articoli 3 e 7 del TUSMAR, l’AGCom ha il compito di rendere effettiva l’osservanza di principi quali il pluralismo, l’obiettività, la completezza, la lealtà e l’imparzialità dell’informazione. Nei media classici infatti l’informazione è regolata da un robusto sistema di regole, stratificato negli anni, che fa leva, principalmente sul principio di “responsabilità editoriale” secondo il quale gli operatori sono tenuti ad assicurare la rispondenza dei programmi diffusi agli obblighi posti dalla legge.

Ma se con riferimento ai mezzi di comunicazione e informazione tradizionali (radiotelevisione, editoria) la declinazione dei principi fondamentali posti a tutela dell’informazione, discesi dal disposto costituzionale, è quindi ormai assicurata da un consolidato strumentario di istituti giuridici (es. responsabilità editoriale, par condicio, ecc.), non può dirsi lo stesso sulla Rete.

La conseguenza è che i poteri di intervento dell’Autorità rischiano di variare a seconda della qualificazione giuridica dei diversi soggetti che distribuiscono notizie, articoli giornalistici e programmi e altri contenuti di informazione attraverso la Rete.

Nei servizi online, infatti, non sussistono regole specifiche – se non quelle estremamente generiche che caratterizzano i servizi della “società dell’informazione” – e, soprattutto, non trova applicazione il principio di responsabilità, al netto del quale diventa estremamente difficile per il regolatore disporre misure coercitive o ripristinatorie nei confronti dei soggetti che operano in Rete.

Del resto, in Italia, così come nella maggior parte degli ordinamenti statali ed europei, l’intervento pubblico in materia di informazione online si scontra con l’assenza di una disciplina legislativa organica e aggiornata, in grado di apprestare strumenti di garanzia e regolamentazione delle nuove forme di manifestazione della libertà di espressione in attuazione dei principi costituzionali che governano la materia.

Certo è la struttura stessa del medium che pone le istituzioni dinanzi a una serie di difficoltà. La prima è sicuramente costituita dal carattere a-centrico della Rete e delle piattaforme digitali, dove accanto al sistema dell’informazione professionale, si pone quello sviluppato da utenti, gruppi o altri soggetti non sottoposti a regole specifiche circa correttezza e veridicità, salvo ovviamente risponderne in sede civile e penale nei casi di fattispecie illecite.

La seconda è rappresentata dal carattere globale della Rete. Sul piano della governance, infatti, la diffusività a livello planetario di questi mezzi suggerisce di introdurre e/o perfezionare strumenti regolativi di ordine sovranazionale.

Tuttavia, ciò non può pregiudicare un intervento anche da parte delle amministrazioni nazionali preposte alla regolamentazione del sistema dell’informazione. In tal senso esempi sono rinvenibili negli USA e in Germania, dove si rilevano casi in cui i pubblici poteri hanno instaurato un confronto con gli amministratori delle maggiori piattaforme e social network al fine di porre rimedio alla diffusione incontrollata di fake news.

Nel solco di queste iniziative, Agcom ha recentemente istituito il “Tavolo tecnico per la garanzia del pluralismo e della correttezza dell’informazione sulle piattaforme digitali[7], con l’obiettivo di promuovere l’autoregolamentazione delle piattaforme e lo scambio di buone prassi per l’individuazione e il contrasto dei fenomeni di disinformazione online. Al Tavolo, che rappresenta un unicum nel suo genere, partecipano rappresentanti delle piattaforme online (Google, Facebook, Wikipedia), di tutti i maggiori editori nazionali (di quotidiani, radio e Tv), della professione giornalistica, della componente pubblicitaria, delle associazioni di categoria, comprese quelle che rappresentano i consumatori, nonché di istituzioni accademiche e di centri ricerca.

Il Tavolo, che studia metodologie di prevenzione e rilevazione di contenuti online qualificabili come lesivi della correttezza, dell’imparzialità e del pluralismo dell’informazione, promuoverà, segnatamente nel corso delle campagne elettorali, la parità di trattamento e l’imparzialità a favore tutti i soggetti politici, nonché l’adozione di procedure di notice & take down di contenuti che dovessero essere lesivi del pluralismo.  In esito di questo percorso ci si auspica, l’adozione di codici di condotta, che, in assenza di norme primarie, dovranno essere ascritti al campo della autoregolamentazione.

Un impegno, quello dell’Autorità, già consolidato nel tempo, quando essa è intervenuta con un approccio analitico, attraverso le indagini conoscitive sul settore dei servizi Internet e della pubblicità online (19/14/CONS), su Informazione e Internet in Italia (146/15/CONS) e da ultimo su piattaforme digitali e sistema dell’informazione (309/16/CONS).

 

Conclusioni

Se quindi le fonti primarie a livello nazionale non offrono un grande aiuto, anche il quadro comunitario non colma questa lacuna, ma ci offre comunque qualche spunto – sebbene ancor incerto – in sede di atti d’indirizzo. Nell’ambito del Working Group on the Digital Single Market, istituito in seno alla Commissione per il mercato interno e la protezione dei consumatori (IMCO) del Parlamento europeo, alla riunione dello scorso 19 marzo, non vi è stata massima condivisione sull’utilizzo dell’autoregolamentazione come strumento per combattere la disinformazione.

Andrea Renda del Centro per gli studi di politica europea (CEPS) ha affermato che le piattaforme dovrebbero essere ritenute responsabili “socialmente” dei contenuti pubblicati dai loro utenti e che i giornalisti dovrebbero essere coinvolti come controllori di fatto.

Paolo Cesarani, della Commissione europea (DG Connect), ha invece affermato che la coregolamentazione “in settori specifici” dovrebbe essere presa in considerazione solo se le parti interessate non riescono a soddisfare le raccomandazioni a breve termine dell’High Level Group.

 

FOCUS SU RACCOMANDAZIONI HIGH LEVEL GROUP

La principale raccomandazione da realizzare, nel breve termine, secondo le indicazioni dell’High level Group si basa su un approccio di autoregolamentazione multi-stakeholder. Il suggerimento è di istituire una coalizione multi-stakeholder per garantire che eventuali misure concordate siano implementate, monitorate e regolarmente riviste mediante la redazione di un codice. Questo dovrebbe essere basato su alcuni principi chiave secondo cui le piattaforme dovrebbero:

1.      adattare le loro politiche pubblicitarie, incluso il rispetto del principio “follow-the-money”, evitando allo stesso tempo incentivi che portano alla disinformazione, tale da scoraggiare la disseminazione e amplificazione della disinformazione secondo logiche di profitto. Tali politiche devono essere basate su criteri chiari, trasparenti e non discriminatori;

2.      garantire la trasparenza e la public accountability in relazione al trattamento degli utenti

3.      i dati utilizzati per inserimenti pubblicitari, devono essere rispettosi della normativa sulla privacy, nonché dei principi fondamentali (quali libertà di espressione e pluralismo dei media)

4.      assicurarsi che i contenuti sponsorizzati, compresa la pubblicità politica, siano distinti in modo appropriato da altri contenuti;

5.      adottare le misure necessarie per abilitare l’accesso ai dati solo in conformità alla disciplina in materia di trattamento dei dati personali privacy per le attività di fact-checking di ricerca;

6.      mettere a disposizione dei propri utenti impostazioni e controlli avanzati per consentire loro di personalizzare la propria esperienza online;

7.      in collaborazione con agenzie di stampa pubbliche e private, se del caso, progettare misure efficaci per migliorare la visibilità di notizie affidabili e affidabili e facilitare l’accesso degli utenti a queste;

8.      se del caso, fornire strumenti user-friendly per consentire agli utenti di collegarsi a fonti attendibili di verifica dei fatti e consentire agli utenti di esercitare il diritto di replica;

9.      se del caso, accompagnare i trending news articles con suggerimenti di notizie correlate;

10. qualora siano previsti i sistemi di segnalazione che fanno affidamento sugli utenti, questi dovrebbero essere dotati di misure di sicurezza contro possibili abusi da parte degli utenti

L’HLEG si auspica una valutazione iniziale del codice, effettuata da un esperto indipendente entro ottobre-novembre 2018, per pervenire poi, entro gennaio 2019, a un’implementazione dello stesso.

A lungo termine, l’HLEG invita poi gli Stati membri, le piattaforme, news media organisation e la società civile a porre in essere – insieme alla Commissione – ulteriori iniziative di contrasto alla disinformazione.

 

Un passo più deciso sembra quello posto dalla Commissione europea lo scorso 25 aprile, con l’approvazione del piano anti-fake news maggiormente orientato all’autoregolamentazione che verrà imposta ai social. L’intento è, da un lato quello di imporre regimi di trasparenza sull’utilizzo dei dati, dall’altro quello di stimolare massicci investimenti da parte delle piattaforme per rendere i loro algoritmi in grado di scovare le fake news, di smascherare i trolls e di rimuovere i video che inneggiano alla violenza e all’odio.

In questa fase, collaborare alla redazione di regole che realizzino un punto di equilibrio fra i diversi interessi in gioco (quali libertà di espressione, pluralismo dell’informazione, privacy dei cittadini, onorabilità delle persone) facendo leva sul livello di responsabilità del web, è una delle sfide più difficili – ma non per questo meno necessarie – del nostro secolo.

Non dimentichiamo che all’interno della Rete c’è tutto, ci sono le nostre persone e si esprimono le nostre libertà, che si traducono in diritti. E i diritti, in quanto tali, hanno bisogno di regole, non per limitare le libertà, ma proprio per garantirle. Le nuove tecnologie, infatti, per quanto sconvolgenti siano, non mutano gli elementi fondamentali della convivenza civile.

Fonti

[1]Le regole del diritto sono queste: vivere onestamente, non recare danno ad altri, attribuire a ciascuno il suo”. Il precetto è attribuito a Eneo Domizio Ulpiano nello scritto “Regole”.

[2]https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2018-01/RISJ%20Trends%20and%20Predictions%202018%20NN.pdf

[3] fake news noun: false, often sensational, information disseminated under the guise of news reporting

[4] https://rm.coe.int/information-disorder-toward-an-interdisciplinary-framework-for-researc/168076277c

[5] Si veda Edson C. Tandoc Jr., Zheng Wei Lim & Richard Ling, Defining “Fake News” A typology of scholarly definitions, in Journalism Studies Volume 6, 2018 – Issue 2 https://www.tandfonline.com/doi/full/10.1080/21670811.2017.1360143?scroll=top&needAccess=true

[6] A partire dal mese di novembre 2017, sono stati auditi 17 soggetti tra esperti, rappresentanti del settore dell’editoria e dei media audiovisivi, dell’accademia e del settore dei data analytics. In programma sono previste ulteriori 23 audizioni che vedranno la partecipazione anche delle più importanti e rappresentative piattaforme online oltre che di operatori di comunicazioni elettroniche e grandi imprese.

[7] Delibera n. 423/17/CONS del 6 novembre 2017

Condividi questo articolo: