On. Dott. Antonio Martusciello
Commissario Agcom
8 giugno 2018, ore 12.15
Camera dei Deputati
Sala del Cenacolo, Complesso di Vicolo Valdina
INTRODUZIONE AL DIBATTITO
Allo scopo di fornire ai relatori alcuni spunti di riflessione vorrei introdurre la tematica in discussione inquadrandone gli aspetti che mi paiono maggiormente rilevanti.
Sappiamo che il contesto in cui si muove la comunicazione politica è caratterizzato da un impianto normativo ritagliato su un mondo che non annoverava Internet tra gli attori protagonisti dell’informazione. Limiti anti-concentrativi e norme sulla par condicio sono dunque stati fissati avendo in mente le piattaforme tradizionali.
Il peso di Internet nel panorama informativo
La legge sulla par condicio e datata 2000 e, quasi vent’anni dopo, ci troviamo in uno scenario profondamente mutato in cui, se estrapoliamo un paio di dati dalle analisi svolte da Agcom, possiamo facilmente convincerci che i meccanismi informativi della Rete non possono più essere trascurati.
Guardando ai mezzi preferiti dagli italiani per reperire notizie si scopre infatti che Internet è secondo solo alla TV ed è caratterizzato da percentuali di utilizzo assai rilevanti, sia per quanto concerne l’informazione in generale (70,2% degli italiani, se consideriamo un intervallo temporale che va da “meno di una volta al mese” a “tutti i giorni”) sia con specifico riguardo a quella politica (34%)[1].
Si tratta indubbiamente di valori significativi, che vanno comunque presi con raziocinio. Occorre infatti soppesarli con considerazioni riguardanti il ruolo delle piattaforme tradizionali, anche alla luce della qualità e dell’efficacia dei relativi strumenti informativi.
Crossmedialità
Si deve innanzitutto osservare che le percentuali che ho rappresentato non vanno interpretate nel senso di un utilizzo esclusivo della Rete. Lo scenario è infatti caratterizzato da fenomeni di ibridazione e crossmedialità, in cui le logiche mediali analogiche si fondono con quelle digitali.
Provando ad esprimere in termini numerici anche questo aspetto Agcom ha riscontrato che, per l’informazione in generale, il 70% degli individui combina mezzi tradizionali e innovativi in modo vario: Per l’informazione politico-elettorale il valore è più basso ma ancora significativo, con una percentuale che si attesta al 28%.
Ora, se combiniamo i due dati numerici, quello sulle preferenze di Internet come mezzo informativo e quello sulla crossmedialità, possiamo dire che lo spazio virtuale della Rete non ha ancora fagocitato quello, “più fisico”, dei mezzi tradizionali, almeno dal punto di vista dell’informazione.
Possiamo trovare una conferma di ciò guardando a un “caso di successo” nella comunicazione politica.
L’importanza dei mezzi tradizionali sulla comunicazione politica
Guardando a uno studio dell’Istituto di sondaggi e analisi politica diretto da Antonio Noto, appare infatti che l’aumento di consensi di una formazione politica non può basarsi unicamente sul web.
In particolare per il M5S, la formazione maggiormente legata alle dinamiche della Rete, Noto Sondaggi ha evidenziato come un aumento significativo di consensi sia avvenuto quando la loro comunicazione è passata dal web ai media tradizionali.
Fino all’autunno del 2012, il movimento, molto presente in Rete, ma meno in tv e sui giornali, a partire da un iniziale 2% ha raggiunto un consenso intorno all’8-10%. Il vero exploit è stato però segnato dall’approdo ai tg nazionali delle dichiarazioni di Grillo.
È da quel momento che – secondo i sondaggi di Noto – si è iniziato a registrare un trend in veloce aumento del Movimento che, in pochi mesi, ha guadagnato circa il 15%.
L’“istituzionalizzazione”, compiuta da radio, tv e giornali è stata dunque un ingrediente essenziale per il successo e ciò evidenzia la fiducia che i cittadini ancora ripongono nei mezzi classici.
Ma c’è di più. Se si va a considerare la percezione di qualità dell’informazione veicolata dai diversi mezzi si finisce col segnare un punto a favore di stampa e TV.
Percezione di affidabilità
Da questo punto di vista gli studi di Agcom evidenziano il primato dei canali televisivi in termini di affidabilità percepita da parte di chi li fruisce (anche) per reperirvi notizie. Un’analoga reputazione di qualità si rileva per le testate quotidiane.
Viceversa, i social media e le testate native digitali risultano agli ultimi posti della classifica per attendibilità e Internet è percepita come credibile da meno di un quarto di coloro che la utilizzano per informarsi. Un maggior livello di fiducia viene, invece, riconosciuto ai siti di quotidiani che ereditano notorietà e reputazione dei propri marchi editoriali storici.
Guardando allora alle percentuali e alle modalità con cui gli utenti si approcciano alle informazioni su Internet possiamo affermare che questa svolge un ruolo marginale nella formazione delle opinioni di individui che appaiono sufficientemente “disincantati”?
Non penso che sarebbero in molti ad azzardare una risposta affermativa in uno scenario che appare caratterizzato da fenomeni di disinformazione, scandali legati ad acquisizione ed uso indebito di dati e in cui si paventano manipolazioni di referendum e sedute elettorali.
Al più ci si potrebbe chiedere se il fatto che la Rete costituisca una specie di “porto franco” non abbia ancora prodotto danni per la nostra democrazia.
Il ruolo effettivo di Internet
Per inquadrare meglio il ruolo di Internet occorre innanzitutto osservare che le sue dinamiche di crescita promettono di offuscare, nel medio-lungo periodo, i mezzi tradizionali, fino a fargli assumere un ruolo di secondo piano (per via della riduzione delle fonti di ricavo che sempre più si stanno trasferendo in Rete). Il rapporto tra i diversi mezzi del contesto crossmediale sembra dunque destinato a cambiare a favore della Rete.
Per altro verso, poi, il fatto che Internet non sia ancora il mezzo preferito per informarsi deve essere “pesato” con la “pericolosità” di alcuni fenomeni che la caratterizzano, come lo straordinario potere di propagazione virale di disinformazione e fake news, e con l’efficacia, la pervasività e la potenza di strumenti che non brillano per trasparenza, come gli algoritmi adottati ai fini del profiling e della conseguente personalizzazione di servizi e messaggi.
Guardando poi al pluralismo misurato con indicatori di natura antitrust, ci si deve anche interrogare sugli effetti del “gigantismo” delle piattaforme.
In altri termini, le dinamiche della Rete introducono delle criticità potenzialmente molto rilevanti sui meccanismi informativi, suscettibili di produrre alterazioni importanti anche se Internet non è ancora il principale mezzo per reperire notizie e se gli utenti sembrano manifestare una certa “diffidenza” rispetto ad essa.
Ciò è particolarmente vero per le modalità di diffusione basate su fonti algoritmiche, quelle che operano cercando di estrarre informazioni da enormi archivi di dati eterogenei per farsi “un’idea” di cosa è opportuno veicolare a chi. Parliamo della metodologia propria di Social Network e motori di ricerca, dunque non sorprende che si tratti anche di quella che impatta sulla maggioranza degli utenti della Rete.
Le dinamiche dell’informazione via web
Se si presta attenzione alla qualità dell’informazione, non interpretando il concetto di pluralismo unicamente come numerosità delle fonti, si devono evidenziare alcune criticità tipiche dei meccanismi con cui si accede alle notizie via web.
Riconoscibilità delle fonti
In primis occorre rilevare una difficoltà nel valutare l’autorevolezza delle fonti. Il fatto, ad esempio, che sulle piattaforme digitali i contenuti informativi coesistano con post dei propri amici, post sponsorizzati, e contenuti offerti da fonti non professionali di informazione, finisce con lo sminuire l’importanza delle fonti stesse.
In effetti, l’accesso alle notizie attraverso le piattaforme non è sempre associato alla corretta attribuzione delle loro origini, mentre l’accesso diretto al sito/app dell’editore è certamente legato alla reputazione della testata.
Echo Chambers e polarizzazione
Un altro elemento critico del web è il rischio incombente di “parlarsi addosso”. Gli utilizzatori delle piattaforme appaiono troppo spesso orientati alla ricerca di conferme dei propri orientamenti e delle proprie convinzioni piuttosto che di conoscenza e di un arricchimento in ottica pluralistica.
Si tratta del conformismo razionalizzato proprio delle echo chambers, attraverso il quale gli users sono condotti verso uno spazio virtuale dove le idee scambiate, essenzialmente, si confermano le une con le altre.
Del resto, da uno strumento social si tende a ricercare l’appartenenza a una comunità che inevitabilmente presenta un certo grado di omogeneità, è cioè “polarizzata” in una determinata direzione. Allora, se il funzionamento della piattaforma prevede una “dimensione informativa” inscindibilmente connessa con quella sociale, le notizie proposte con gli algoritmi di selezione automatica tenderanno a rientrare in questa logica “polarizzata”. L’utente, dal canto suo, non avrà una grossa propensione ad esplorare in modo attivo aree che contengono notizie, opinioni e tendenze non in linea con quelle in cui si identifica.
A conferma di ciò che appare quasi intuitivo, si può citare uno studio del Reuters Institute for the Study of Journalism (Digital News Report 2017), secondo cui la percentuale di coloro che modificano in maniera consapevole e personalizzata la propria feed sui social network con espliciti fini informativi è molto esigua.
Da uno studio analitico svolto dall’Autorità è poi emerso che già a livello di selezione del mezzo si manifesta un diverso grado di polarizzazione: le piattaforme governate da algoritmi e le fonti editoriali online sono molto più utilizzate dagli individui con elevato grado di questa rispetto alla media della popolazione italiana.
Vi è poi un rapporto tra polarizzazione e azioni compiute sui social network dagli utenti: Più sono le attività informative compiute sui social, più è alto il grado di essa.
Uso dei Big Data e degli algoritmi
Veniamo al fenomeno dei Big Data, quello su cui si fonda la modalità di diffusione più utilizzata da coloro che si informano in Rete.
Sappiamo che ogni giorno vengono raccolti alcuni exabyte di dati. Per farsi un’idea di cosa significa si può osservare che, se si trattasse solo di brani musicali nel comune formato mp3, questi ammonterebbero ad alcune centinaia di miliardi. L’ordine di grandezza è quello del numero di stelle della via lattea.
Non c’è bisogno di dire che non si tratta effettivamente di canzoni ma di quanto di più eterogeneo si possa immaginare: dalla posizione di un dispositivo alla passione per un determinato scrittore, ad una relazione affettiva; il materiale e l’immateriale, tutta la realtà è “datificata” e ridotta a stringhe di bit.
Negli hard disk di chi è in grado di accumulare dati c’è dunque una rappresentazione della società con tutta la sua complessità. Questa matassa di informazioni, oltre al nostro passato e al nostro presente, da qualche parte e in qualche forma, contiene anche i nostri comportamenti futuri. Il tentativo, direi piuttosto riuscito, è quello di estrarli attraverso dei software che, in pratica, finiscono col “simulare la nostra mente”, arrivando a conoscerci anche meglio di noi stessi così da prevedere, ad esempio, cosa vorremmo acquistare o quale programma politico saremmo maggiormente disposti a sottoscrivere.
È allora piuttosto evidente come, alla disponibilità di Big Data si associa un potenziale vantaggio competitivo.
Parlando di pluralismo sul web si potrebbe dunque affermare che alla numerosità delle fonti e alla qualità dell’informazione si debba aggiungere una terza “dimensione”, quella dell’efficacia, che potrebbe moltiplicarsi per chi fa uso della Big Data Analysis. In tal senso, il peso del sito di una testata giornalistica online potrebbe essere inferiore rispetto a quello di chi utilizza sistemi di diffusione algoritmica.
Quest’ultimo, grazie all’utilizzo di tecnologie che sembrano appartenere a una dimensione esoterica, quali il data mining e l’Artificial Intelligence con funzionalità di Machine Learning, sono in grado di selezionare i contenuti più opportuni caso per caso.
Il primo obiettivo è quello di giungere ad una clusterizzazione degli utenti che possono essere finemente suddivisi in categorie omogenee. Il passo successivo è quello di associare a ciascuna categoria le notizie più “pertinenti”.
Ora, a prescindere dall’affidabilità della classificazione che le tecniche di analisi sono in grado di effettuare (queste, per quanto avanzate, non possono essere considerate infallibili), resta da capire in che modo la notizia viene giudicata pertinente.
Con quale criterio si associa un determinato contenuto a uno specifico tipo di utente? Si selezionano unicamente informazioni coerenti con gli orientamenti scoperti attraverso l’analisi dei Big Data? Oppure, con spirito pluralistico, gli si propinano anche notizie che possono arricchirlo con altri punti di vista così che si possa formare un’opinione massimamente informata?
La risposta dipende ovviamente dagli obiettivi dell’analisi. Se si punta a “vendere” un determinato contenuto, allora vale la prima e ci si deve, ad esempio, interrogare sulle conseguenze della personalizzazione dei messaggi informativi e sul suo rapporto con il fenomeno delle echo chambers.
In effetti appare probabile che i meccanismi utilizzati per proporre l’informazione politica siano analoghi a quelli usati a scopo commerciale. Così, se acquistando un volo in business class e un soggiorno in un costosissimo Hotel ai Caraibi l’Intelligenza Artificiale potrebbe propormi di comprare anche un set di valige di lusso, lo stesso meccanismo potrebbe ritenermi propenso a sottoscrivere una proposta politica che prevede di ridurre la pressione fiscale per i redditi elevati.
Analogamente, se effettuo ricerche connesse a salute e benessere potrei accogliere con favore linee politiche che promettono di migliorare il sistema sanitario. Ancora, l’informazione selezionata per me può essere coerente con il profilo culturale e ideologico che emerge dai testi che ho acquistato in una libreria online o con le ricerche che ho effettuato su Wikipedia o, in generale, con l’insieme di tutte queste azioni.
Il messaggio informativo sembra dunque selezionato sulla base di una logica di tipo “commerciale”, consistente nel propormi ciò di cui ho bisogno in quel momento, quello che sarei disposto ad “acquistare”. Una modalità che tende fisiologicamente a tagliar fuori alcuni aspetti di una corretta informazione, come quello del pluralismo, e che, nel tentativo di sfruttare al massimo determinati orientamenti dell’individuo, potrebbe scadere in contenuti socialmente negativi.
Nell’ambito di quella che, almeno dall’esterno, appare come una scatola nera in cui entrano dati ed escono associazioni tra notizie e utenti, c’è poi ovviamente spazio per speculare sulla possibilità di “pilotare” gli individui verso determinate opinioni piuttosto che fornirgli “asetticamente” gli elementi per formarsele liberamente.
Il problema è insomma quello della trasparenza degli algoritmi.
Un’altra questione è connessa alla generale disponibilità dei Big Data, cioè alla capacità, da parte di una molteplicità di soggetti, di acquisirli o comunque di accedervi per estrarne informazioni utili ai fini della “personalizzazione” del “palinsesto informativo” da presentare all’utente.
Nella misura in cui si tratta di uno strumento che comporta un vantaggio a chi lo possiede, la possibilità di utilizzarlo da parte di pochi soggetti può avere un impatto significativo sull’efficacia della comunicazione politica. Va ribadito che i dati su cui operare sono assolutamente eterogenei, di conseguenza possono essere raccolti da una molteplicità di piattaforme (commercio elettronico, prenotazioni di viaggi, piattaforme di sharing ecc.).
Dal meccanismo che ho sommariamente descritto, infatti, emerge in modo piuttosto evidente l’importanza di uno degli attributi che caratterizzano i Big Data, quello della Varietà. Per massimizzare la “conoscenza” che gli algoritmi acquisiscono di noi è necessario dargli in pasto le informazioni più svariate, facendo così entrare in gioco una molteplicità di “raccoglitori” di dati, non solo le piattaforme principali.
Anche il fenomeno dell’Internet of Things è utile allo scopo dal momento che, ad esempio, dal possesso di un costoso elettrodomestico connesso, piuttosto che dal profilo di consumo energetico, si possono acquisire informazioni che, prese singolarmente, possono rivestire un’importanza marginale, ma che una volta incrociate con altri dati da una “mente elettronica” potrebbero incrementare utilmente la conoscenza di un individuo.
Occorre comunque considerare la capacità che diversi soggetti possono avere di aggregare ed utilizzare i dati in modo utile. In generale ha senso ragionare sull’accesso ai Big Data.
D’altro canto, offrire a soggetti terzi l’accessibilità agli strumenti delle piattaforme in un contesto privo di opportune garanzie, consentendogli di raggiungere gli utenti finali ed acquisire dati senza aver sottoscritto regole appropriate, apre la strada a pratiche estremamente pericolose, come dimostra il caso Cambridge Analytica.
Un ulteriore aspetto da prendere in considerazione è legato a determinate scelte comunicative abilitate dalla capacità di selezionare in modo “chirurgico” gli obiettivi dei messaggi.
Uno studio del Consiglio europeo (Committee of experts on media pluralism and transparency of media ownership) evidenzia come il targeting aumenti la probabilità che partiti e candidate basino la propria campagna su quelli che definisce “wedge issues”, cioè su tematiche in grado di dividere fortemente l’opinione pubblica mobilitando una grande quantità di voti, come per l’immigrazione e il welfare. Si tratta di una pratica di per sé del tutto lecita, purché non si cada nella facile tentazione di fornire informazioni volutamente imprecise, magari volte a screditare i sostenitori di opinioni diverse, contando sul fatto che non si tratta di messaggi “pubblici” dunque a rischio di verifica da parte di chi non ne condivide i contenuti.
Un’altra questione degna di nota sollevata dal medesimo studio riguarda la possibilità di concentrare le campagne su elettori indecisi o comunque su coloro strategicamente importanti ai fini del bilancio dei voti. In tal senso ci si può chiedere quale può essere l’effetto di una logica così marcatamente “commerciale” (in cui la massimizzazione dei ricavi corrisponde a quella dei voti), su un processo, quello elettorale, che dovrebbe invece caratterizzarsi soprattutto per una dimensione sociale e puntare a incrementare la partecipazione dei cittadini alle dinamiche della democrazia.
Vorrei poi tornare all’aspetto tecnico per fare un’ulteriore riflessione che vuole anche essere una piccola provocazione rispetto alla cieca fiducia nei confronti delle nuove tecnologie.
Data Mining e Machine Learning appaiono tecniche straordinariamente potenti orientate però all’applicazione piuttosto che alla comprensione profonda dei fenomeni. L’obiettivo è quello di estrarre, da un’enorme volume di dati raccolti alla rinfusa (e che in massima parte possono rivelarsi inutili), delle relazioni significative, delle strutture prima non note. Non si tratta di una vera comprensione dei fenomeni, quella che dovrebbe passare per delle ipotesi su modelli che li descrivono, da confermate ed affinare sulla base dei dati rilevati. È invece un approccio più “pragmatico”, si tratta di trovare, in un immenso archivio, delle strutture di cui nemmeno si immaginava l’esistenza e di cui, in fondo, non ci interessano spiegazioni e motivazioni profonde ma solo l’utilizzo a fini pratici (vendere un prodotto, inviare il messaggio più opprtuno).
Se guardiamo alle tecniche più avanzate utilizzate per svolgere compiti di questo tipo, Artificial Intelligence e Machine Learning, scopriamo poi che il loro stesso funzionamento non si basa su una completa comprensione teorica ma, almeno in porte, su una sorta di empirismo. L’approccio, insomma, è un po’ quello della logica FAPP (For All Practical Purpose), molto prosaicamente: “basta che funzioni”.
Questa caratteristica ha sollevato alcune perplessità nella stesa comunità dei ricercatori, tanto che Ali Rahimi, vincitore del Test of Time Haward nell’ambito al NIPS 2017 (Neural Information Processing Systems 2017), è arrivato addirittura a parlare di una “nuova alchimia”.
Stiamo dunque affidando una parte importante delle nostre vite o, se guardiamo a fenomeni come quello della guida autonoma, proprio le nostre vite, a sistemi che non sembriamo capire e controllare pienamente.
Varrebbe la pena interrogarsi sulle conseguenze di questo approccio. Nel caso specifico del pluralismo, influenzare in modo non del tutto consapevole un fenomeno direttamente collegato ai diritti civili e all’assetto democratico, come quello della formazione delle opinioni, potrebbe inconsapevolmente portarci a distorsioni indesiderate.
Concentrazione delle piattaforme
Occorre infine considerare la “dimensione antitrust” del pluralismo, quella connessa allo scenario concorrenziale che caratterizza le piattaforme digitali.
A tale riguardo, in uno studio del prof. Eli Noam, della Columbia University, ad esempio, si dimostra come l’indice di Hirschman-Herfindal mostri un grado di concentrazione superiore ai 3000 punti.
Se si parlasse di un mercato delle piattaforme, questo apparirebbe dunque molto concentrato e, considerata la loro capacità di “controllare” una fetta importante dell’informazione su Internet, si finisce col rientrare nei casi, piuttosto numerosi, in cui si evidenzia un’incongruenza con la disciplina cui sono soggette le piattaforme tradizionali per le quali, nello specifico, la tutela del pluralismo passa anche per il rigido rispetto di limiti anticoncentrativi.
Conclusioni
L’emergere di Internet anche come piattaforma per reperire informazioni pone dunque una serie di questioni che vanno ben oltre il problema del level playing field, sempre sollevato quando si confrontano le nuove piattaforme con quelle tradizionali.
In questo caso è difficile parlare di parità delle regole del gioco dal momento che i giochi appaiono diversi. Gli strumenti del web hanno peculiarità ben definite capaci di dar luogo a dinamiche comunicative specifiche che non trovano un corrispondente nella televisione e nell’editoria, come quella della personalizzazione dei messaggi con le conseguenze che questa pratica comporta.
La potenza degli algoritmi affascina e spaventa. Si parla di un’intelligenza artificiale in grado di trovare velocemente un filo logico in enormi insiemi di dati non strutturati (cioè disordinati) che è però asservita a obiettivi ed esigenze “molto umane”. Strumenti la cui potenza può essere utilizzata tanto per far funzionare al meglio le regole democratiche quanto per distorcerle nel modo più subdolo ed efficace possibile.
Siamo impegnati a scongiurare il secondo scenario. Un’attività che passa per azioni concrete, come quelle intraprese dall’Autorità in un contesto che, almeno per ora, non può che essere quello della coregolamentazione, ma anche per eventi come quello di oggi, finalizzati a comprendere un fenomeno tanto rilevante in termini di impatto sociale quanto complesso da inquadrare in tutte le sue dimensioni.
DOMANDE
FIEG – Fabrizio Carotti |
In un’economia sempre più data driven, la capacità di estrarre valore dai dati è diventata una vera e propria necessità. La loro corretta analisi e interpretazione possono consentire di sfruttare nuove opportunità di business.
A tal riguardo, ritiene che la data science possa essere compiutamente sfruttata anche nel settore editoriale? In quest’ottica, che tipo di evoluzione si può intravedere, per il settore, nel medio periodo?
AGI – Marco Pratellesi |
La vostra Agenzia ha sempre praticato il fact-checking. Da fine 2016, avete intrapreso una collaborazione con il team di Pagella Politica, che ha permesso di pubblicare un fact-checking politico al giorno sul sito di una delle principali agenzie di stampa nazionali.
Ritiene che finora il fact-checking si sia dimostrato efficace e in grado di superare il cd. “problema dei filtri”, a dispetto della naturale tendenza a cercare informazioni che confermino le nostre idee?
GOOGLE – Andrea Stazi |
L’attività svolta da Agcom in tema di pluralismo fa inevitabilmente leva su valutazioni di tipo quantitativo, volte a misurare i tempi di esposizione mediatica delle varie posizioni in campo.
È pensabile definire una metrica che misuri il livello di pluralismo del palinsesto informativo proposto ad un individuo, tenendo conto anche del suo profilo, e predisporre gli algoritmi in modo che la massimizzino? Potrebbe questo rientrare in un’ipotetica regolazione ex ante della componente informativa dei servizi offerti dalle piattaforme? In che misura questo confliggerebbe con gli attuali modelli di business e in che modo sarebbe possibile conciliarlo con essi?
FACEBOOK – Laura Bononcini |
Come sempre quando si parla di algoritmi che organizzano i contenuti sulle piattaforme digitali è difficile indicare con esattezza in cosa consisteranno novità e cambiamenti. Al riguardo, Facebook ha recentemente annunciato alcune modifiche nella struttura generale del NewsFeed che dovrebbero premiare contenuti di familiari e amici. Tuttavia, a un primo esame, la misura sembra poter alimentare ulteriormente fenomeni di filter bubble ed echo chamber.
Può far chiarezza sulle nuove modalità di funzionamento dell’algoritmo in modo da scongiurare questi timori?
RAI – Gian Paolo Tagliavia |
Il servizio pubblico radiotelevisivo con l’ultimo contratto di servizio 2018-2022 si è aperto alle piattaforme multimediali, estendendo a queste gli obiettivi di tutela del pluralismo e promozione della diversità culturale.
Qual è il ruolo del servizio pubblico in questo nuovo scenario? È possibile operare con successo su piattaforme multimediali adottando una logica diversa da quella unicamente commerciale che caratterizza la Rete?
MEDIASET – Gina Nieri |
Anche il settore televisivo si sta attrezzando con sistemi di pubblicità profilata e voi siete uno di questi operatori. Ma abbiamo visto che gli algoritmi che consentono il targeting migliorano l’efficacia e l’efficienza al crescere dei dati immessi nel sistema.
Come può un fornitore di servizi media, sia pur di primaria importanza come voi, competere nella pubblicità profilata, con piattaforme che raccolgono dati su milioni se non miliardi di persone?
SKY – Luca Sanfilippo |
Il mondo dei media e delle tlc fa registrare un interesse per operazioni di consolidamento che coinvolgono diversi settori. Recentemente fonti di stampa hanno riportato un interesse di primari gruppi internazionali verso Sky.
Ritiene che le sinergie ottenibili da questo processo e la spinta verso una logica maggiormente transnazionale possano agevolarvi e rendervi più simili ai grandi soggetti dell’economia digitale? Come potrebbe evolversi il vostro modello di business?
Fonti:
[1] Rapporto Agcom sul consumo di informazione.