Centromarca: l’intervento di Antonio Martusciello sul tema “La corretta informazione al consumatore, un aspetto di sostenibilità consumeristica”

Sede nazionale di Federfarma, 31 Maggio 2018

Intervento dell’On. Dott. Antonio Martusciello

Commissario Agcom

31 maggio 2018, ore 10

Sede nazionale di Federfarma

Via Emanuele Filiberto, 190

Roma

Premessa

“Gli idoli (i pregiudizi) che occupano la mente umana, le rendono difficile ‘l’accesso alla verità’. È con queste parole – estremamente attuali – di Bacone[1] che vorrei concludere questa giornata di approfondimento sulle criticità nell’informazione.

Se, nel Seicento, il filosofo attribuiva gli “idoli” (del mercato)[2] ai discorsi attraverso cui gli uomini si associano, nel XXI secolo, la situazione non sembra essere tanto cambiata. Ciò che muta è sicuramente la struttura associativa: non più corporazioni, ma piattaforme online, in cui, allo stesso modo delle prime, “l’intelletto umano, simile a uno specchio disuguale, mescola la sua propria natura a quella delle cose e la deforma e la travisa”.

L’individuo infatti agisce spesso in modo irrazionale, in balia di distorsioni cognitive. Ecco perché, in ogni processo decisionale, l’informazione è il presupposto indispensabile di ogni decisione che aspiri a essere razionale e diventa fattore efficace di prevenzione e cura di storture. Ma quando questa è inattendibile, falsa e distorta, diventa essa stessa fonte di alterazione, e allora si comprende più pienamente il rischio di fallimenti cognitivi.

 

Il comportamento degli utenti: una Behavioural Political Economy anche per le Fake News?

In questo scenario, mi sembra quindi che il punto centrale sia quello di arginare fenomeni di deformazione del processo di scelta razionale. Non certo una novità se pensiamo che già sono presenti metodi di analisi in questo settore. La behavioral law and economics, sebbene con il fine di introdurre norme giuridiche efficienti, ritiene quantomeno essenziale lo studio degli errori. Il fine ultimo infatti è quello di correggere, per la generalità dei soggetti di diritto, comportamenti che possano portare a un market failure[3].

È in questi termini che affronterei il fenomeno delle fake news. Un primo aspetto da considerare è la carenza informativa. Sembrerebbe quasi un ossimoro in quell’information glut proprio della Rete. Essa però, come evidenziato anche poc’anzi dagli interventi che mi hanno preceduto, sebbene, legata a un sistema di surplus di notizie, non è spesso indice di corretta formazione dell’opinione pubblica.

Già nelle teorie economico-comportamentali veniva evidenziato come i consumatori non acquistino prodotti che corrispondono al proprio interesse per una serie di ragioni, tra cui anche la scarsità di informazioni. Un ragionamento che può essere pacificamente traslato nel mondo online, ma che comunque non è sufficiente a descrivere il fenomeno. È nelle stesse dottrine richiamate che viene posta, come causa dell’irrazionalità dell’individuo, anche l’incapacità di valutare le notizie quando si presentano. Questo è il secondo aspetto da valutare.

Sul tema, Barry Schwartz, psicologo ed editorialista del New York Times, con il Paradosso della scelta sembra aver colto il problema che attanaglia il consumatore. Il semplice fatto di essere costretti a scegliere fra alternative differenti (che implica tempo e fatica per informarsi su tutto) è di per sé una situazione che l’individuo preferisce evitare.

Un paradosso, quello della scelta razionale, che Schwartz[4], in modo provocatorio ha racchiuso quasi in uno slogan: “troppa scelta non è libertà, è paralisi dell’insoddisfazione!”.

Ma cosa ha a che fare questa teoria pensata per gli aspetti di marketing con il ragionamento che oggi stiamo compiendo?

Se da un lato tale teoria si riflette appunto nelle scelte di mercato, dall’altro è determinante nelle scelte d’identità, soprattutto in una società che offre una variegata gamma di stereotipi da adottare. Internet, infatti, fingendo di alimentare la scelta, in realtà invece ne aumenta la dipendenza, e fenomeni come filter bubble o eco chamber sembrano sempre più cavalcare questo sistema. Come noto, il primo legato alla personalizzazione degli algoritmi, può essere definito come pre-selected personalisation (ossia la selezione delle informazioni in base alle passate ricerche dell’utente); il secondo connesso alle scelte dell’individuo (sulla base di like o altre interazioni con amici o pagine seguite), è stato qualificato più propriamente come pre-selected personalisation[5].

Certo è indiscutibile che la libertà di scelta aumenti la qualità della vita, ma non sempre una maggior possibilità di scelta rende un risultato ottimale.

Il Nobel per l’economia, Richard Thaler, che ha elaborato con Cass Sunstein la teoria del nudge (teoria della “spinta gentile”), ha dimostrato come si possano influenzare i comportamenti di masse di persone con una forma leggera di paternalismo, senza imporre scelte dall’alto, ma dosando bene le informazioni e proponendo un ventaglio di scelte accurate.

Un concetto sicuramente inteso in senso positivo, ma che, se stressato, rievoca alla mente il celebre aforisma di Khalil Gibran, il quale, già nel 1923, con una assoluta modernità, profetizzava: “quella che chiami libertà è la più forte di queste catene, anche se i suoi legami brillano al sole e abbagliano i tuoi occhi[6].

 

Il comportamento delle aziende e il consumatore medio

Nel dibattere di correttezza dell’informazione non possiamo non analizzarne anche il versante patologico. Diverse infatti sono le pratiche commerciali che si fondano sull’inganno. Chi non ricorda lo scalpore suscitato dalle false recensioni su Tripadvisor? Circostanza che sarebbe costata mezzo milione di multa alla società in considerazione della pratica perpetrata, idonea “a indurre in errore una vasta platea di consumatori in ordine alla natura e alle caratteristiche principali del prodotto e ad alterarne il comportamento economico[7] (articoli 20, 21 e 22 del Codice del Consumo). Sanzione poi annullata dal Tar Lazio[8], e oggi oggetto di impugnazione.[9]

L’inganno è quindi una fattispecie già inquadrabile nell’ambito degli strumenti giuridici messi a disposizione, soprattutto nell’ambito del Codice del consumo. Tuttavia credo che talvolta ciò non possa bastare. Mi spiego meglio. Pensiamo alla figura del consumatore medio, di formazione giurisprudenziale, ossia quel soggetto che sa scegliere in quanto sufficientemente consapevole e informato sul mercato di riferimento e per il quale è disposta la tutela.

Il Codice del Consumo qualifica come scorrette le pratiche commerciali se ricorrono tre fondamentali condizioni: la contrarietà alla diligenza professionale, l’idoneità a falsare o a distorcere il comportamento economico del consumatore medio e l’incidenza o l’influenza sulle decisioni di natura commerciale di quest’ultimo in maniera apprezzabile.

Ebbene, se caliamo questo concetto anche al mondo della Rete si comprende come sia complesso inquadrare un soggetto cosciente dei rischi che essa riserva e in grado di scegliere in modo libero.

Già solo analizzando il fenomeno delle recensioni inattendibili questo presenta differenti sfaccettature. Dal boosting (l’inserimento di auto-recensioni per scalare il sito), al vandalism (la pubblicazione di false recensioni negative per danneggiare strutture concorrenti), fino all’optimization (la pubblicazione di recensioni fraudolente ad opera di agenzie di ottimizzazione), o ancora all’incentives (le false recensioni positive collegate all’offerta di sconti e/o riduzioni in favore degli utenti).

La sentenza del Tar parte proprio dalla concezione di media consapevolezza richiesta all’utente del web. Per i togati, infatti, l’ormai ventennale diffusione della “rete” informatica basterebbe per configurare un utente medio “il quale dovrebbe diligentemente conoscere i meccanismi che operano ai fini dell’accesso alla rete stessa e le insidie insite nella particolare struttura che i c.d. “siti aperti” possono contenere sull’attendibilità dei singoli apporti, relativi alle opinioni personali espresse da utenti di ogni tipo”.

Lungi dall’adottare un atteggiamento paternalistico, sembra però non così intuitivamente pacifico traslare concetti pensati per il mondo offline a quello online.

In quest’ultimo infatti l’effettiva “media conoscenza” dipende da una serie di circostanze che si collegano, non solo all’informativa interna legata al singolo sito, ma anche al quadro informativo di riferimento esterno. In considerazione dei complessi meccanismi della Rete, credo sia ancora difficile individuare sul web un soggetto che possa ritenersi mediamente avveduto. Se in dottrina[10] il riferimento al consumatore medio – di derivazione europea[11] – è stato visto come indice del passaggio dalla protezione del consumatore “quale soggetto debole, alla considerazione di esso, quale operatore economico”, ritengo che nella Rete ciò non possa ritenersi ancora realizzabile.

Come ben sappiamo, però, la pratica del falso coinvolge anche le aziende, chiamate a subire il peso della pubblicità negativa e del danno alla reputazione. Non solo fake legate alla qualità dei prodotti, ma anche all’immagine del brand in generale. Lo scorso anno la reputazione del colosso statunitense Starbucks è stata messa alla prova da una notizia, poi rivelatasi falsa, sulla distribuzione gratuita di prodotti in favore degli immigrati presenti negli Stati Uniti. Un tema molto caldo Oltreoceano, cavalcato, secondo i maligni, anche nelle ultime elezioni presidenziali che hanno portato all’elezione di Trump. Evidenti sono le conseguenze che ne sono derivate: una mole sterminata di tweet e post molto piccati nei confronti di Starbucks. Ebbene qual è stata la reazione dell’azienda? Quella più scontata, ma anche più faticosa: rispondere ai singoli utenti precisando l’infondatezza della notizia.

 

… verso un deceptive marketing?

In un’ottica di lungo periodo, però, il marketing ingannevole non pare essere appagante.

È quanto ha rilevato una ricerca condotta dalla UBC Sauder School of Business[12], in Canada, che ha analizzato un caso avvenuto nel 2012 in Corea del Sud, quando uno dei principali brand di panificazione del Paese è stato coinvolto in uno scandalo alimentare. Comprensibilmente il business della società è crollato fino a quando un reporter ha scoperto che una impresa rivale aveva montato una storia falsa. Se, inizialmente, per circa un anno, la vicenda ha danneggiato la società vittima della notizia, successivamente, scoperto l’inganno, gli effetti per l’autore del falso si sono perpetrati per più di due anni.

Si tratta di una circostanza non sorprendente, che si riversa, però, sull’autore del reato, costretto – se scoperto – a subire un danno reputazionale duraturo.

Ma, come diceva Winston Churchill, “una bugia fa in tempo a compiere mezzo giro del mondo prima che la verità riesca a mettersi i pantaloni”, e come dargli torto?!

Se quindi la notizia fake si ritorce contro l’autore di essa, il tema sembra più propriamente concentrarsi sulla necessità di un rilevamento efficace e tempestivo.

In questo senso, il Financial Times in un recente articolo “Companies scramble to combact fakenews” (“Le aziende lottano per combattere i fakenews”), ha indicato un utile suggerimento, riportando le parole della Chief reputation strategist di una delle principali agenzie a livello internazionale di comunicazione ed engagement, la Weber Shandwick.

Leslie Gaines – Ross ha infatti sottolineato che per difendere un’azienda da notizie false e campagne denigratorie è essenziale coinvolgere i propri dipendenti. Non certo delegare il monitoraggio a questi ultimi, ma far gioco di squadra e sensibilizzarli prima che notizie inattendibili possano diffondersi a macchia d’olio.

Non solo tempestività, ma anche maggior affidabilità. Se infatti la pagina web di una azienda, o anche la sua pagina social, rappresenta la voce ufficiale, la testimonianza di un dipendente si rivela sicuramente più autentica e quindi più efficace.

Certo questa pratica da sola non basta. Sull’altro versante del mercato, occorre mettere gli individui in condizione di riconoscere il pericolo affinché possano evitarlo. Un’attività necessaria se pensiamo che il costo sociale prodotto dagli errori individuali, non danneggia solo il singolo, ma l’intera società.

In questo senso, l’ordinamento è chiamato a incentivare la promozione dell’agire razionale, non in modo paternalistico, attraverso un diritto su misura del singolo, né tantomeno ancorando la razionalità alla rispondenza a modelli astratti e oggettivi (quali il consumatore medio o la diligenza del buon padre di famiglia, per traslare dei concetti già insiti nel nostro bagaglio di conoscenze giuridiche), quanto piuttosto su un modello volto a comprendere le infinite sfaccettature del mezzo online.

 

L’indifferenza come scudo per le fake news?

In questo scenario le piattaforme – divenute ormai veri e propri gatekeeper dell’informazione – solo ultimamente hanno cercato di contrastare fenomeni manipolativi mediante interventi volti a modificare il funzionamento dell’algoritmo e le modalità di gerarchizzazione.

A fine aprile, ad esempio, Facebook ha reso noto di aver adottato una nuova policy nei confronti delle notizie considerate meno attendibili o prevenienti da fonti non professionali: quella dell’indifferenza. Queste non godranno di alcuna anteprima dell’immagine, ma gli saranno riservati titoli più piccoli in modo da aver meno spazio sulla timeline.

Il social intende quindi arginare la disinformazione semplicemente riducendo l’impatto grafico delle fake news? Alle perplessità sull’efficacia di una tale misura, si aggiunge un ulteriore quesito: chi valuterà l’attendibilità delle notizie?

Sarà l’intelligenza artificiale ad analizzare contenuti caricati e a cercare indizi per valutare l’affidabilità delle news, ma anche delle immagini, per fermare video e meme[13] finora sfuggiti alle maglie del controllo.

Tutto sicuramente molto interessante. Ma la realtà sembra diversa. Da un lato, le preoccupazioni nascono quantomeno dal fatto che, trattandosi di algoritmi che implementano complessi modelli matematici, questi sono comunque soggetti a errori. Dall’altro occorre considerare che quella della macchina non è un’intelligenza libera, che si nutre di principi e ideali, ma è progettata e gestita da esseri umani che possono volerla plasmare sulla base di interessi specifici.

Il rischio è che anche i meccanismi volti a scongiurare fenomeni manipolativi possano mostrarci una realtà offuscata, attraverso una lente che produce delle pericolose aberrazioni.

 

Conclusioni

Se l’individuo è alle prese con le distorsioni cognitive che nel mondo del web si moltiplicano sempre più (dalla disinformazione tout court ai sistemi che tentano di contenerla), anche la prospettiva rimediale sembra arricchirsi.

A quella soluzione neutrale che fa dell’autodeterminazione del soggetto il principio cardine cui ispirarsi e che rende questo libero anche di fallire, se ne oppongono altre due: quella volta a impedire la scelta irrazionale mediante l’introduzione di regole proibitive, ovvero quella capace di neutralizzare le distorsioni senza incidere sulla libertà di scelta del singolo.

Si tratta di ipotesi sulle quali poc’anzi ho già anticipato la mia opinione, quando ho preso le distanze da un atteggiamento fatalistico, ipotizzando invece una duplice azione in merito (interventista da un lato ed educativa dall’altro), ma sulla quale ritengo utile valutare un terzo elemento. Se infatti l’obiettivo ultimo è quello di minimizzare la negativa influenza delle distorsio­ni senza sacrificare la libertà di scelta, la soluzione che mi pare possa intravedersi è quella di un intervento regolamentare che torni a valutare la centralità della corretta informazione come prospettiva cui tendere nella formazione di un processo decisionale. Del resto, un’informazione non trasparente, ovvero oscura o criptica, non può propriamente qualificarsi come tale.

Non si tratta certo di approccio innovativo. Esso si fonda sulla dottrina contrattualistica che ha caratterizzato l’esperienza nazionale e vuole promuovere l’assunzione di decisioni tese a massimizzare il benessere del singolo. In un’ottica consumeristica, occorre infatti focalizzarsi sulla necessità di interventi correttivi delle disparità di posizioni tra i diversi soggetti del mercato: consumatori, aziende e oggi anche piattaforme.

Finora l’approccio adottato, ispirato a un certo laissez faire, è stato basato sull’autoregolamentazione, ritenuta maggiormente efficace stante la complessità e la velocità che caratterizza la Rete.

Un modello – quello delineato – che inizia a essere un po’ più stringente, almeno per quanto concerne i principi fondamentali cui deve ispirarsi.

La Commissione europea infatti ha invitato – lo scorso 26 aprile – le piattaforme, mediante una raccomandazione (atto però giuridicamente non vincolante)[14], a delineare un codice di condotta a livello europeo per garantire maggior trasparenza, responsabilità e fiducia nei meccanismi online. Per combattere la disinformazione, l’Istituzione ha insistito sull’esigenza di creare un network capillare di fact-checkers, su quella di migliorare la media literacy e ha specificato alcuni obiettivi da raggiungere.

 

Aspetti su cui il codice dovrà intervenire dovranno essere volti a:

–         Migliorare la trasparenza dei contenuti sponsorizzati (compresa la pubblicità politica), in particolare, attraverso repository di informazioni sull’identità dello sponsor, gli importi spesi e i criteri di targeting utilizzati;

–         intensificare gli sforzi per chiudere i account falsi e stabilire regole chiare per i (ro)bots, in modo che le loro attività non possano essere confuse con le interazioni umane;

–         facilitare la valutazione dei contenuti da parte degli utenti con indicatori di attendibilità di fonti e migliorare la reperibilità di contenuti affidabili e diversificati

–         agevolare l’accesso agli strumenti per segnalare la disinformazione;

–         garantire che i servizi online, in base alla progettazione, includano misure di sicurezza contro la disinformazione (per esempio fornendo informazioni su come gli algoritmi danno priorità e visualizzano il contenuto);

–         permettere alle organizzazioni di controllo dei fatti e al mondo accademico di accedere ai dati della piattaforma (con dovuto rispetto della privacy e delle norme sulla proprietà intellettuale) per migliorare il monitoraggio della disinformazione e la comprensione del funzionamento degli algoritmi.

 

 

Questo sistema – secondo quanto si legge nel documento – sarà rafforzato da un forum multistakeholder per garantire una cooperazione efficiente tra tutte le parti interessate: dalle piattaforme online all’industria pubblicitaria, dal settore dei media alla società civile. L’obiettivo è quello di pubblicare il codice entro luglio di quest’anno, al fine di avere un impatto misurabile dopo l’estate (auspicabilmente entro ottobre).

Ma ciò che appare significativo, al di là dei buoni propositi autoregolamentari, è che se i risultati dovessero essere insoddisfacenti, entro la fine dell’anno, la Commissione potrebbe proporre altre misure anche di natura legislativa.

Una soluzione che sembra comunque si voglia allontanare a livello istituzionale. Del resto, le polemiche sorte a seguito dell’adozione da parte della Germania di una legge anti-fake news hanno scosso gli animi di molti addetti ai lavori. Non possiamo negare che il bilanciamento richiesto tra libertà di espressione, diritto a essere informati anche a livello commerciale, sia difficile, ma certo non possiamo ritenere che tutto ciò che viaggi online possa sfuggire alle maglie di una qualsivoglia regolamentazione. L’alternativa infatti sarebbe un pericoloso far west.

Ecco che allora il punto centrale è la collaborazione tra tutti gli stakeholders coinvolti: dalle istituzioni, alle piattaforme, fino alla società civile.

L’interesse del primo e del terzo gruppo è evidente: da un lato si garantisce la corretta competizione del mercato e si salvaguardano i sistemi democratici, dall’altro vi è il diritto del singolo a essere informato.

Nel mezzo vi sono le piattaforme che tentano di massimizzare i propri profitti con la pubblicità. Ebbene è proprio questa la leva per coinvolgerle più concretamente.

Il modello di business di queste è infatti fondato su effetti di rete indiretti tra i diversi gruppi di soggetti: gli utenti che ottengono servizi a fronte di un prezzo nullo in termini monetari; gli inserzionisti pubblicitari che corrispondono un prezzo (positivo) per occupare spazi di pubblicità comportamentale.

Ma quando il servizio offerto non corrisponde più alle esigenze del consumatore, questo può essere indotto ad abbandonare la piattaforma, con la conseguenza che la massiccia fuga degli users comporti anche una riduzione della pubblicità, principale fonte di ricavo dei mezzi comunicativi online. Già, secondo i dati diffusi da Facebook, lo scorso anno gli utenti attivi del social sono diminuiti (meno 700mila unità), almeno stando a guardare al Nord America. Anche il tempo trascorso sulla piattaforma (meno 50 milioni di ore al giorno negli ultimi mesi dell’anno appena trascorso) si è ridotto.[15] L’effetto è stato immediato e in borsa i titoli sono calati del 4,5%.

Ecco che allora l’esigenza di una corretta informazione coinvolge anche l’interesse delle piattaforme che vedrebbero messo a rischio, in caso contrario, il proprio business. Non dimentichiamo che “non è dalla benevolenza del macellaio, del birraio o del fornaio che ci aspettiamo il nostro desinare, ma dalla considerazione che questi hanno per il proprio interesse personale” (Adam Smith).

Fonti:

[1] Sir Francis Bacon, dapprima latinizzato in Franciscus Baco(nus) e poi italianizzato in Francesco Bacone (Londra, 22 gennaio 1561 – Londra, 9 aprile 1626).

[2] Per Bacone quattro sono le specie degli idoli che assediano le menti umane. La prima specie sono idoli della tribú; la seconda idoli della spelonca; la terza idoli del mercato; la quarta idoli del teatro. Il pensiero di F. Bacon, a cura di P. Rossi, Loescher, Torino, 1974, pagg. 114-117.

[3] Cfr. Giacomo Rojas Elgueta, in Dizionario di Economia e Finanza, Treccani, 2012.

[4] The Paradox Of Choice: Why More Is Less

[5] F. J. Zuiderveen borgesius – D. Trilling – J. Moeller – B. Bodó – C. H. De vreese – N. Helberger, Should We Worry About Filter Bubbles?, in Internet Policy Review. Journal on Internet Regulation, 5, 2016, p. 3, richiamato da M. Monti, Regolazione, Internet e tecnica: le implicazioni dei motori di ricerca e social network sulla libertà di informazione, in Federalismi, dicembre 2017.

[6] Così, K. Gibran, The prophet, 1923, in cui l’Autore scriveva “that which you call freedom is the strongest of these chains, though its links glitter in the sun and dazzle your eyes”.

[7] http://www.agcm.it/component/joomdoc/allegati-news/PS9345_scorrsanz_omi.pdf/download.html

[8] La sentenza del 13 luglio 2015 del Tar Lazio è disponibile https://www.giustizia-amministrativa.it/cdsintra/cdsintra/AmministrazionePortale/DocumentViewer/index.html?ddocname=M6R75UZKQTS5AKCM7IEB4IBUDI&q=tripadvisor

[9] https://www.giustizia-amministrativa.it/cdsintra/cdsintra/AmministrazionePortale/Ricerca/Appello/index.html?nrg=201503120&numProvv=201509355&tipoProvv=SENTENZA&sede=ROMA

[10] Il riferimento è a M. LIBERTINI, Le pratiche commerciali sleali, in Manuale di diritto privato europeo, Giuffrè, Milano, vol. III, 2007, p. 451

[11] Cfr. considerando 18, direttiva 2005/29/CE.

[12] Lo studio è stato compiuto da Gene Moo Lee professore di sistemi informatici presso UBC Sauder, da Sungha Jang, assistente professore di marketing alla Kansas State University, Ho Kim, assistente professore di marketing digitale e social media presso l’Università del Missouri-St. Louis, e Reo Song della California State University. http://www.sauder.ubc.ca/News/2017/Fake_news_can_backfire_for_companies_caught_in_the_act

[13] Si tratta un’immagine, un video, una frase o un concetto capace di diffondersi online in tempi rapidissimi. La parola è stata coniata da Richard Dawkins nel 1976 nel libro The Selfish Gene. La parola però ha origini antiche e deriva dal greco mimëma, che significa qualcosa di imitato, un’imitazione e indica un’informazione riconoscibile dall’intelletto, appartenente alla cultura e replicabile

[14] Brussels, 26.4.2018 COM(2018) 236 final COMMUNICATION FROM THE COMMISSION TO THE EUROPEAN PARLIAMENT, THE COUNCIL, THE EUROPEAN ECONOMIC AND SOCIAL COMMITTEE AND THE COMMITTEE OF THE REGIONS, Tackling online disinformation: a European Approach. https://ec.europa.eu/digital-single-market/en/news/communication-tackling-online-disinformation-european-approach

[15]http://www.repubblica.it/tecnologia/social-network/2018/02/01/news/facebook_i_nostri_utenti_trascorrono_meno_ore_al_giorno_sul_social_-187796704/

Condividi questo articolo: