All’inizio dell’ottobre 2020 Facebook ha risposto alle principali critiche espresse dal documentario “The Social Dilemma”, prodotto e distribuito da Netflix, con un comunicato

Nel paragrafo introduttivo del testo diramato dall’azienda si legge: “È doveroso avere una discussione sull’impatto dei social media sulle nostre vite. Ma ‘The Social Dilemma’ seppellisce la sostanza nel sensazionalismo. Invece che offrire uno sguardo sfaccettato sulla tecnologia, dà una visione distorta di come le piattaforme social funzionano e crea un comodo capro espiatorio per quelli che sono problemi sociali complessi e difficili.”

Le critiche individuate da Facebook sono sette e possono essere divise in due gruppi: il primo si riferisce alle pratiche dell’azienda che impattano sui singoli individui e comprende dipendenza, monetizzazione, algoritmi e dati; il secondo si riferisce alle conseguenze socio-politiche attribuite all’utilizzo della piattaforma e comprende polarizzazione, elezioni e disinformazione. 

A mio parere, le risposte di Facebook al primo gruppo di critiche puntano a proiettare l’immagine di un’organizzazione che sembra dover ricorrere al commercio quasi come ultima ratio per poter continuare a offrire gratuitamente i propri servizi.

Ritengo invece legittime le risposte al secondo gruppo di critiche: con l’eccezione dell’esasperazione algoritmica di contenuti falsi e incitanti all’odio, Facebook non può e nemmeno dovrebbe essere ritenuta responsabile di tutti i problemi socio-economici e politici del nostro tempo, che vanno piuttosto analizzati nella loro complessità e affrontati responsabilmente: non da un’azienda, per quanto onnipresente, ma dalla politica. 

1.Dipendenza

La prima replica è all’accusa che la piattaforma sia progettata per “agganciare” gli utenti e far loro spendere il maggior tempo possibile online. Facebook replica dicendo di aver modificato l’ordine in cui l’algoritmo del News Feed presenta i nuovi contenuti, scoraggiando, ad esempio, i video virali. Il social network usa poi un espediente tipico della comunicazione aziendale che funziona perché confonde, ovvero la presentazione di un risultato numerico aggregato invece che individuale. Si legge: “Questo cambiamento [dell’ordine in cui il feed presenta le news] ha portato a una riduzione di cinquanta milioni di ore al giorno del tempo speso su Facebook” (corsivo mio).

Tralasciando il fatto che il numero preciso delle ore e dei minuti che gli utenti passano su Facebook e la loro variazione sono evidentemente parametri che l’azienda monitora attentamente, e anche il fatto, più preoccupante, che l’azienda è o pensa di essere in grado di influenzare il modo in cui miliardi di persone spendono il loro tempo con un semplice ritocco del suo algoritmo. Ma ‘cinquanta milioni’ è un ordine di grandezza con cui non ci possiamo misurare e che di conseguenza non possiamo giudicare.

Se però prendiamo questo stesso numero impossibile da immaginare e lo dividiamo per il numero di utenti attivi ogni giorno su Facebook, 1,5 miliardi nell’ultimo bilancio annuale pubblicato, troviamo qualcosa di decisamente più maneggevole: due minuti al giorno, che scendono a 1,3 minuti se consideriamo tutti gli utenti che accedono almeno una volta al mese alla piattaforma, 2,5 miliardi. 

Ecco come la scelta del modo di comunicare influisce sulla percezione del contenuto, in una pratica comune ma a mio parere poco meno che manipolatoria.

2.Il prodotto non sei tu

L’affermazione “Se il servizio è gratis il prodotto sei tu” è ormai un luogo comune nella discussione sui modelli di business delle piattaforme digitali (qui parlo della storia dei media finanziati dalla pubblicità, lunga quasi duecento anni). Ma il modo in cui l’azienda risponde all’accusa di commercializzare l’attenzione dei suoi utenti è una captatio benevolentiae, un modo per accattivarsi il pubblico: “Facebook è una piattaforma supportata dagli annunci pubblicitari, il che significa che vendere annunci pubblicitari ci permette di offrire a tutti la possibilità di connettersi gratuitamente“.

C’è in questa affermazione un’inversione di causa ed effetto in cui sembra quasi che lo scopo principale di Facebook sia offrire connessione e non creare profitto. Senz’altro esistono startup che hanno iniziato senza l’intenzione di commercializzare il proprio prodotto e che solo successivamente si sono trovate in mano un potenziale di guadagno. Ma il modello di business di Facebook era già chiarissimo nel 2004, come si può vedere dalla slide di seguito riportata, estratta dalla presentazione agli investitori preparata da Eduardo Saverin, uno dei soci degli esordi della piattaforma.

Facebook non è mai stata un’azienda no-profit che suo malgrado deve ridursi a vendere spazi pubblicitari per continuare a offrire i suoi servizi gratuitamente. Al contrario, è un’azienda con un’altissima marginalità e una disponibilità impressionante di liquidi (40% e 22 miliardi di dollari, sempre secondo l’ultimo bilancio annuale disponibile, 2018), che ha successo con gli inserzionisti perché è stata la prima a raccogliere le preferenze e caratteristiche dei suoi utenti in modo iper-granulare grazie ai big data e alle nuove possibilità computazionali, portando all’estremo quello che ogni azienda già faceva o tentava di fare da lungo tempo per conoscere meglio i propri clienti e azzeccare il prodotto giusto da vendere. 

Basti pensare che Facebook, dopo l’acquisto di WhatsApp, ha rinunciato a raccogliere la modestissima tariffa di abbonamento di un dollaro all’anno per l’utilizzo del servizio. Perché l’ha fatto? Non certo per generosità, ma perché prevede di di poter fare più soldi in altri modi una volta moltiplicato il numero degli utenti grazie alla gratuità della piattaforma (ad esempio, facendo pagare le aziende per comunicare con i propri clienti tramite WhatsApp, utilizzando i metadata, cioè i dati sull’utilizzo della piattaforma, acquisendo una posizione di monopolio nel mercato della messaggistica… Questo articolo di Investopedia approfondisce l’argomento). 

C’è qualcosa di male in questo? Dipende dalla posizione di ciascuno sul turbo-capitalismo e sulla legittimità dell’utilizzo della psicologia e della scienza comportamentale nel marketing, ma questa è un’altra storia. 

3.Algoritmi

Facebook sottolinea giustamente di non essere l’unica azienda a impiegare algoritmi per offrire i propri servizi, dando così anche una stoccatina a Netflix e i suoi meccanismi di raccomandazione. Dopo pochi paragrafi però si legge: “In Facebook usiamo [gli algoritmi] per mostrare contenuti che siano più in linea con gli interessi delle persone, che siano post degli amici o pubblicità”.

Se l’affermazione suona dissonante è perché nasconde informazioni importanti in una retorica che sembra sempre volta a offuscare gli obiettivi commerciali dell’azienda. Facebook modula i suoi algoritmi non solo per decidere cosa mostrare agli utenti in termini di annunci pubblicitari, cosa su cui comunque gli utenti hanno sempre avuto scarso controllo qualunque fosse il mezzo di consegna di tali annunci (TV, radio, cartelloni, cataloghi del Postal Market), ma determina la composizione dei feed tout court, anche per quanto riguarda interessi e affetti genuini. Questo per intensificare l’engagement degli utenti, aumentarne il tempo passato sulla piattaforma e, così facendo, migliorarne la propria conoscenza a livello individuale e aggregato e in ultimo vendere più annunci pubblicitari, spacciandoli per più accurati a fronte di dati più copiosi e più precisi (dico “spacciandoli” perché queste aziende, dopotutto, hanno bisogno di vendere – e come sempre nel branding c’è una componente di esagerazione).

4.Dati

Sulla sicurezza dei dati in effetti Facebook ha dovuto prendere dei provvedimenti e dichiara di avere “ora migliaia di persone che lavorano su progetti relativi alla riservatezza“. L’azienda sottolinea correttamente di non ricevere dai suoi inserzionisti dati sensibili sugli utenti, e di non vendere a sua volta i dati sugli utenti raccolti tramite l’attività degli stessi sulla piattaforma. 

Bene, ma quello di vendere o acquistare dati non è mai stato il modello di business di Facebook. 

Il modello di business di Facebook è sempre stato invece la vendita di annunci pubblicitari agli inserzionisti, in modo per lo più automatizzato tramite la propria piattaforma self-service. Il vantaggio competitivo di Facebook è dato dal targeting piuttosto raffinato reso possibile dalla segmentazione della gran quantità di dati demografici, psicografici e comportamentali che vengono o volontariamente ceduti, o inavvertitamente “seminati” dagli utenti durante la loro interazione sul social network, e raccolti automaticamente dalla piattaforma. 

5.Polarizzazione; 6.Elezioni; 7.Disinformazione

Alle accuse di aumentare la polarizzazione, influenzare i risultati delle elezioni e favorire la disinformazione Facebook replica a mio parere in modo sensato, contrapponendo da una parte argomentazioni che riportano la discussione dalla tecnologia all’esperienza umana, e dall’altra presentando  le azioni, a quanto pare piuttosto energiche, intraprese dall’azienda per arginare i fenomeni negativi favoriti dalla piattaforma. 

Polarizzazione e populismo sono esistiti ben prima che Facebook e altre piattaforme fossero create“. 

A meno che non si voglia ignorare la storia d’Europa degli ultimi cento anni, non si può non essere d’accordo con questa affermazione. I totalitarismi del novecento non hanno avuto bisogno dell’appoggio di social media o algoritmi di engagement per esplodere e trascinare con sé decine di milioni di persone. 

Per quanto riguarda le elezioni “per rendere gli annunci – in particolare quelli politici e sociali – più trasparenti, nel 2018 abbiamo creato una Ad Library che rende tutti gli annunci pubblicati su Facebook visibili a chiunque“. Il tool è online, funziona e si può esplorare liberamente e in modo molto semplice, anche se ci sono già state controversie rispetto alla possibilità di analizzare i dati aggregati (come ad esempio sta facendo la New York University con il progetto Ad Observer).

Sempre nella sezione dedicata alle elezioni il comunicato recita: “Abbiamo rimosso più di 100 network in tutto il mondo coinvolti in comportamenti menzogneri.” Dal cambiamento di tono, improvvisamente meno retorico e più incentrato sui fatti, le iniziative sembrerebbero provenire da team che lavorano intensamente con obiettivi concreti per riparare a disastri o, preferibilmente, prevenirli. Per quanto riguarda l’incitamento all’odio o hate speech l’azienda dice: “Abbiamo rimosso più di 22 milioni di incitamenti all’odio nel secondo trimestre del 2020, di cui più del 94% prima che ci venissero segnalati“. Più che i 22 milioni, dato che così presentato non dice nulla perché il suo ordine di grandezza dipende da quello con cui lo stiamo confrontando, interessa la percentuale del 94%. Se davvero i team (e gli algoritmi) di Facebook riescono a controllare e rimuovere una percentuale tanto alta di commenti e contenuti prima che gli utenti reagiscano, si può parlare di un risultato concretamente positivo.

Più responsabilità aziendale alle aziende, più responsabilità politica ai governi

Fermo restando che Facebook è una delle aziende più ricche e di successo della storia e che per questo motivo mal rappresenta la parte della vittima sacrificale, la gara ad attribuirle pesanti responsabilità nel campo della politica e delle divisioni sociali a mio parere fa un doppio danno, perché sposta l’attenzione sia dalle responsabilità dell’azienda sia dalle responsabilità politiche dei governi. 

È la politica che dovrebbe interessarsi a quello che fa Facebook, più che il contrario. Con la pressione politica e una legislazione responsabilizzante sarebbe in teoria possibile mettere le redini a Facebook e altre aziende tecnologiche, ristabilendo l’ordine di priorità che dovrebbe mettere al primo posto il benessere delle persone e della comunità. 

Il dipartimento della giustizia degli Stati Uniti, proprio in questi giorni, ha iniziato una causa contro Google sulla base del comportamento monopolistico e anticoncorrenziale di quest’ultima, ma, anche se Google dovesse perdere, si respira un’aria di sfiducia generale rispetto alla possibilità di giungere a conclusioni tempestive e rilevanti affidandosi ai processi e alle tempistiche del sistema legislativo corrente. Detto questo, secondo il parere di alcuni – uno tra tutti Tim Wu, professore di legge alla Columbia University ed autore del libro sul monopolio “The Curse of Bigness” – l’azione legale dà un segnale di cambiamento importante già di per sé.

Tuttavia, se i governi sono lenti rispetto al settore economico, lo sono ancora di più rispetto alle aziende tecnologiche, iperfinanziate e basate su processi rapidi e snelli, strutture flessibili, e per di più su tecnologie nuove, complesse ed in continua evoluzione che richiedono competenze specifiche e di alto livello. 

Il sospetto è che la soluzione non verrà fino a che non cambieranno i meccanismi di finanziamento del capitale di ventura che, concentrando somme senza precedenti nel settore tecnologico, rendono le piattaforme di successo difficili da regolare. 

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google photo

You are commenting using your Google account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s