Una nuova era di brogli elettorali? 

Domani, 26 aprile, a meno di pressoché improbabili ribaltoni dell’ultimo minuto, Hillary Clinton e Donald J. Trump porteranno a casa le rispettive nomination del partito Democratico e Repubblicano. E si appresteranno a preparare lo scontro finale per le elezioni presidenziali di novembre. C’è chi ha sognato con Bernie Sanders, e chi ha creduto che Cruz, nonostante la sua espressione facciale, avrebbe potuto farcela; ma ormai siamo al capolinea della corsa alle primarie. Sebbene l’ormai prossima vittoria di Hillary non sia sorprendente, quella di Trump lo è – e allo stesso tempo è fonte di preoccupazione.

 

Trevor Timm scriveva sul The Guardian: “Potresti odiare Donald Trump. Vorresti che Facebook manipolasse l’elezione contro di lui?”. Il giornalista, terrorizzato dagli ottimi risultati ottenuti da Trump nelle votazioni di New York, coglieva l’occasione per riproporre la popolare tematica da distopian-novel della manipolazione degli utenti da parte delle tech-companies della Silicon Valley. Sembrerebbe infatti che “il mese scorso alcuni impiegati di Facebook hanno creato un sondaggio interno all’azienda per chiedere a Zuckerberg se la compagnia dovesse ‘aiutare a prevenire che Trump diventasse Presidente nel 2017’”. Timm, scrive di come, se volesse, Facebook sarebbe realmente in grado di truccare un’elezione.

 

L’esempio più tangibile è quello spiegato da Jonathan Zittrain su New Republic. Nel 2010, durante le elezioni americane di metà mandato, Facebook ha mostrato ad un gruppo casuale di utenti una combinazione tra: un grafico con un link per vedere dove poter votare, un bottone per annunciare di aver votato, e/o le foto profilo di alcuni amici che dichiaravano di aver votato. I risultati di questo esperimento di ingegneria sociale? Coloro nel gruppo di persone esposte all’esperimento hanno riportato una probabilità di voto dello 0.39 per cento più alta del gruppo di controllo. In numeri assoluti, si tratta di 60 mila elettori mobilitati direttamente da Facebook, per un totale di 340 mila votanti indirettamente mobilitati dai primi 60 mila.

 

Truccare le elezioni

Cosa fa vedere Facebook il giorno delle elezioni

 

Lo stesso tema era stato discusso da Politico riguardo alla capacità di Google di truccare o influenzare un’elezione. Nell’editoriale si riportavano i risultati di uno studio svolto da Robert Epstein e pubblicato sulla rivista scientifica Proceedings, in cui si dimostrava che Google può facilmente mobilitare il 20% o più degli elettori indecisi. Come precisa lo stesso Epstein, molte delle “manipolazioni” sono involontarie, in quanto l’algoritmo di ricerca di Google, privilegia le voci più popolari e blocca parole offensive o con contenuti pornografici. Recentemente, alcuni si accorsero che su Google la funzione di autocompletamento non funzionava per le ricerche relative al partito britannico dei Tories, e ne scoppiò un caso – spiegato solo successivamente

 

 

Che fare?

 

In tanti, giustamente, gridano all’allarmismo e al complottismo quando si toccano certe tematiche. “Perché mai, Facebook dovrebbe fare una cosa del genere? Gli utenti, prima o dopo, verrebbero a saperlo e lascerebbero la piattaforma”, verissimo.

 

La Apple, ad esempio, ha avuto modo di mostrare la sua affidabilità in merito alla questione protezione della privacy degli utenti nella recente battaglia legale contro l’FBI per lo sblocco di un iPhone usato negli attentati di San Bernardino. Oltre a farsi un’ottima pubblicità, la compagnia ha generato una serie di reazioni a catena – come la recente denuncia sporta dalla Microsoft contro il Governo degli Stati Uniti per la frequenza di questo nel richiedere dati privati di clienti, senza ragioni realmente solide.

 

Il discorso è che una compagnia ha come obiettivo quello di massimizzare il profitto e quindi non farebbe cose che le si potrebbero ritorcere contro, un domani. Idealmente dunque, e a prescindere dallo strapotere che si accumula nelle mani dei colossi digitali, richiedere che lo Stato intervenga per limitare e regolare il campo d’azione di tali compagnie sarebbe ancora peggio. In teoria economica, quella ottimista e naïve, si lavora sotto l’ipotesi che lo Stato voglia massimizzare il benessere pubblico. In realtà la teoria economica cinica e realista dimostra che ciò non avviene per via di una serie di fattori tipo il lobbysmo, il prevalere di interessi personali o il perseguire la rielezione da parte del politico (tutte cose che vanno sotto il grande cappello dell’essere solo sciocchi esseri umani). Alla luce delle nozioni realiste dunque, non ha senso fidarsi dello Stato, in quanto qualsiasi regolamentazione di strumenti informativi così potenti avverrebbe in Suo favore.

 

L’approccio economico ci suggerisce di preferire che il potere e le informazioni si accumulino nelle mani della compagnia privata, in quanto avrebbe meno incentivi a adoperare comportamenti errati che non potrebbe giustificare. Si parla dunque di fiducia cieca, visto che degli algoritmi di proprietà delle compagnie non si possono conoscere i dettagli.

 

 

Allora siamo fottuti?

 

C’è un caso in cui la risposta è sì. Quello della collusione: lo Stato potrebbe accordarsi con le compagnie provider di informazioni, affinché possano operare in cambio di protezione e garanzia di non espropriazione. Ovviamente non vale la pena perdere del tempo pensando alla validità di questo scenario insensato. Sarebbe bello però non avere neanche la possibilità di specularci sopra, grazie a una diversa regolamentazione del modo in cui i Facebook e i Google del caso gestiscono i dati dei propri utenti.

 

 

The way out

 

Su New Repubblic, sempre Zittrain, che è un avvocato della Harvard School of Law, riporta l’esempio di Google che, per protestare contro lo Stop Online Piracy Act (SOPA), inserì un Doodle nella sua home che permetteva di esprimere il dissenso in una petizione da destinarsi al Congresso. La SOPA è stata messa da parte, a prescindere dall’intervento di Google. Ciò che importa è che una compagnia privata ha il diritto di prendersi tutte le libertà che vuole per quanto riguarda la gestione dei contenuti sul suo newsfeed. Dunque Zuckerberg, alla luce di quanto sopra, potrebbe legalmente decidere di seguire quanto suggerito dai suoi dipendenti, e fare campagna anti-Trump.

 

brogli elettorali

La protesta di Google contro il SOPA

 

Per l’importanza, e l’ingombranza, che tali compagnie hanno nelle nostre vite, gli Stati dovrebbero fare qualcosa per rendere più trasparente il loro operato. Jack Balkin, giurista di Yale, paragonava le big companies, per la loro importanza nella vita delle persone e per il loro lavoro di gestione dei dati sensibili dei loro clienti, a dottori e avvocati. Servirebbe una sorta di giuramento di Ippocrate anche per le compagnie, che le regoli come portatrici del vincolo fiduciario che c’è tra medico e paziente in cambio di libertà d’azione e possibilità di altri benefici – come ad esempio tax breaks e incentivi di natura economica. Per esempio, una possibilità di eliminare il velo di opacità è quello di dare all’utente la possibilità di scegliere se avere il newsfeed guidato da un algoritmo o meno. Oppure rendere tutte le vendite di dati consultabili da parte degli utenti.

 

Questo dibattito ricorda le paure legate alla introduzione di messaggi subliminali negli spot pubblicitari, quando la televisione stava diventando mainstream, e che fu risolto tramite delle apposite regole. Oggi il potenziale di influenzare gli utenti è, grazie ai passi avanti della tecnologia e dell’intelligenza artificiale, molto più grande: non si ha più l’utente che fa zapping e viene bombardato di informazioni, ma è sempre più la notizia che va dall’utente perché pilotata dal provider che ne conosce i gusti e la probabilità che clicchi sul contenuto. In questo senso dunque dovrebbe intervenire lo Stato: non per svolgere nessuna massimizzazione di sorta, ma solo per individuare una serie di regole che permettano di far sì che non ci sia più bisogno di pensare a casi limite in cui la democrazia (o meglio, ciò che definiamo, in modo naïve, tale) possa essere messa in pericolo.