I socialbot simulano il comportamento umano sui social media, spammando in modo automatizzato.

Il profilo Twitter @diggita_foto qualche mese fa ha retwittato un contenuto che io avevo retwittato dal profilo della trasmissione radiofonica Tutti Convocati, su Radio24. Questo:

 

Twitter post

Il mio retwit

 

 

Dopo di che, ha iniziato a seguirmi. Da notare che nel tweet da me retwittato non c’è né riferimento al mondo della fotografia, né hashtag di tendenza. Da quando ho aperto il mio profilo Twitter è successo svariate volte: @tuttopasta che retwitta una battuta sulla politica, @greenworldbig che apprezza un contenuto legato ancora all’ambito calcistico, eccetera.

 

Chiedersi se è possibile che possa essere un robot, o comunque un software, non solo a seguire profili a caso, ma anche a generare un flame sui social network, è stupido. Sarebbe più intelligente chiedersi quanto frequentemente tutto questo succede, in quali situazioni e chi è solito fare uso di questo tipo di strategie per attirare l’attenzione di noi poveri utenti.

 

socialbot sono programmi che simulano il comportamento umano nelle interazioni che possono avere luogo all’interno dei social network, quindi su Facebook e Twitter. Software che spammano, insomma. 

 

I socialbot sono programmi che simulano il comportamento umano nelle interazioni che possono avere luogo all’interno dei social network, quindi su Facebook e Twitter. Software che spammano, insomma. Non è la nuova frontiera del generare-polemica, anzi, è roba che gli addetti ai lavori conoscono già da tempo.

 

Nel 2011 un gruppo di ricercatori che si presentavano sotto il nome di Web Ecology Project propose un esperimento all’interno di Twitter. Attraverso il lavoro di tre team che gestivano vari finti utenti del social network, i ricercatori hanno dimostrato che in due settimane di situazione sperimentale si è in grado di far divenire un utente di Twitter il punto di riferimento di una piccola comunità di utenti, semplicemente usando una serie di risposte automatiche.

 

Due anni prima, gli stessi ricercatori, attraverso l’analisi delle dinamiche tra utenti di Twitter, erano riusciti ad accorgersi che dietro al grande flame successivo alle elezioni in Iran del 2009, c’era un numero molto limitato di profili, tutti in grado di convogliare il traffico e il contenuto dei tweet altrui.

 

La cosa dunque, arruolare software che creino chiacchiericcio digitale su un certo tema, si può fare eccome. Di studiare la questione si è occupato il politologo tedesco Simone Hegelich, si legge sul sito dell’Osservatorio Europeo per il Giornalismo. Hegelich è arrivato ad affermare che il 5% dei commenti totali che vengono pubblicati su Twitter potrebbero essere scritti da un software, quindi da un socialbot.

 

L’odio, dunque, diventa digitale, creato e dirottato da software che vengono scambiati per utenti normalissimi. Un fenomeno del genere è in grado di smuovere e influenzare importanti decisioni, perché no, anche da parte di qualche governo. Quando leggiamo “e sul web scoppia la polemica”, dovremmo riflettere sul fatto che questa potrebbe essere stata innescata da un’entità che non pensa, ma che semplicemente processa. Quel che è peggio, processa su ordine di qualcuno. Parallelamente al conquistare gli spazi reali, come scrivemmo in un precedente articolo, i bot si apprestano dunque a controllare anche lo spazio che è di loro competenza, ovvero quello virtuale dei social network.

 

Qualora il progresso tecnologico possa favorire una sempre migliore capacità da parte di un software di creare un’opinione, di dirigerla e diffonderla (e può farlo), allora le informazioni che noi mettiamo in chiaro nei nostri vari profili digitali diverranno sempre più preziose (e pericolose). Consci dei nostri interessi e delle nostre tendenze e delle nostre ultime ricerche sui motori di ricerca, il generatore automatico d’odio di turno avrà vita facile nel pilotare i suoi commenti più o meno lontani da noi, a seconda se apparteniamo o meno al target di un determinato messaggio automatico, a seconda o meno dunque, se secondo il software siamo in grado di abboccare o meno ad una provocazione.

 

In questo senso, diventa sempre più importante saper riconoscere un utente finto, quindi un socialbot da un utente vero. Come si legge su Linkiesta, nel 2011 un team dell’università del Texas ha condotto un’operazione informatica per cercare di catturare gli utenti non umani all’interno di Twitter. Il trucco per attirare i profili falsi era quello di crearne altrettanti e che questi pubblicassero contenuto privo di senso, roba a cui un umano non avrebbe prestato attenzione. Dai sessanta profili falsi creati dal team di ricerca, gli studiosi sono riusciti a riconoscere 3600 potenziali account bot, profili che nella maggior parte dei casi si limitavano a ripubblicare qualsiasi contenuto incontrassero. Attraverso l’analisi del contenuto dei tweet di questi 3600 potenziali socialbot, altri ricercatori sono riusciti a creare un algoritmo dal nome Bot or Not?, in grado di riconoscere e smascherare un profilo falso e “automatico”.

 

Oggi assistiamo a forme più evolute, ovviamente, dei socialbot, tanto che alcuni, si legge, possono addirittura scovare le persone più popolari ed influenti e seguirle, attirare la loro attenzione e contattarle tramite messaggi. Le differenze essenziali tra il profilo socialbot e un account di una persona reale sono legate essenzialmente alla quantità di contenuti che vengono pubblicati. I bot tendono a ripubblicare post molto più di frequente rispetto agli esseri umani, e hanno username e account più recenti. A scrivere l’algoritmo in grado di riconoscere i socialbot è stato il team di Emilio Ferrara, ricercatore dell’università dell’Indiana, ed è disponibile sul loro sito web.

 

Riconoscere i socialbot rischia di diventare una delle attività principali anche per i media. Un’operazione molto simile al cd debunking, ovvero il riconoscere e smentire le teorie cospirazioniste e le bufale. Su it.ejo.ch ancora, si legge la preoccupazione dovuta alla tendenza di alcune testate giornalistiche ad assecondare i flame che nascono nei commenti ai loro articoli. Il lavoro di un’intera redazione potrebbe essere influenzato dall’azione di un unico socialbot, abbastanza bravo da sviluppare chiacchiere poco costruttive (magari su un argomento rilevante), oltre che a farsi dei seguaci, umani, non in grado di riconoscere l’artificiosità di un account. 

 

Tanti socialbot sono stati creati e programmati per fini commerciali, e imbattersi in uno di questi è piuttosto facile, soprattutto su Twitter. Basta dare un’occhiata agli argomenti di tendenza del giorno, cliccare su In Diretta, e osservare come in pochi minuti lo stesso account twitti lo stesso contenuto per decine e decine di volte.

 

Molti altri socialbot però hanno intenzioni ben peggiori e saperli riconoscere può fare la differenza tra un web inteso come forum digitale in grado di ospitare il confronto, e il muro di un bagno pubblico.