È immediatamente riconoscibile la celebre foto che ritrae Kim Phúc, allora bambina vietnamita in fuga dalle bombe al napalm. Questa volta, però, non ne parliamo come simbolo della devastazione che la guerra produce a guadagnarsi il centro della scena, ma come episodio di presunta censura (o errore?) operata da Facebook.

Il fatto

Tom Egeland è un noto scrittore norvegese. Ha dichiarato al Corriere della Sera che l’idea di ripubblicare quella foto in un post su Facebook gli è venuta a seguito di un acceso dibattito, tanto nel mondo digitale quanto offline, circa la foto viralmente circolata sul web di Omran Daqneesh, bambino ferito durante gli scontri in Siria.

Lo scrittore si è interrogato su quella foto, su quel dibattito, e su precedenti episodi simili: uno su tutti, l’immagine di Alan Kurdi, profugo siriano di 3 anni, morto annegato.

Egeland ha deciso di rievocare la potenza di quelle e altre immagini atroci che, similmente, hanno fatto la storia, nel senso che hanno testimoniato alcuni aspetti di scontri violenti avvenuti in molte parti del mondo. Tuttavia, la foto è stata rimossa dal team di Facebook per “nudità infantile”, e il suo profilo temporaneamente sospeso.

L’azienda statunitense ha poi rimediato, ripristinando i post in virtù del contesto in cui la foto venne scattata.

Qualche numero su Facebook

Può essere utile inquadrare le dimensioni di Facebook, al fine di fare successive riflessioni sul bilanciamento di valori in gioco e sul ruolo che effettivamente e realisticamente possiamo aspettarci dal colosso di Mountain View.

1,65 miliardi, gli utenti iscritti. Se Facebook fosse un Paese, avrebbe più abitanti della Cina. 1,09 miliardi di questi utenti usa il social network ogni giorno. Su Facebook vengono pubblicati 41mila post (messaggi di stato, condivisioni, immagini e così via) ogni secondo, mentre ogni minuto si cliccano 1,8 milioni di “mi piace” e 350 GB di dati passano per i suoi server. Una quantità di dati e informazioni senza precedenti.

Tra algoritmi e discrezionalità umana

Astraendo dal caso concreto da cui siamo partiti, si può rilevare una tensione, quasi dialettica, tra gli algoritmi impiegati dalla creatura di Zuckerberg e la discrezionalità umana.

Gli straordinari numeri appena accennati rendono evidente che Facebook esiste in quanto il suo algoritmo opera. Nessuna persona fisica potrebbe mai osservare e reagire ad un simile livello di interazioni che producono informazioni.

Ora, il modo in cui l’algoritmo viene disegnato certamente non è neutro, ma implica della scelte. Scelte che poi emergono nel caso concreto, come nell’episodio in questione. Allo stesso tempo, la presenza dell’uomo non è esclusa. Anzi, se questo potrà parzialmente calmare chi propone previsioni negative circa il lavoro e l’occupazione nel futuro (a fronte della progressiva sostituzione dell’uomo con i robot), emerge sempre più che la capacità di giudizio dell’essere umano, il suo cogliere i contesti oltre ai testi ed il suo comprendere i fatti solo in quanto interpretati sono capacità insostituibili, e ad oggi è assai arduo prevederne la sostituibilità nel medio-lungo periodo.

Lo si è visto anche nel caso analizzato in apertura: un portavoce dell’azienda ha dichiarato che il post andasse ripristinato perché il contesto lo rendeva adatto a Facebook. Come dire, non esiste un nudo assoluto. Esiste il nudo pedopornografico, che la società californiana persegue, e quello di interesse storico, che può avere una diffusione che nessun libro scolastico ha mai potuto garantire.

Il ruolo che Facebook dovrebbe avere

La maggior parte degli utenti di Facebook tende a far coincidere quel social network con il Web. È ovviamente nota l’esistenza di altri siti, ma moltissimi users leggono le notizie che transitano sulla loro home, anziché accedere ai siti dei quotidiani. Vedono i video in cui incappano sulla base di preferenze già espresse. Si confrontano con opinioni di persone con cui hanno scelto precedentemente di interagire (e quindi, probabilmente, si confrontano con persone simili a loro, dal punto di vista culturale o ideologico).

In altre parole, ogni contenuto su Facebook condiziona l’impressione che si ha del mondo, se non si è soliti accedere ad altre fonti. In questo senso, non è desiderabile richiedere alla società di setacciare i post dei suoi utenti e di inserire nell’algoritmo elementi di moralità. Tanto più le norme (si può considerare il codice informatico di Facebook come simile ad una norma giuridica, per il condizionamento del comportamento degli utenti) sono moralmente indifferenti, tanto più si svilupperà pluralismo.

Vero è anche, però, che il caso in questione complica ancora di più il quadro. Infatti, la reazione dell’algoritmo alla nudità infantile ci ricorda dell’impegno della società contro un tipo di contenuti che mai vorremmo potessero circolare liberamente. La pedopornografia tocca la nostra sensibilità e ci fa desiderare la reazione severa di chi è nella posizione, delicatissima, di controllare cosa rimane online e cosa no.

Ecco che i brevi concetti appena evidenziati traballano, alla prova con un valore (la lotta alla pedopornografia) che chiede di esser bilanciato con un altro (l’estrinsecazione del pluralismo delle idee).

Come spesso accade in queste circostanze, non esiste la risposta giusta in assoluto. O meglio, non c’è una cartina che ci indichi esattamente dove siano le coordinate di questo bilanciamento, dove si trovi il punto d’equilibrio.

Certamente l’intervento ab extra si renderebbe sempre più superfluo se solo aumentasse la consapevolezza degli utenti. Come altre volte è stato detto su R&P Mag, l’educazione digitale porterebbe ad avere users più capaci a relazionarsi con i contenuti deplorevoli, evitandoli e confinandoli. Risulterebbe limitata, allora, la necessità di un “Facebook etico”.

È al contempo impensabile che tutti gli utenti siano sempre educati dal punto di vista digitale in maniera sufficiente a rendere irrilevante ogni tipo di insidia. Ci saranno utenti deboli cui Facebook probabilmente penserà al momento dell’aggiornamento dell’algoritmo. Tenendolo a mente, si potrà vigilare sulla messa in atto dello stesso, ricordandoci dei valori in gioco da bilanciare e delle differenti caratteristiche tra il filtro automatico dell’intelligenza artificiale e la discrezione dell’intelligenza umana.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.