Che cosa succede se il più importante social network mondiale invece di selezionare le notizie con un algoritmo automatico utilizza un team interno per cancellare quelle politicamente sgradite e promuovere invece altri temi? Lo scoop del blog Gizmodo e il fatto che Facebook non è un giornale.

Notizie social

Il blog Gizmodo, specializzato su temi tecnologici, ha lanciato all’inizio della settimana una notizia importante e insieme preoccupante a proposito di Facebook, il social network più diffuso al mondo: al contrario di quanto ufficialmente dichiarato, la selezione delle notizie “di tendenza” che appaiono sulla versione Usa del sito non si basa soltanto su un algoritmo che identifica automaticamente gli articoli più condivisi e commentati dagli utenti, ma viene manualmente aggiustata da un team interno, a cui è stata impartita la direttiva di togliere alcune delle notizie provenienti da fonti di destra e di spingere in alto alcuni temi liberal, cioè di sinistra, che vengono ritenuti degni di essere più condivisi benché l’algoritmo non li abbia identificati come tali. La posizione ideologica dei mass media è tema che riscuote un’attenzione crescente, specialmente nella misura in cui un’assenza di pluralismo sia dovuta non tanto all’uniformità di pensiero di lettori e ascoltatori (cioè il lato della domanda) a cui i media si adeguano, quanto alle scelte da parte di proprietari, direttori e giornalisti (il lato dell’offerta), i quali si prefiggono di influenzare le percezioni, le simpatie e le scelte politiche di chi legge o guarda. Tuttavia, non tutti i casi di partigianeria hanno la stessa valenza: un collocamento ideologico dei contenuti mediatici che è spinto dalla volontà di soddisfare le preferenze politiche di lettori e ascoltatori appare “meno grave” di scelte decise dal lato dell’offerta, specialmente se le scelte ideologiche sul contenuto non sono esplicite – come nel caso dei cosiddetti endorsement, i suggerimenti palesi di votare candidati appartenenti a un dato partito – ma si annidano nelle decisioni su quali temi coprire in maniera massiccia e quali passare sotto silenzio, oppure relegare come quattordicesima notizia del tg.

Leggi anche:  Italia al bivio: intervista a Romano Prodi*

L’algoritmo e la mano umana

Ma un algoritmo automatico è qualcosa di diverso, specialmente se viene presentato come un meccanismo asettico capace di identificare in tempo reale e senza ulteriori interventi umani le notizie che gli utenti stessi decidono di condividere e commentare intensamente, al fine di “farlo sapere” a tutti gli altri utenti. Come si può giustificare un’interferenza manuale sull’algoritmo? Su Gizmodo, il giornalista Michael Nunez riferisce quanto raccontato da alcuni di coloro che per Facebook lavoravano come collaboratori esterni nel team che si occupa della creazione del titolo e del breve riassunto per le notizie identificate dall’algoritmo come “di tendenza”. Fin qui nulla di strano: esistono software automatici capaci di riassumere un testo, ma il livello della prosa è ancora decisamente peggiore di quello che possono produrre esseri umani (non illetterati). Questi lavoratori – di solito giovani neolaureati provenienti dalle più prestigiose università statunitensi – avevano tuttavia ricevuto anche alcune istruzioni aggiuntive, riassumibili così:

1) togliere dalle notizie di tendenza – cioè già identificate come tali dall’algoritmo – alcune di quelle provenienti da fonti di destra, a meno che la notizia stessa non fosse stata già raccolta da giornali più centristi e liberal;

2) inserire forzatamente argomenti e notizie ritenuti meritevoli, anche se non identificati come di tendenza dall’algoritmo, ad esempio intorno al movimento #BlackLivesMatter contro la violenza nei confronti degli afroamericani;

3) evitare accuratamente articoli a proposito di Facebook stesso e, possibilmente, quelli relativi a notizie nate sul rivale Twitter.

Non si può escludere che le intromissioni nell’algoritmo automatico siano dovute all’esigenza di aderire ai gusti degli utenti stessi di Facebook, spostati in media a sinistra. Tuttavia, data la diffusione gigantesca di Facebook, riesce difficile credere che i suoi utenti siano così poco rappresentativi della popolazione statunitense, che non è certo uniforme dal punto di vista ideologico. La versione italiana di Facebook non ha (ancora?) la sezione dedicata alle notizie di tendenza, mentre molti di noi già usano un sito come Google News come primo approdo per cercare una notizia specifica. La questione sollevata da Gizmodo ha però una valenza generale, poiché siamo tendenzialmente portati a fidarci della scelta fatta da un algoritmo, proprio per la sua capacità asettica di elaborare un quantitativo di dati superiore a quella degli esseri umani. Allora, in questo caso, dovremmo forse emendare le famose tre leggi della robotica dello scrittore di fantascienza Isaac Asimov: gli algoritmi che selezionano le notizie di tendenza (ma anche le pagine web, nel caso di un normale motore di ricerca) sono speciali robot che fanno meno danni agli esseri umani – e alle imprese che li creano – se gli esseri umani stessi non gli danno troppi ordini una volta che li hanno costruiti. Un laissez-faire 2.0 per i robot dell’informazione?

Leggi anche:  Un premio Nobel a Claudia Goldin, economista e storica

 

 

 

Lavoce è di tutti: sostienila!

Lavoce.info non ospita pubblicità e, a differenza di molti altri siti di informazione, l’accesso ai nostri articoli è completamente gratuito. L’impegno dei redattori è volontario, ma le donazioni sono fondamentali per sostenere i costi del nostro sito. Il tuo contributo rafforzerebbe la nostra indipendenza e ci aiuterebbe a migliorare la nostra offerta di informazione libera, professionale e gratuita. Grazie del tuo aiuto!

Leggi anche:  Italia al bivio: intervista a Romano Prodi*