editoriale

Se lo dice l’algoritmo

Possiamo delegare scelte e valutazioni agli strumenti di analisi dei dati?

Quo facto, calculemus”. Era il diciassettesimo secolo quando il filosofo e matematico Gottfried Leibniz, ancora giovane, sperava di poter elaborare un modello logico capace di risolvere ogni dibattito in un mero calcolo, che fornisse risposte precise e inconfutabili. Oggi, in virtù della mole di dati prodotta ogni giorno e delle capacità di calcolo delle macchine, il mito leibniziano è più vivo che mai. Ad alimentarlo sono i grandi gruppi come Google, o Facebook, coloro cioè che possiedono questa enorme mole di dati e che grazie a questi si presentano come autoproclamatosi detentori di verità.

Se nella ricerca avanza l’idea della “fine della teoria” celebrata da Chris Anderson nel suo celebre articolo su Wired nel giugno 2008, in tutti i campi si diffonde una fiducia cieca verso l’algoritmo e la correlazione statistica, non solo in termini di efficienza e velocità ma di decisionalità, delegando alla macchina capacità di analisi obiettive.

L’algoritmo valuta le performance degli insegnanti nelle scuole, come e quanto investire in Borsa. Grazie alla medicina predittiva, i numeri ci dicono quando e se ci ammaleremo, e di cosa. Ci dicono quali rischi corriamo, come ben sanno le compagnie assicurative che nei big data hanno trovato un indispensabile alleato. E, ovviamente, numeri e algoritmi ci dicono cosa ci piace. Quali libri, quali articoli di giornale, quali film, quale musica. Ci dicono, insomma, cosa intendiamo per “bello” e meritevole di essere letto, ascoltato, visto. È la morte definitiva dei critici e del giudizio di qualità per come lo intendiamo tradizionalmente, sepolto sotto il crollo di qualsiasi intermediazione: critici, esperti, studiosi, intellettuali. Non sono più loro a dirci quali sono i consumi culturali che vale la pena seguire: se tutto si può misurare, conta il giudizio condiviso. Punto.

Già a fine 2013 uno studio della Stony Brook University ipotizzava un modello statistico per riconoscere, tra un insieme di testi e in base alle proprietà stilistiche, quale può avere maggior successo. I libri presi in considerazione per l’analisi provenivano dal database di Project Gutenberg, e come criterio di valutazione si usava il conteggio dei download, considerando come valore aggiunto le vendite su Amazon o la vincita di premi letterari. Alcuni autori e editori evidenziarono come l’argomento trattato sia un elemento fondamentale nella valutazione di un opera, che l’algoritmo ignorava basandosi solo sullo stile. Di tentativi ve ne sono stati altri, fino al settembre 2016, quando l’ex-editore Jodie Archer e il co-fondatore del Laboratorio letterario della Stanford University Matthew Jockers pubblicarono The Bestseller Code, testo nel quale si descrive un algoritmo messo a punto dagli autori per riconoscere libri destinati a diventare best-seller. Il sistema ha preso in esame 20 mila romanzi usando avanzate tecniche di analisi dati, considerando temi, trama, stile e personaggi delle opere. L’accuratezza del risultato fu notevole: in un gruppo di 100 libri – di cui 50 bestseller e 50 no – il sistema ha saputo predire la sorte delle opere nell’80% dei casi, seppur facendo totalizzare il massimo punteggio a Il Cerchio di Dave Eggers, che in Inghilterra aveva venduto la rispettabile quantità di 43.638 copie, ma senza mai entrare nella top 50 dei libri più venduti.

Per capire le radici di tutto questo, bisogna fare un passo indietro. Nell’algoritmica “classica”, che non fa uso delle moderne tecniche di machine learning, la macchina ha il compito di eseguire determinati calcoli in un prefissato ordine. È un’algoritmica trasparente, dove l’intero ragionamento è noto e comprensibile, che consente l’esecuzione di calcoli anche complessi in poco tempo, ma fallisce laddove vi è da simulare un ragionamento umano non analitico, come può essere il riconoscimento di un volto ma anche la catalogazione di una musica all’interno di un genere, o, per l’appunto, un giudizio su un’opera artistica. Nel machine learning l’algoritmo si nutre di una grossa mole di dati, spesso già “valutati”, e da questo insieme di partenza impara a compiere la stessa valutazione, minimizzando per quanto possibile l’errore. Il risultato è una “black box”, un algoritmo capace, dato un input simile, a compiere l’analisi richiesta, senza che il programmatore sia a conoscenza degli specifici criteri di valutazione.

Nel compiere azioni che consideriamo “intuitive”, un algoritmo di questo tipo riesce ad ottenere risultati notevoli, riproducendo l’analisi su dati nuovi presi in esame usando i criteri appresi. Quella dell’espressione di un giudizio di qualità è un esempio sicuramente calzante e sempre più utilizzato. Nel caso della valutazione di un testo, ad esempio, si fa uso di NLP (Natural Language Processing), un processo di elaborazione del linguaggio, utilizzato anche nella sentiment analysis. Si può quindi ad esempio riconoscere gli articoli o i tweet più apprezzati, disponendo di un database di testi già valutati dagli utenti con i like o le condivisioni.

Così è nata l’utopia (o la distopia?) di un’applicazione che riconosca in automatico le caratteristiche che fanno di un manoscritto un buon libro, per far risparmiare tempo e risorse ad un editore nella valutazione di centinaia o migliaia di testi che pervengono alle case editrici, per selezionare in automatico quelli più idonei alla pubblicazione.

Ma davvero un algoritmo può essere in grado di riconoscere un “testo bello” oppure no, al di là dell’eterno dibattito editoriale tra qualità di un testo e sua affermazione di vendita? Per rispondere dobbiamo considerare la differenza fondamentale tra un algoritmo di tipo classico e quello di apprendimento automatico: per riuscire a far compiere ad una macchina ragionamenti “intuitivi”, abbiamo costruito macchine capaci di affidarsi a valutazioni probabilistiche più che deterministiche, lasciandogli, in un certo senso, la possibilità di sbagliare (cosa che, ad esempio, non è concessa ad un algoritmo dedicato al riconoscimento di una password).

Ma soprattutto, la fase di apprendimento di un metodo intuitivo è un processo in cui la macchina si appropria anche di bias, distorsioni ed errori eventualmente presenti nel dataset di partenza. Ce lo ricorda il celebre caso di Tay, il bot twitter di Microsoft ritirato perché antisemita, o il software affetto da pregiudizi sessisti dopo aver imparato a scrivere da Google News. Ma sarebbe un errore, da questi casi, dedurre che gli algoritmi non siano in grado di scrivere tweet e articoli, così come sarebbe superficiale concludere che il giudizio di qualità non è affare delle macchine.

Il vero mito irrealizzabile, semmai, è proprio quello – auspicato o strumentalizzato a seconda delle occasioni – di una oggettivazione del giudizio, della neutralizzazione (in senso di divenire neutrale) della valutazione. La delega algoritmica si avvale di una retorica scientista, che tende ad eclissare i processi di rappresentazione e le scelte che avvengono nella costruzione dei modelli. Al pari di un addetto umano ai lavori, la cui cultura e quindi la cui capacità di valutazione sono esse stesse costituite dall’esperienza, dunque il suo giudizio è sindacabile e può essere messo in questione, così lo è quello di una macchina che apprende ed esercita il suo apprendimento.

Vi sono poi certamente da considerare le implicazioni politiche di questa dinamica, ovvero di come spesso un dataset possa essere costruito ignorando le minoranze culturali e le diversità, rischiando così di dare origine ad una macchina con opinioni e gusti aderenti all’interpretazione dominante e allo stesso tempo forte di una retorica oggettiva. Non sono temi che oggi possano essere lasciati ai dataentusiasti della Silicon Valley, nè possiamo lasciarci intimorire dalle distopie tecnofobiche. È con l’intenzione di proseguire questo dibattito, in modo critico e multidisciplinare, che a inizio del prossimo anno uscirà per D Editore l’antologia Datacrazia, una raccolta di saggi di vari autori e autrici sulle implicazioni politiche, economiche e culturali della datification dei processi sociali e della pervasività delle nuove tecnologie.

Articolo pubblicato su pagina99 il 7 dicembre, nel numero “la dittatura dei numeri”, dedicato ai big data nella politica e nella cultura