Provate a scrivere "Three Black Teenagers" in Google Immagini. Ora provate a fare lo stesso con la frase "Three White Teenagers". Notante differenze nei risultati della vostra ricerca? La discrepanza è evidente: da un lato mostrano immagini di foto segnaletiche, dall'altro una serie di fotografie caratterizzate da persone sorridenti e solari. L'immagine dei due risultati ha immediatamente fatto il giro del web, creando stupore e generando diverse critiche rivolte verso l'azienda di Mountain View. Ma Google può davvero essere accusata di razzismo?
Three Black Teenagers vs Three White Teenagers
La differenza tra i risultati, in effetti, c'è ed è evidente; vi basta effettuare le ricerche in prima persona per verificarne l'esistenza. "Three Black Teenagers" riporta solo foto segnaletiche di ragazzi di colore, mentre "Three White Teenagers" restituisce immagini luminose e felici di ragazzi bianchi. Il problema, però, è da ricercare altrove, così come la soluzione non è necessariamente quella di obbligare l'azienda a modificare le schermate in favore di risultati meno razzisti. Perché in realtà, contestualizzando la notizia in un'ottica di algoritmo, la "colpa" è più degli utenti che di Big G.
La colpa non è di Google
Proprio come i link dei classici risultati di ricerca, infatti, anche le immagini presenti nella relativa sezione del portale dipendono da diversi fattori, come la condivisione, le ricerche e i clic sui collegamenti. Questo significa, come hanno sottolineato in molti sui social, che la visualizzazione di contenuti negativi riguardanti la comunità di colore dipende anche dalla continua condivisione di storie negative. "Dobbiamo cominciare a condividere, cercare e realizzare più storie positive sui ragazzi di colore" spiega Antoine Allen, lo youtuber che ha dato inizio al dibattito. "Se ci fossero più storie di giovani di colore impegnati in azioni positive, le notizie finirebbero in cima ai risultati di ricerca". Infine, i più attenti fanno notare che le ricerche incriminate sfruttano parole ben precise: utilizzando i semplici "black teenagers" e "white teenagers" i risultati sono simili e mostrano foto d'archivio.
Gli altri errori dell'algoritmo
Insomma, se proprio si vuole addossare parte della colpa al motore di ricerca, questa ricade sul fatto che Google non censura i suggerimenti più offensivi. Al di là del caso teenagers di colore e teenagers bianchi – le immagini, derivando da articoli di cronaca, dipendono unicamente dalla rilevanza di questi ultimi – il motore di ricerca aveva già dimostrato di proporre risultati "illuminanti" nel caso dello studio dei pregiudizi. Per capire in che modo, basta cominciare a scrivere "Le donne non dovrebbero" su Google. Le risposte sono da medioevo: "essere educate", "lavorare", "avere potere", etc. "Gli uomini non dovrebbero", invece, non mostra risultati suggeriti. Se scriviamo "Le donne devono" Google ci suggerisce "morire" ed "essere sottomesse". Nel corso degli ultimi mesi, a dimostrazione che gli utenti possono davvero modificare i risultati, sono diminuite le frasi negative in favore di più suggerimenti positivi. Come "le donne devono sempre ricordarsi chi sono e di cosa sono capaci".