Ritorna ai dettagli dell'articolo La neutralità difficile

La neutralità difficile

di Karen Coyle

Introduzione

La crescente consapevolezza degli effetti dei social media sull'informazione corrente con cui le persone vengono in contatto porta con sé un rinnovato dibattito sul ruolo che le biblioteche svolgono nel supportare la società civile. Servizi privati quali i motori di ricerca (rappresentati qui da Google), i servizi multimediali (YouTube) e persino una fonte di informazione non-commerciale come Wikipedia, dimostrano di avere diversi gradi di pregiudizio rispetto al contenuto. È stata la tornata elettorale del 2016 negli Stati Uniti a dimostrare più chiaramente che l'argomento «è solo un algoritmo» non è una garanzia della neutralità del risultato. Il contro-argomento avanzato da molti bibliotecari - ossia che le biblioteche sono neutrali - un tempo era accettato come vero, ma più recentemente è stato messo in discussione da alcuni bibliotecari.

La cattiva educazione di Dylann Roof

Il 17 giugno del 2015 un giovane sudamericano entrò nella storica chiesa afroamericana Emanuel African Methodist Episcopal Church di Charleston, South Carolina, e fu accolto come il solo bianco a un incontro di preghiera. Un'ora dopo estrasse un fucile e uccise nove fedeli.
Il Southern Poverty Law Center (SPLC), un'organizzazione no-profit che fa ricerche su organizzazioni di stampo razzista o basate sull'odio, fece un'analisi su Dylann Roof e il suo percorso di radicalizzazione verso la supremazia bianca1. Roof aveva lasciato molte tracce di questo percorso in un manifesto in cui egli stesso descrisse il processo di ricerca che, secondo la SPLC, prese la direzione sbagliata nel momento in cui digitò black on white violence nella casella di ricerca di Google. Il risultato di quella ricerca produsse un certo numero di siti estremisti con informazioni fuorvianti relative alla minaccia rappresentata dagli afroamericani nei confronti della razza bianca. In un video, la SPLC afferma che l'algoritmo di Google creò una specie di ripetitività nel feedback, tale per cui man mano che Roof continuava a cercare informazioni la sua profilazione aumentava la probabilità di vedere letteratura razzista. Il video del SPLC sostiene dunque che: «Questo è un problema fondamentale che Google deve affrontare se intende essere veramente la biblioteca mondiale»2.
Il SPLC potrà anche avere un'esperienza significativa in diritto, povertà e razzismo, ma almeno in questo video dimostra di fare proprie alcune delle stesse idee sbagliate su Google e le biblioteche che prevalgono nella popolazione in generale. È questo tipo di convinzione che spinge alcune città a tagliare i bilanci delle biblioteche, o a eliminarli completamente, in quanto si pensa che «sia tutto su internet». Il quadro attuale si presenta complesso e con molte sfaccettature, a partire da ciò che la maggior parte delle persone intende quando parla di internet, dal ruolo dei motori di ricerca e degli algoritmi che selezionano i contenuti per gli utenti, fino alla posizione delle biblioteche (primariamente quelle accessibili pubblicamente) nella trasmissione della cultura.

Algoritmi

Nel 1999 Larry Page e Sergey Brin, mentre erano studenti alla Stanford University, svilupparono un nuovo tipo di motore di ricerca che faceva dei calcoli sull'importanza dei risultati recuperati usando dei valori 'pesati' che trattavano i link tra i siti nello stesso modo delle citazioni negli articoli accademici3. Ogni link veniva usato come una specie di raccomandazione tra un documento e un altro, facendo sì che documenti fortemente citati raggiungessero le posizioni più alte.

PageRank è una graduatoria complessiva di tutte le pagine web, indipendentemente dal loro contenuto, basata esclusivamente sulla loro posizione nella struttura a grafo del web. Usando PageRank possiamo ordinare i risultati della ricerca in modo tale da dare preferenza alle pagine web più importanti e centrali. Negli esperimenti ciò dimostra di fornire risultati della ricerca di maggiore qualità agli utenti. L'intuizione che sta dietro PageRank è di usare informazioni che sono esterne alle pagine web stesse - i link che a esse puntano e che forniscono una sorta di peer review4.

Naturalmente Google sostiene che i suoi algoritmi sono neutrali. Inoltre sottolinea che usa algoritmi e non prende decisioni editoriali. Quest'ultima sottolineatura è almeno in parte una risposta alla legge americana che concede ai portatori di dati l'immunità dalla responsabilità se essi trattano tutti i bit che passano attraverso le loro reti allo stesso modo, senza operare selezioni sulla base del contenuto del messaggio ovvero senza far pagare prezzi diversi a utenti diversi per le transazioni. Se invece fanno discriminazioni sulla base del contenuto, allora essi divengono potenzialmente responsabili per i messaggi illegali, con particolare enfasi sui diritti di proprietà intellettuale5.
Sappiamo, tuttavia, che i cambiamenti agli algoritmi di Google sono gestiti da persone. Nel 1998 Google modificò i suoi algoritmi per diminuire la visibilità della pornografia online6. Prima di allora, una ricerca di un numero sorprendente di termini avrebbe mostrato risultati da siti web pornografici; questo significava che i bambini che facevano ricerche sui personaggi Disney come Bambi, oppure su giocattoli come Barbie, venivano indirizzati alla pornografia in cui gli attori usavano quei nomi. Google attuò questo cambiamento come una decisione di tipo economico-aziendale, non di tipo politico o sociale, dal momento che essi capirono che il servizio sarebbe stato inaccettabile se fosse diventato noto per il fatto di proporre pornografia a utenti ignari.
In aggiunta, Google prende decisioni sulla base di motivazioni aziendali, ma queste sono presentate come miglioramenti agli algoritmi di ranking7. Alcune di esse sono una risposta al crescente business della 'ottimizzazione dei motori di ricerca', nel quale esperti che hanno studiato gli effetti di PageRank aiutano i siti online ad adottare i criteri per apparire in alto nell'ordine dei risultati. Parte di questo lavoro può essere considerato come un modo di raggirare il sistema creando artificialmente le condizioni per scalare il ranking, per esempio creando migliaia di link a una pagina per aumentare il suo valore in PageRank. Google afferma di effettuare fino a 500 cambiamenti ogni anno nel suo algoritmo di ranking, ma rivela pochi dettagli sul suo funzionamento, in quanto esso è considerato un segreto commerciale8.
È piuttosto chiaro che se Google può abbassare il ranking della pornografia, potrebbe anche abbassare il ranking di alcune parti dei siti razzisti. Per quanto ne sappiamo, Google lo ha già fatto. Sebbene molte ricerche che utilizzano i termini presenti in questi siti non mostrino siti razzisti nella prima schermata dei risultati, utilizzando i giusti termini di ricerca, come nel caso della pornografia, si possono comunque trovare online dei contenuti razzisti. Google (così come altri motori di ricerca) vuole che l'utente trovi esattamente quello che sta cercando; il suo algoritmo cerca di gestire i falsi risultati, ma se il contenuto esiste su internet, esso fa in modo di renderlo trovabile. È questa caratteristica che spinge le persone a tornare più e più volte ai motori di ricerca, e poiché il motore di ricerca è finanziato dalla pubblicità correlata con i termini e i risultati della ricerca, questo business basato sulla ripetizione è negli interessi commerciali di Google.
Forse, agli esordi, PageRank fu accettato come socialmente, politicamente e nei fatti neutrale, ma il mito dell'algoritmo neutrale è stato successivamente fatto a pezzi in numerosi studi e riflessioni, che hanno rivelato come gli algoritmi spesso incamerino i pregiudizi dei loro creatori e riflettano sempre un processo decisionale umano, indipendentemente da quanta competenza matematica o statistica venga applicata. In particolare, bisogna prendere in considerazione gli obiettivi dell'algoritmo9: chi ricava un beneficio dalle decisioni? Qual è l'esito desiderato, implicito o esplicito? Il risultato dell'algoritmo è prevedibile? Può essere 'raggirato'? Quali valori riflette?
Un'area particolarmente complessa è quella del machine-learning: le macchine 'imparano' da insiemi di dati che rappresentano una serie di decisioni sul contenuto. Un noto fallimento dell'apprendimento delle macchine avvenne nel 2015 nell'applicazione Google photos. L'applicazione attribuì automaticamente a un gruppo di fotografie di giovani afroamericani il tag «gorilla»10. Presumibilmente l'insieme di dati che avevano istruito l'algoritmo includevano animali ma non includevano sufficienti esempi di facce afroamericane affinché esso potesse imparare a riconoscerle con la stessa accuratezza delle facce bianche11. Problemi similari di istruzione degli algoritmi senza un campione rappresentativo riguardano alcuni programmi di riconoscimento facciale, che funzionano correttamente solo con facce bianche, oppure il «racist hand dryer» ripreso in un video, che non si accende per mani scure12. Mentre potrebbe sembrare che il testo rappresenti un problema minore, poiché è richiesta una minore interpretazione del contenuto, anche i risultati di ricerche su testi rivelano seri problemi. L'autrice Safiya Noble racconta la sua esperienza nel cercare idee per l'asilo di sua figlia: digitò «ragazze nere» e ottenne un'offensiva varietà di siti a forte contenuto sessuale, siti che differivano significativamente da quelli che uno vedrebbe come risultati di una ricerca con «ragazze bianche». Andando avanti nella sua indagine, scoprì che le ricerche di un abbigliamento consono per il lavoro mostravano quasi esclusivamente immagini di persone bianche della classe media, mentre le immagini di afroamericani venivano mostrate spesso come esempi di scelte di vestiario non appropriate, persino quando le modelle erano vestite in un abbigliamento consono13.

Si potrebbe pensare che i sistemi bibliotecari non soffrano degli stessi problemi. Tuttavia, man mano che nei software bibliotecari aumenta l'utilizzo di funzionalità come i suggerimenti nel completare i termini di ricerca o le raccomandazioni, si possono presentare le stesse situazioni imbarazzanti dovute agli algoritmi. Matthew Reisma ha raccontato la sua esperienza con un pacchetto software commerciale per biblioteche che creava dei collegamenti alle pagine Wikipedia sulla base dei risultati della ricerca bibliografica. Il sistema suggeriva la pagina Wikipedia dedicata allo «stress del personale» come suggerimento a seguito della ricerca su «donne nel personale»14. Dopo aver sottoposto questa situazione al fornitore, l'algoritmo è stato cambiato.
Il numero degli esempi di algoritmi che sottendono pregiudizi è molto ampio e questi sono solo alcuni tra i più recenti, ma bastano a respingere qualunque suggestione sul fatto che gli algoritmi siano neutrali. Non solo essi non sono più neutrali di chi li ha creati, ma sono anche molto bravi a nascondere la complessità dei loro modelli, rendendo difficile esaminare gli assunti sottostanti che alimentano migliaia di calcoli su molti milioni di risorse informative.
La neutralità è la domanda giusta?
Tornando alla storia sul ruolo di Google nella radicalizzazione di Dylann Roof, dobbiamo chiederci che cosa è andato storto. L'utente ha effettuato una ricerca e Google ha restituito e dato un ordine ai siti e documenti che corrispondevano a quella ricerca. In questo caso non sembra che l'algoritmo mostri dei pregiudizi; di fatto, si potrebbe facilmente argomentare che, almeno dal punto di vista dell'utente, il motore di ricerca ha risposto perfettamente. Il significato effettivo della rimostranza del SPLC è che l'algoritmo non ha distinto tra informazione vera e falsa, né tra messaggi socialmente accettabili e inaccettabili. Dato il numero di documenti che Google indicizza (misurati almeno nell'ordine dei trilioni), valutare la verità di una tale massa di pagine sarebbe certamente un impegno difficile, forse addirittura impossibile. Tuttavia, è stato dimostrato che Google è in grado di monitorare il contenuto delle pagine, se richiesto. In paesi che regolano i contenuti intellettuali a cui i loro cittadini sono autorizzati ad accedere, Google trova i modi per rispettare queste regole.
Negli Stati Uniti la libera espressione è garantita dal primo emendamento, che proibisce al governo di regolamentare quanto viene detto, ad eccezione di circostanze molto limitate. Le agenzie non governative, come ad esempio le multinazionali, non sono vincolate dagli stessi divieti. Tuttavia, chiedere a un'azienda potente come Google di regolamentare l'accesso all'informazione creerebbe un unico punto di controllo nelle mani di un soggetto il cui principale interesse è quello di soddisfare i bisogni dei suoi inserzionisti e il cui processo di selezione non è trasparente. Come Siva Vaidhyanathan ha brevemente dichiarato, noi che facciamo ricerche non siamo i clienti di Google, siamo il prodotto che Google fornisce alle aziende che fanno pubblicità attraverso i suoi servizi15.

Il confronto con le biblioteche

Il confronto tra un motore di ricerca su internet e una biblioteca non dovrebbe essere visto come una scelta tra diversi algoritmi di ricerca. La differenza inizia molto prima che qualunque programmazione venga applicata ai contenuti. Perché una biblioteca non avrebbe fornito al ricercatore i materiali razzisti che hanno presumibilmente trasformato Dylann Roof in un suprematista bianco e un omicida? Non è sufficiente dire che la biblioteca non avrebbe selezionato quei materiali per la sua collezione; la biblioteca non è il primo passaggio nel processo di selezione - quel ruolo è esercitato dall'industria editoriale molto prima del processo di selezione della biblioteca. Le biblioteche acquistano e mettono a disposizione ciò che può essere descritto come 'materiali regolarmente pubblicati', a indicare quelli che sono pubblicati da un gruppo di editori di contenuti noti e affidabili. Le grandi biblioteche, soprattutto le biblioteche di ricerca, spesso accettano tutte le pubblicazioni provenienti da un particolare gruppo di editori, a dimostrazione del fatto che accettano il ruolo di controllo di qualità dell'industria editoriale. Solo raramente le biblioteche accettano materiali auto-pubblicati, e ciò di solito avviene quando questo materiale ha un particolare interesse locale o scientifico.
internet, dall'altro lato, è quasi interamente una piattaforma per il self-publishing, il che vuol dire che, almeno in molti paesi, non viene presa nessuna decisione editoriale per stabilire quali documenti sono messi a disposizione sulla rete. L'algoritmo PageRank di Google non è la stessa cosa di un controllo editoriale perché nessun materiale è interamente scartato, al massimo viene relegato in pagine successive dell'ordinamento, che raramente vengono visionate.
Alle origini del World wide web ci fu un iniziale tentativo di trattare internet come qualunque altra risorse informativa, facendo delle selezioni basate sulla qualità e l'affidabilità. Siti come AltaVista16 e Yahoo iniziarono a creare forme di indicizzazione a gestione umana per i contenuti del web, che a quel tempo era di gran lungo più piccolo di oggi. Anche le biblioteche tentarono di guardare a internet come agli altri materiali delle proprie collezioni. Nei tardi anni Novanta una divisione di ricerca dell'OCLC lanciò un progetto chiamato Cooperative online resource cataloging per creare record nei cataloghi bibliotecari relativi a siti web selezionati e generare pagine web per biblioteche che mettevano insieme i materiali posseduti con risorse web di particolare importanza per la biblioteca e per il suo contesto istituzionale17. Il progetto ebbe vita breve e finì non molto più tardi del primo incontro dei partecipanti, nel 1999. Questo accadeva più o meno nello stesso periodo in cui i fondatori di Google, Page e Brin, stavano sviluppando la prima versione del loro motore di ricerca, partendo dal presupposto che l'unica soluzione sostenibile per l'indicizzazione dei contenuti del web avrebbe richiesto potenti ambienti computazionali. Senza questi motori di ricerca ci sarebbe stato un limitato accesso ai materiali sul web. Si sarebbe ritornati ai primissimi giorni di internet, quando bisognava conoscere a priori quali siti andare a guardare nella speranza di trovare il materiale necessario, in quanto c'era poca o nessuna possibilità di fare ricerca. Questo favoriva i siti delle aziende e delle organizzazioni già conosciute nel mondo analogico, mentre raramente sarebbero stati raggiunti i contenuti meno noti.

Neutralità

Poiché i servizi come Google e persino YouTube sono spesso paragonati, in positivo o in negativo, con le biblioteche, può essere istruttivo sapere cosa intendono coloro che usano le biblioteche per questo confronto. Sfortunatamente di rado viene fornita una definizione di 'neutrale' e persino di 'biblioteca', e gli assunti sulle biblioteche che sono nella loro mente non sono disponibili. Si sentono i bibliotecari dichiarare la superiorità delle biblioteche sulla base della loro 'neutralità', sebbene il termine 'neutralità' venga raramente definito e non è sempre possibile estrapolare una possibile definizione dagli argomenti esposti. Un esempio di questo è stato il dibattito programmato al meeting dell'American Library Association nel febbraio del 201818. I partecipanti all'incontro si sono espressi a favore e contro la neutralità, ma c'è stato un limitato dibattito perché le parti hanno utilizzato assunti così diversi in merito al significato del termine 'neutralità' che non hanno potuto aggregarsi intorno a una definizione comune. Le due definizioni principali di neutralità sono state:
- che la biblioteca è neutrale perché tratta tutti i membri della propria comunità di riferimento nello stesso modo, senza discriminazioni basati su razza, età, religione o stato sociale. Questa definizione fa riferimento agli obblighi delle biblioteche verso gli utenti ma non tocca la questione dei contenuti della biblioteca;
- che la biblioteca è neutrale perché fornisce accesso alla più ampia varietà possibile di risorse informative senza promuovere alcuna particolare scuola di pensiero o punto di vista.
Il primo argomento, quello relativo al trattare gli utenti allo stesso modo, non è forte. In quanto istituzioni pubbliche esistono delle leggi che regolano gli obblighi di servizio. Come ha detto un relatore, un bibliotecario deve offrire il servizio persino a quei membri del pubblico con cui non è d'accordo, ad esempio neonazisti o estremisti religiosi, fino a che il loro comportamento non viola le regole stabilite per proteggere la biblioteca e gli altri utenti. Coloro che aderiscono a questa definizione di neutralità probabilmente direbbero che se Dylann Roof fosse entrato in una biblioteca con la stessa domanda sulla violenza dei neri sui bianchi, il bibliotecario sarebbe stato obbligato a cercare di trovare dei materiali per rispondere alla sua richiesta. Il bibliotecario probabilmente non infrangerebbe la neutralità offrendo materiali con diversi punti di vista, ma non potrebbe promuoverne uno rispetto a un altro.
Il secondo argomento sembra essere più forte, ma non regge all'analisi. Secondo questo argomento la biblioteca seleziona accuratamente i materiali che supportano un'ampia varietà di vedute, diventando una specie di spazio comune dell'informazione dove gli utenti possono imparare e arrivare alle conclusioni da soli. Tuttavia, questo è vero solo entro una gamma alquanto limitata di materiali accettati socialmente e scientificamente. Le biblioteche, come accennato prima, generalmente mettono a disposizione solo materiali pubblicati da editori rispettabili. Ciò non include pubblicazioni 'marginali' oppure, se alcuni di questi materiali vengono inclusi nella collezione, è perché sono stati accuratamente selezionati per gli interessi della comunità stretta. Limitando la collezione soltanto a quei materiali che gli editori reputano 'seri', la biblioteca diventa un mero specchio della cultura corrente, che include, tra gli altri, pregiudizi di classe e razziali.

Non c'è inoltre alcuna garanzia di neutralità nel prodotto dell'industria di massa. Mentre in teoria le biblioteche selezionano sulla base dell'affidabilità e dell'accuratezza, c'è una grande quantità di letteratura popolare che nel migliore dei casi è di tipo speculativo, compresi i materiali di 'auto-aiuto' che forniscono suggerimenti di tipo non scientifico sugli stili di vita, innumerevoli teorie di regimi dietetici tra loro contradditori e dubbie promesse di benessere e spiritualità. Ci sono anche molte risorse che offrono consigli di affari che potrebbero dare i risultati sperati o anche no. Tuttavia, la biblioteca può difendere le sue scelte in quanto si muovono all'interno della normale dialettica della trattazione, in tal modo affidando all'industria editoriale il ruolo di effettivo arbitro sui contenuti. Questo è ciò che molti intendono quando si riferiscono alla neutralità della biblioteca; eppure si configura semplicemente come una forma di accettazione passiva della cultura dominante rappresentata dall'industria editoriale.
Ci sono delle tematiche della collezione libraria intorno alle quali le biblioteche e le loro comunità discutono. Alcune di queste, come ad esempio la pornografia, sono quasi uniformemente considerate al di fuori dei confini, così come i materiali che sono considerati socialmente divisivi, come i discorsi improntati all'odio. Ma persino su questi non c'è una linea netta di demarcazione. Alcune biblioteche pubbliche negli Stati Uniti hanno acquistato il libro di Madonna Sex19, sebbene in numerosi casi i membri della comunità lo avessero trovato sgradevole e avessero chiesto di rimuoverlo dagli scaffali aperti se non dalla biblioteca stessa, portando a strenue lotte tra le biblioteche e le loro comunità20. Episodi come questo dimostrano che, mentre la selezione di alcuni materiali per le biblioteche è routinaria e non conflittuale, il concetto di selezione porta con sé scelte che possono non essere neutrali.
Il dibattito alla conferenza che ci ha portato fin qui conteneva un certo numero di filoni che non si collocano perfettamente né nell'una né nell'altra delle posizioni descritte. A quel dibattito, nonché altrove, fu portato il punto di vista di bibliotecari attivisti che sentono che il loro ruolo è quello di supportare la comunità contro la cultura dominante che opprime le minoranze della società21. Attraverso le proprie politiche e l'azione di lobby, l'American Library Association combatte battaglie a favore di quei libri che riguardano argomenti controversi come l'omosessualità, le droghe e la sessualità, soprattutto quelli scritti per i giovani lettori22. Ovviamente difendere dei temi che non mettono a loro agio alcuni membri della comunità mentre supportano altri è una posizione non neutrale. È stato anche sottolineato che gli stessi bibliotecari sono più rappresentativi della società dominante che della società nel suo complesso23, sulla base del fatto che i bibliotecari americani sono per gran parte bianchi e provenienti dalla classe media24. Se la neutralità significa non mettere in discussione la cultura dominante, allora implica anche un'accettazione passiva di tutti i pregiudizi intrinsechi di quella cultura, e ciò è particolarmente problematico per i bibliotecari che servono le minoranze.

Conclusione

Google e gli altri motori di ricerca offrono una visione di internet che ha un impatto sociale e politico, sebbene l'analisi di quell'impatto sia estremamente difficile a causa della complessità e della segretezza dei loro algoritmi. Quello che sappiamo è che i motori di ricerca commerciali hanno interesse a massimizzare i profitti della pubblicità. Le biblioteche hanno invece una base sociale di finanziamento, ma questo non garantisce che non vi sia alcun bias nei loro contenuti e servizi. A differenza dei motori di ricerca, però, le biblioteche possono aprirsi agli studi sui loro meccanismi decisionali. Resta da vedere dove ci porterà la comprensione del bias di una biblioteca. Il primo passo è mettere in discussione l'idea di 'neutralità'. Ciò è però ben lontano dall'accettare un ruolo di attivismo sociale e politico da parte delle biblioteche e dei bibliotecari, dal momento che l'immagine della neutralità culturale delle biblioteche è profondamente iscritta nella professione.

NOTE

Ultima consultazione siti web: 20 marzo 2018.
Traduzione di Anna Galluzzi.

[1] Southern Poverty Law Center, Google and the miseducation of Dylann Roof, 18 gennaio 2017, https://www.splcenter.org/20170118/google-and-miseducation-dylann-roof.

[2] Southern Poverty Law Center, The miseducation of Dylann Roof, https://youtu.be/qB6A45tA6mE, traduzione dell'autrice.

[3] Sergey Brin; Lawrence Page, The anatomy of a large-scale hypertextual web search engine, «Computer networks and ISDN systems», 30 (1998), n. 1-7, p. 107-117.

[4] Lawrence Page [et. al.], The PageRank citation ranking: bringing order to the web. Technical Report, Stanford InfoLab, 1999, p. 15, http://ilpubs.stanford.edu:8090/422/.

[5] Il Digital millennium copyright act (DMCA) è una legge statunitense del 1998 che stabilisce le regole che governano i diritti di copia quando i materiali sono digitali e sono accessibili in rete. Sebbene primariamente incentrata sul copyright, la legge fissa delle eccezioni generali alla responsabilità dei fornitori di servizi online che non forniscono o gestiscono in prima persona il contenuto dei file che trasmettono in rete. Per questa ragione, fornitori di rete come Google, YouTube, Facebook, Twitter e altri sono riluttanti ad ammettere l'adozione di pratiche editoriali riguardanti il contenuto.

[6] Ken Auletta, Googled: the end of the world as we know it. New York: Penguin Books, 2010, p. 56.

[7] Claire Cain Miller, Google tweaks algorithm to push down low-quality sites, «New York times», 25 febbraio 2011, https://bits.blogs.nytimes.com/2011/02/25/google-tweaks-algorithm-to-push-down-low-quality-sites/.

[8] Steven Levy, Exclusive: how Google's algorithm rules the web, «Wired», 22 febbraio 2010, https://www.wired.com/2010/02/ff_google_algorithm/all/1/.

[9] Cathy O'Neil, Weapons of math destruction: how big data increases inequality and threatens democracy. New York: Crown Publishers, 2016, p. 19-23.

[10] Sara Wachter-Boettcher, Technically wrong: sexist apps, biased algorithms, and other threats of toxic tech. New York: W. W. Norton & Company, 2017, p. 129.

[11] Steve Lohr, Facial recognition is accurate, if you're a white guy, «New York times», 9 febbraio 2018, https://www.nytimes.com/2018/02/09/technology/facial-recognition-race-artificial-intelligence.html.

[12] T4runs, Racist hand dryer, https://www.youtube.com/watch?v=8Eo9Xdrvf-E.

[13] Safiya Umoja Noble, Algorithms of oppression: how search engines reinforce racism. New York: New York University Press, 2018.

[14] Matthew Reidsma, Auditing algorithms. In: “Code4lib 2018 Annual Conference” (Washington, DC, 15 febbraio 2018), https://mreidsma.github.io/talks/code4lib/.

[15] Siva Vaidhyanathan, The Googlization of everything. Berkeley: University of California Press, 2010, p. 3.

[16] Versioni precedenti delle pagine web o vecchie pagine non più attive possono spesso essere trovate su Internet archive, ad esempio: http://web.archive.org/web/19990208011304/http://www.altavista.com:80/.

[17] Thomas B. Hickey, CORC-cooperative online resource catalog, 11 giugno 2003, http://worldcat.org/arcviewer/1/OCC/2003/06/11/0000003480/viewer/file1.html.

[18] Amy Carlton, Are libraries neutral? President's program tackles heavy subject from multiple angles, «American libraries», 12 febbraio 2018, https://americanlibrariesmagazine.org/blogs/the-scoop/are-libraries-neutral/.

[19] Madonna; Steven Meisel; Fabien Baron, Sex. New York: Warner Books, 1992.

[20] Free-speech champion Gordon Conable dies, «American libraries», 18 gennaio 2005, https://americanlibrariesmagazine.org/free-speech-champion-gordon-conable-dies/.

[21] R. David Lankes, My remarks on library neutrality for the ALA midWinter president's panel, «R. David Lankes», 11 febbraio 2018, https://davidlankes.org/my-remarks-on-library-neutrality-for-the-ala-midwinter-presidents-panel/; Questioning library neutrality: essays from progressive librarian, edited by Alison Lewis. Duluth: Library Juice Press, 2014.

[22] American Library Association, Top ten most challenged books lists, http://www.ala.org/advocacy/bbooks/frequentlychallengedbooks/top10.

[23] Myrna Morales; Em Claire Knowles; Chris Bourg, Diversity, social justice, and the future of libraries, «Libraries and the academy», 14 (2014), n. 3, p. 439-451; April Hathcock, White librarianship in blackface: diversity initiatives in LIS, «In the library with the lead pipe», 28 gennaio 2018, http://www.inthelibrarywiththeleadpipe.org/2015/lis-diversity/.

[24] Angela Galvan, Soliciting performance, hiding bias: whiteness and librarianship, «In the library with the lead pipe», 28 gennaio 2018, http://www.inthelibrarywiththeleadpipe.org/2015/soliciting-performance-hiding-bias-whiteness-and-librarianship/; Todd Honma, Trippin' over the color line: the invisibility of race in library and information studies, «InterActions», 1 (2005), n. 2, https://escholarship.org/uc/item/4nj0w1mp.