di Paola Castellucci
All'interno delle tecniche di recupero di informazione in rete basate su algoritmi, un approccio promettente è quello detto Ant colony optimization (ACO), sottoinsieme della teoria degli sciami1. Attive sin dagli anni Novanta, le ricerche ACO sono state rilanciate con il Web 2.0 dal momento che valorizzano proprio quelle tracce lasciate dagli utenti durante la ricerca di informazioni, quali feedback, commenti o semplici like, espressi in merito a un sito visitato, un ristorante, un prodotto. Il grado di soddisfazione degli utenti durante la caccia informativa viene analizzato e valutato dagli algoritmi delle formiche e riproposto come percorso consigliato agli utenti.
Il caso più noto è quello di Amazon: cerchiamo un libro, visioniamo la pagina relativa, ci soffermiamo sulle recensioni già presenti e infine attiviamo il tasto del carrello per procedere all'acquisto; possiamo poi a nostra volta proporre una recensione. Tutte le azioni compiute e tutte le parole impiegate vengono mantenute in memoria e riutilizzate come tracce per indirizzare utenti che dopo di noi percorreranno la stessa strada: «Chi ha acquistato questo articolo ha acquistato anche...», «Hai trovato quello che stavi cercando?», «Lascia dei commenti sulla tua ricerca; i tuoi commenti possono aiutarci a migliorare il sito per tutti».
I sistemi ACO, dunque, interpretano e rappresentano in pattern significativi i comportamenti degli utenti del Web, anche quelli non esperti. L'algoritmo viene determinato grazie a un processo bottom up, laddove nel Web semantico prevaleva invece un approccio top down, centrato su grammatiche e ontologie ricavate dall'analisi e sistematizzazione dei termini considerati all'interno di un preciso contesto semantico.
Sin dal nome ACO allude al comportamento delle colonie di formiche nella ricerca di cibo e restituisce tale similitudine in un ambiente vasto e complesso quale è quello dell'information retrieval. Prende a modello gli insetti sociali, ossia una collettività forte e attiva, sebbene composta da individui che, considerati singolarmente, verrebbero definiti inadeguati. Quel che interessa è il comportamento di un gruppo organizzato, con precise regole, abitudini, ripartizione di compiti: se la singola formica è debole, fragile, viceversa il gruppo funziona e garantisce un'ottima possibilità di sopravvivenza per la specie.
Innanzi tutto va notato che ACO sceglie un ambito totalmente esterno all'informatica: il mondo animale, anzi l'etologia, l'occhio umano che osserva il mondo animale e ravvisa similitudini e differenze. Potremmo allora dire che per ACO l'ispirazione nasce da una divagazione. L'informatico coinvolto in progetti di AI deve distrarsi, guardare altrove rispetto all'informatica, e perfino alla logica, e rivolgere lo sguardo a un mondo straniero, sub-umano, dove sono in vigore altre regole, altri valori. Joseph Licklider, padre dell'intelligenza artificiale, nel fondamentale articolo del 1960, Man-computer symbiosis, aveva già indicato un simile meccanismo imitativo come base di partenza. L'argomentazione muoveva dall'osservazione della relazione simbiotica tra la pianta del fico e l'insetto che ne garantisce l'impollinazione. Licklider ricavava una morale: come da sempre avviene tra individui appartenenti a regni differenti (vegetale e animale), allo stesso modo in un futuro non troppo lontano l'uomo sarebbe potuto/dovuto entrare in relazione simbiotica con i computer. Peraltro la descrizione svela una forma sintetica di autobiografia perfino involontaria: Licklider stesso si era distratto' e dall'originario campo della psicologia sperimentale aveva rivolto lo sguardo ad altro, alla nascente computer science. Come una formica alla ricerca di cibo, Licklider aveva deviato dai consueti territori di caccia, e poi era restato lì e aveva fondato una nuova colonia: AI, appunto2.
Gli anni di Licklider sono quelli di Burrhus Skinner e della nascita del comportamentismo, da cui l'informatica apprende molto. Tuttavia, imitare un meccanismo complesso come l'uomo sarebbe stato prematuro negli anni Sessanta e lo è ancora adesso. Gli umani - tra gelosie e amori, tra invidie e passioni, voglia di libertà e di sicurezza, presi nella morsa contrastante tra ragione e pulsioni, siano esse prevaricatrici, autodistruttive, o all'opposto, altruistiche o creative - sono piuttosto il fenomeno' rappresentato dall'arte, dalla letteratura, e certo troppo complesso per poter essere ridotto in uno schema, un flow chart, un algoritmo. I ricercatori impegnati in progetti ACO, umilmente, da formichine, non tentano di replicare nemmeno un cane, con tutta la sua simpatia e affidabilità e fiuto; e nemmeno un gatto, con la sua imprevedibilità, indipendenza e istinto quasi magico; e non provano a riprodurre nemmeno un pappagallo, che ci incanta e ci inganna facendoci credere di possedere la parola. Il fatto stesso che si sia scelta invece la formica dà l'idea di quanto l'informatica sia ancora primitiva. Le formiche però sono interessanti perché hanno un forte punto di contatto con l'umano e in alcuni aspetti sembrano perfino eccellere: nella capacità di resistenza alla fatica, nell'organizzazione del lavoro (ricerca e conservazione del cibo) e in definitiva nel processo che garantisce la sopravvivenza della specie.
Sin dalla fine degli anni Cinquanta, le ricerche nel campo dell'etologia vengono utilizzate in rapporto di similitudine dagli informatici. In particolare i progetti ACO si sviluppano sul finire degli anni Ottanta, in un momento di grande rilancio di AI3. Erano gli anni in cui l'industria informatica con il PC non solo si rivolgeva direttamente al singolo, ma a una massa sempre più grande di potenziali utenti, prevalentemente inesperti. Anche fenomeni culturali coevi, quali la rilevanza della letteratura cyberpunk - che reciprocamente nutre e si nutre delle ricerche informatiche - segnano il periodo e offrono un contesto culturale adatto4. Il cyborg evidenzia una necessità culturale, politica, artistica, di sfumare i confini tra l'umano e l'animale e il meccanico. In particolare le ricerche della biologa-filosofa-attivista Donna Haraway si compendiano nella proposta di un manifesto' per una ricollocazione dell'umano, oltre le classi sociali, oltre i partiti politici, oltre il gender, e perfino oltre la separazione umano/animale5.
Nulla di strano, dunque, che in quel periodo venga preso un insetto come modello per l'umano. Anche se, diversamente da Haraway, ACO non teorizza la rottura dei confini, ma piuttosto indirizza verso una normalizzazione e una ottimizzazione - come appunto viene sottolineato nella stessa denominazione - dei comportamenti della formica operaia, in relazione alle regole del formicaio. Ulteriormente, con la nascita del Web, la possibilità di contare su un sistema imitativo/migliorativo da applicare agli utenti della rete rispondeva alle urgenze del caso. Gli utenti, come piccole e deboli formiche, potevano trovare un modello comportamentale che dava forza al gruppo più che al singolo, all'efficienza dell'organizzazione piuttosto che allo scatto d'intuito del singolo individuo.
I primi studi che si autodefiniscono ACO sono dunque ispirati da una pluralità di fonti: il comportamentismo, l'etologia, una concezione dell'informatica come possibilità rivolta a tutti, e infine la cultura cyberpunk. Ma è nel Web 2.0 che ACO trova il suo ambiente di sviluppo ideale. Gli utenti-formiche compongono ormai fitti reticolati di percorsi, una traccia mnestica punteggiata di commenti, like, post. Ogni formica lascia poi un'infinità di orme involontarie, dovute al semplice passaggio in un sito e perfino al tempo di permanenza, o alla scelta di effettuare o meno il download, o alla decisione di comprare un prodotto online. E, ormai appare chiaro, la rete non cancella le tracce. Lo abbiamo visto recentemente anche a seguito di alcuni drammatici fatti di cronaca: nessuno può dimenticare la giovane donna suicida perché esposta e infangata su Facebook. In ragione di simili eventi, da poco più di due anni inizia a essere riconosciuto il diritto all'oblio', ossia la possibilità di cancellare tracce di sé dalla rete, foto, messaggi lesivi della propria dignità. Rispetto al momento della nascita del Web, è quindi più forte il problema della persistenza della memoria, piuttosto che della perdita, talvolta coincidente semmai con una salvifica rimozione6.
Osservando il comportamento delle formiche, gli informatici si soffermano in particolare sul funzionamento dei ferormoni. Ogni volta che una formica, da sola, si allontana dal formicaio alla ricerca di cibo, lascia una scia di ferormoni, e così fa anche quando trova cibo. Gli etologi hanno anzi scoperto che la quantità di ferormoni è proporzionale alla quantità di cibo rinvenuto, nonché al tempo trascorso nel luogo dove si è svolta la caccia. La medesima formica, o altre dello stesso formicaio, seguiranno poi le tracce di ferormoni persistenti sul terreno. Come nella favola di Hänsel e Gretel, vengono in tal modo condotte verso il sito fortunato (secondo la denominazione di Google).
Il percorso effettuato la prima volta dalla formica alfa non è prevedibile: esce dal formicaio e si muove da sola a caccia di cibo. Sceglie la via che di volta in volta appare praticabile (perché sgombra, sicura, vicina). Può trovare, oppure no, ma comunque, nel fare questi movimenti, lascia tracce che la tengono legata al formicaio, come alle altre formiche che verranno, e contemporaneamente alla propria memoria'. La formica è cioè sola nella caccia ma imbracata nel reticolo dell'esperienza. I ferormoni rilasciati tracciano un percorso erratico dettato dal caso o dalla sagacia serendipitosa. Li si potrebbe anche vedere come segni inconsapevoli, come nella scrittura automatica surrealista, o nel pendolino delle sedute spiritiche, o nel percorso di un rabdomante: ogni immagine, ogni similitudine, evoca una distinta catena semantica e differenti possibilità interpretative e progettuali che magari verranno praticate in futuro dagli informatici.
Va anche sottolineato che la traccia di ferormoni si rinforza (diremmo con lessico del comportamentismo) quanto più il tragitto è breve e fruttuoso. Se poi il luogo dove è stato rinvenuto cibo si depaupera per supersfruttamento, la formica cambierà percorso. Le precedenti tracce di ferormone diventeranno sempre più flebili, fino a scomparire. Potremmo allora dire con lessico della teoria dell'informazione che il segnale si indebolisce e dissuade così altre formiche a ritentare la strada. Magari è necessario che il luogo si ripopoli di cibo, o che cambi la stagione. Oppure - direbbero gli umanisti - bisogna aspettare che cambi il canone, il gusto.
Gli algoritmi ACO riproducono i percorsi delle formiche-utenti in un calcolo probabilistico che tiene conto di quale percorso è stato ritenuto preferibile. Vengono pertanto valutati opportunamente quali pesi attribuire a ciascun fenomeno o valore, tenendo conto delle condizioni espresse dall'utente nell'impostare la ricerca (limiti temporali, di costo, di lingua, uso di operatori booleani). Vengono ovviamente tenute in considerazione anche le strade senza uscita: ad esempio, l'utente non ha visitato le pagine all'interno del sito, non ha effettuato download, non ha stampato, non ha lasciato commenti, o sono negativi.
Particolare attenzione viene data alle scelte effettuate dai persistent users ossia dagli utenti più attivi sul Web, quelli che lasciano una traccia più persistente di ferormoni'. Spesso si tratta di strade poco percorse in termini di numero totale di utenti transitati; tuttavia sono interessanti perché frutto di scelte effettuate proprio da quegli utenti che rappresentano l'eccezione positiva, e come tale, verosimilmente, l'eccellenza. Dai persistent users ci si aspetta cioè che abbiano scelto la strada nuova e fruttuosa, risultato magari di una ricerca più attenta e consapevole, e forse anche espressione di competenze più sicure o di un gusto meno convenzionale. Anche in questo caso sono motivo di ispirazione le ricerche degli etologi. Hanno infatti notato che le formiche rilasciano una maggiore quantità di ferormoni laddove hanno rinvenuto una piccola quantità di cibo, ad esempio una goccia di miele, ossia un bottino che è al contempo più leggero e più nutriente. I ferormoni rilasciati non sono cioè banalmente proporzionati al peso del cibo; analogamente nel Web, piccole quantità di informazione rinvenute da utenti particolarmente esperti possono essere di maggior rilevanza. ACO è dunque un ranking algorithm: si pone come principale obbiettivo quello di presentare la lista dei risultati secondo un ordine significativo per rilevanza. Nulla di simile era possibile con i sistemi di information retrieval delle banche dati dell'online classico; e neanche i motori di ricerca del primo Web potevano soddisfare appieno le aspettative perché si basavano prevalentemente sul matching della parola e sul numero di occorrenze rinvenute. E perfino PageRank è inferiore ad ACO nello stilare la classifica dei risultati: Google infatti si autoalimenta, dal momento che i siti più linkati appariranno automaticamente nelle prime posizioni di visualizzazione; ulteriore conseguenza è che i risultati non possono essere aggiornati in tempo reale, ma solo dopo aver ricevuto l'implicita approvazione tramite citazione, ossia tramite linking. Gli algoritmi ACO cercano pertanto di sviluppare nuove metriche, nuovi valori da tenere in conto per calcolare il grado di rilevanza probabile.
Per ottenere questo risultato, ACO fa tesoro della precedente esperienza sviluppata con la robotica e con i sistemi sociali di automi, come ad esempio i droni7. Se infatti il giudizio di un singolo utente del Web può essere irrilevante, non appropriato o eccentrico, l'algoritmo deve trovare una saggezza nell'armonizzare media statistica (la maggioranza degli utenti preferisce...) e picchi di eccellenza (comportamenti dei persistent users). Sono infine da tenere nel debito conto le intersezione di percorsi compiuti da differenti comunità di utenti. Nel punto di compresenza (operatore booleano AND) si manifesta cioè il comportamento inconsapevolmente altruistico delle differenti comunità di utenti: ciascun gruppo persegue infatti il proprio vantaggio, ma nel fare ciò involontariamente lascia tracce utili anche ad altre colonie di formiche-utenti. Se, ad esempio, l'oggetto cercato è una telecamera di buone prestazioni ma leggera, andranno considerate le scelte fatte da turisti (prevale l'attenzione al costo), ma anche da sportivi e in particolare da escursionisti (cercano una telecamera non pesante), e non sarà insensato valutare le scelte compiute anche da agenti immobiliari (vogliono una telecamera con alte prestazioni tecniche per ottenere foto accattivanti, utili a favorire la vendita dell'immobile). Se la scelta effettuata da differenti tipologie di utenti, determinata da motivazioni diverse (costo, peso, prestazioni tecniche) viene a coincidere in un punto del Web, ossia converge nell'apprezzamento di una telecamera in particolare, ebbene sarà questa a conquistare il posto più in alto nella classifica prodotta dall'algoritmo8.
Appare pertanto evidente che ACO ha potuto svilupparsi dal momento in cui si è assestato il Web2.0, quando gli utenti hanno avuto modo di auto-organizzarsi nell'ambiente - come avviene in natura e nelle società - e sono diventati anche autori-attori e non più solo, appunto, utenti. Da quel momento sono diventati percepibili i feedback, si è fatto più forte il profumo informativo', la traccia di ferormoni' rilasciata dagli utenti-formiche sul terreno del Web9. A tutto ciò va aggiunta una precisazione: è stato calcolato che almeno un terzo delle domande poste a motori di ricerca erano state avanzate precedentemente. Quindi il patrimonio informativo lasciato come traccia sul Web è altissimo e va debitamente sfruttato, e non solo per una funzione banale come le FAQ. Gli algoritmi ACO vogliono piuttosto ottimizzare i risultati che si sono evidenziati nell'osservazione dei fenomeni comportamentali degli utenti10.
Anche altri elementi, più nascosti, vanno tenuti in considerazione. Durante la caccia informativa, infatti, alcune azioni sono automatiche e talvolta perfino inconsapevoli. Ad esempio, l'utente utilizza uno specifico indirizzo IP; accede a siti che necessitano di password; si sofferma per un tempo più o meno lungo; visualizza solo alcune pagine; effettua download e magari attiva la funzione carrello e procede all'acquisto. Tutte azioni significative ed entrate ormai anche in vicende giudiziarie come prove testimoniali (se il sospettato era collegato in rete intorno all'ora del delitto, e cosa guardava, e se c'è connessione con il delitto...). Sempre più l'intelligenza artificiale seguirà queste tracce, mantenendo memoria e interpretando anche le espressioni dell'utente mentre ricerca informazioni in rete (settore di ricerca detto visual recognition). Lo schermo del computer, come uno specchio magico, tramite la telecamera puntata verso chi usa la tastiera, conserverà le espressioni del volto e da queste si cercherà di tracciare un identikit emotivo, e come tale rivelatore. Si renderà pertanto sempre più necessario includere nei gruppi di ricerca ora formati esclusivamente da informatici, anche psicologi, o esperti di diritto.
Negli ultimi anni, infatti, il rapporto lettura/scrittura tende a invertirsi: da una parte un uso quotidiano del Web porta anche a un uso creativo, fino ad arrivare anche a esperienze emozionali o artistiche anche da parte di chi artista non è (caricare foto personali, commenti, pubblicare propria musica o scrittura); dall'altra, la risposta può essere sovradimensionata e misera, fino a dar luogo a comportamenti esibizionisti (comunico ai social network tutto quel che faccio, anche se di nessun interesse o spessore, o anche in modo non autentico). Senza soffermarci su casi drammatici recentemente diffusi dalla cronaca, ma rimanendo in una situazione standard, possiamo concludere che l'utente 2.0 lascia molte tracce non cancellabili del suo passaggio11. Tracce che delineano una rete di percorsi che possono essere utilmente ripercorsi da altre formiche. Se quindi cerco un albergo, non solo Google mi offre una risposta indirizzandomi verso il sito più fortunato; ma posso fare una metaricerca' e confrontare diversi risultati; infine posso io stesso aggiungere nuovi contenuti, nuova conoscenza, inserendo recensioni che magari rinforzano o indeboliscono il percorso. In tal caso, sono proprio i metamotori come Trivago, Tripadvisor, Booking, a lusingare la voglia di protagonismo autoriale informando a scadenza periodica circa il successo della recensione (numero di lettori e percentuale di pareri concordi) e a proporre strategie per ampliare ulteriormente la visibilità (aggiungendo foto; traducendo la recensione in inglese).
Alcune precisazioni sono necessarie. Occorre assumere che le recensioni non siano mercenarie; tuttavia, anche se si tratta di recensioni sincere, comunque esprimono il gusto di un altro o di qualcuno che non ha gusto, o ha un gusto ormai standardizzato e che si rinforza ulteriormente proprio tramite il consenso ricevuto. O forse, proprio io non ho gusto, oppure ho gusti insoliti o, viceversa, troppo facili da intercettare. E poi il gusto cambia: da qui la necessità espressa da alcuni ricercatori ACO di non sostenere algoritmi fondati solo sul rinforzo e come tali self-fulfilling e, potremmo aggiungere, autocompiaciuti. Viceversa, bisognerà prevedere che l'algoritmo sviluppi una estrema disponibilità alla duttilità, al cambiamento di prospettive, perfino in tempo reale12.
Possiamo allora concludere che l'algoritmo delle formiche funziona e offre la cosa giusta per molti. Occorre considerare attentamente questo aspetto: offre la cosa giusta non solo per me, né per tutti. Rispetto a questa che è certo una qualità di ACO non dobbiamo avere un atteggiamento snob perché il Web è generalista e deve dar modo a chi cerca di trovare: non schiacciati da information overload, né delusi da una risposta pari a zero. La possibilità data a tutti di ricercare rinforza il common sense. È giusto che sia così: il basic fa girare il mondo, come l'istruzione elementare obbligatoria. Gli algoritmi ACO si rivelano pertanto efficaci in caso di richieste di informazioni che possono tradursi in comandi o in atti performativi. Prendiamo il caso più evidente: in condizioni di pericolo (emergenze ambientali, umanitarie o sanitarie, o attacchi terroristici) poter contare su un algoritmo ACO efficiente si rivelerebbe un potente mezzo di aiuto e contrasto perché offrirebbe in tempo reale direttive precise, come ha tragicamente dimostrato il tam-tam su Facebook durante gli attacchi terroristici a Parigi e Nizza, quando gente atterrita e in fuga cercava un rifugio per la notte. Ci sono momenti in cui non tutte le strade sono opportune, ma occorrono regole condivise. E anche in situazioni quotidiane, è utile che grandi masse di utenti possano essere indirizzate facilmente - attraverso la rete, raggiunta tramite cellulari sempre e ovunque - verso la migliore soluzione. Vengono in mente casi concreti: raggiungere l'uscita meno affollata al termine di un concerto o una partita, o cercare un taxi, in tempo reale.
Il Web generalista non deve cioè lasciare disorientati. Il punto però è se possa, e fino a che punto, orientare. Tanto più che finora un campo di applicazione dove ACO ha avuto particolarmente successo è quello delle recensioni a film e libri, laddove, però, la comunità di utenti coinvolta è esperta e sempre, anche nel mondo di carta, aveva costruito in autonomia proprie consapevolezze, tecniche, percorsi, tra le fonti. Si tratta inoltre di una comunità tra le più antiche della rete e risale addirittura alle liste di discussione di fine anni Settanta. Proprio per la comunità dei lettori, quindi, il rischio che i consigli si trasformino in consigli per gli acquisti è elevato; e quel che è più grave è che in tal modo si rischierebbe di spegnere il loro ardore, la loro sete di cercare e trovare in autonomia.
Tra gli informatici non è apparso finora prioritario il problema di definire l'utente ideale o l'ambito per gli algoritmi ACO. Si concentrano piuttosto sul fatto che funzioni. In effetti gli informatici sono addetti al calcolo; sta semmai a noi umanisti individuare gli ambiti in cui il calcolo può essere adeguatamente applicato, valutando anche i rischi derivanti da un eccesso di funzionamento, da un indirizzamento troppo efficace. Il paradosso è solo apparente e svela semmai una questione molto seria e che diventerà sempre più centrale nei prossimi anni: ideare un algoritmo giusto è un compito ben diverso da cercare una via giusta, libera, autonoma, alla disseminazione e alla ricerca di informazione. Già Francesco Antinucci ci aveva messo in guardia: l'algoritmo che funziona bene e indirizza verso il ristorante vicino, con buon rapporto qualità/prezzo e giudicato con 5 stelle dalla maggioranza, produce anche effetti negativi: tutti vengono infatti indirizzati lì e si formano file come non si vedevano da anni, mentre altri buoni ristoranti chiudono13. Anche se le recensioni sono affidabili e la qualità del ristorante è innegabile, tuttavia il pensiero massificato, unico, omologato, e come tale potenzialmente pericoloso, si autoalimenta14.
Appare allora urgente il compito di valutare gli ambiti di applicazione di ACO, al fine di promuovere un'etica dell'accesso, oltre che un accesso efficiente. Proprio in questo ambito si aprono nuove possibilità per un'attiva presenza degli umanisti all'interno di progetti di ricerca informatici. In definitiva, noi umanisti dovremo individuare altri valori da riprodurre nel meccanismo dell'algoritmo, oltre l'efficacia/efficienza, oltre la performatività e anche oltre il mercato. Lavorando con colleghi informatici di solito viene chiesto all'umanista interventi di ornato (bella scrittura, citazioni eleganti, magari la traduzione in inglese). Oppure è lo stesso umanista a sviluppare un atteggiamento autolesionista: imita l'altra colonia di formiche fino al punto di dimenticare quella di origine. Così ci trasformiamo/travestiamo da informatici, da statistici e il nostro sapere - basato fondamentalmente su un pensiero critico e su competenze ermeneutiche - si camuffa da scienza o tecnica. O ancora, ci viene chiesto di dimenticare l'identità o di considerarla un'altra vita, o perfino di fare pubblica abiura, ad esempio non presentando lavori letterari nel cv. Non è giusto e, usando il linguaggio delle altre formiche, non produce nemmeno risultati efficaci/efficienti. Dovremmo semmai ripercorrere con la memoria le tracce lasciate dalla nostra formazione umanistica e metterla a frutto: noi, imparando dagli informatici, e loro da noi. Insieme possiamo trovare nuove strade, seguendo apparenti digressioni, come peraltro è avvenuto nei momenti fondamentali della storia della rete.
Allora l'umanista può iniziare a lasciare le sue tracce, provando a spostare il punto di osservazione. Per prima cosa occorre definire che tipo di formica possa essere presa a modello. ACO tende cioè a isolare e modellizzare solo gli aspetti ritenuti da molti come positivi: la capacità instancabile della formica di lavorare, seguendo regole rigide e riuscendo a trovare le strade giuste, laddove col termine si intende di successo. La formica diventa allegoria della rigida organizzazione sociale, delle capacità manageriali, o della taylorizzazione' del lavoro. È la formica della favola di Esopo e di La Fontaine. Viceversa, altri artisti hanno dato altre rappresentazioni della formica. La rigida allegoria si dischiude allora nelle mille possibilità delle metafore: alcune positive, altre invece inquietanti, distopiche. Così fa, ad esempio, Gianni Rodari in Filastrocche in cielo e in terra, negli stessi anni di Skinner e Licklider, quando anche le verità assolute delle fiabe vengono contestate o - con gli strutturalisti - scomposte in funzioni, analizzate e reinterpretate:
Alla formica
Chiedo scusa alla favola antica
se non mi piace l'avara formica.
Io sto dalla parte della cicala
che il più bel canto non vende, regala.
Sembrano considerazioni infantili. E lo sono, essendo rivolte a bambini. Ma non per questo perdono forza rivoluzionaria: invitano a imitare altri modelli, a seguire altri valori. Rodari lo dice con tono lieve e non con la disperazione di Boris Vian di Le formiche, scritto durante la seconda guerra mondiale e rappresentazione del feroce alternarsi di vita e morte; ma per entrambi, da posizioni estremamente diverse, la formica mette di fronte a un problema di senso15.
Anche Italo Calvino in La formica argentina utilizza le formiche come modello negativo. Una povera famiglia, con un bambino piccolo, fatica a sopravvivere, mentre la casa, il terreno intorno, le case dei vicini, sono infestate da formiche: loro sì, riescono a mangiare e a mantenere la specie. Sebbene la scrittura fosse iniziata nel 1949, in piena influenza, anche politica, del realismo, Calvino individua un momento di pace (se non proprio la soluzione o la catarsi) nella capacità di distaccarsi dal confronto con la formica: occorre «sformicarsi» e spingersi oltre la realtà del quotidiano, magari con una passeggiata al mare
Analogamente John Fante in Full of life, negli stessi anni, mette a contrasto una coppia che attende un bambino con le famiglie di termiti che infestano la casa: sono ben organizzate, mentre per gli umani tutto è complicato. Loro riescono a riprodursi e a tirare avanti, senza tentennamenti, mentre per gli umani tutto sembra difficile, incerto. Ma gli umani proprio in questa complessità trovano amore, memorie, gioia. «Tutti hanno le termiti», conclude il padre del protagonista, muratore, chiamato in soccorso. Con la sua dolcezza, umanità, esperienza, offre l'aiuto decisivo alla coppia in difficoltà; li invita ad accettare i problemi, senza puntare a un idealismo, a un perfezionismo, che finirebbe per distruggerli. Basta chiamare un falegname e riparare i buchi prodotti dagli efficienti insetti.
Molti altri sono gli esempi possibili. Gli artisti ci dicono che occorre guardare da più prospettive e porsi la domanda di che peso dare al divergente. Torniamo allora al caso iniziale, Amazon. Dobbiamo chiederci se un algoritmo ACO è adatto per consigli di lettura. Apparentemente Amazon è analogo al Memex. Anche nella macchina pensata da Vannevar Bush, infatti, rimaneva traccia dei percorsi di lettura precedenti (i percorsi associativi). Ma il Memex è più simile a una biblioteca d'autore: si sa chi ha segnato quei percorsi e si può riconoscere, o meno, autorevolezza al lettore che ci ha preceduto. Invece il sillogismo di Amazon («Se hai letto questo, e se molti lettori, dopo questo libro, hanno letto questo, allora anche tu... ») deriva da un calcolo automatico e non ci permette di distanziarci. La ricerca in rete ci appare allora talmente efficiente da presentarsi come un assoluto, frutto di un motore immobile di ricerca, lontano, inaccessibile, e i cui risultati sono talmente giusti da essere assunti senza scetticismo (ossia senza verifica scientifica) e meno che mai contestati. Certamente Amazon è funzionale a vendere libri; ma, appunto, è un sito commerciale di successo che si avvia anzi a diventare una forza monopolistica, in grado di mangiarsi tutte le librerie del mondo. Il rischio è che un algoritmo che offre risultati pertinenti e rilevanti vada a incentivare la logica di mercato e non un ampliamento della lettura e delle capacità critiche del lettore. L'algoritmo ha funzionato troppo bene, e le formiche hanno conquistato ogni spazio disponibile.
Eppure - in quanto lettori lo sappiamo - un percorso sicuro non sempre offre il viaggio più attraente, un successo non concede necessariamente intima soddisfazione, appagamento. Il percorso giusto, non necessariamente è giusto. Vanno pertanto sostenute, a diversi livelli, azioni di contrasto per evitare che le vendite determino il canone, con il risultato che solo alcuni autori conquistino visibilità, a discapito di altri, ignorati o presto dimenticati (la traccia non è persistente). Così non c'è innovazione, ma continui rinforzi dei risultati ottenuti. Con il rischio di costruire una cultura (e una società) conservatrice e, in definitiva, di ammazzare il desiderio del lettore e con esso l'anelito a nuove storie, emozioni, valori.
Come lettori dobbiamo difendere la nostra libertà di scegliere seguendo il piacere dell'«infinito intrattenimento», come dice Maurice Blanchot. D'altra parte, un algoritmo basato sui like paradossalmente nega proprio il principio pop della attribuzione dei like. Se infatti nel dire «mi piace» non sono tenuto ad alcuna spiegazione e quindi rinforzo il puro piacere (ho scelto il libro per il titolo, per la copertina, perché è breve, perché mi ispira il tema, perché se ne parla, perché mi ci sono imbattuto per caso e poi mi è, semplicemente, piaciuto) viceversa il calcolo di algoritmo che indirizza verso uno specifico libro di successo toglie ogni fascino all'avventura a due, tra il lettore e la storia. Un algoritmo (e proprio questo la formica umanista potrebbe insegnare alle formiche informatiche) davvero evoluto dovrebbe allora inserire anche uno spruzzo di casualità, un tocco di libertà. Dovrebbe cioè essere debitamente pesato il divergente, il caso, l'antitesi, l'erranza del flâneur. Dovrebbe essere possibile attivare un algoritmo che dica: «Mentre la maggioranza leggeva le avventure del maghetto, c'era invece chi leggeva... » (funzione booleana NOT). Oppure, l'algoritmo dovrebbe proporre al lettore più esperto anche risultati ottenuti mediante calcolo stocastico. In tal modo si aprirebbero spazi imprevisti e come tali avvincenti (funzione booleana OR). Altrimenti i lettori forti potrebbero trovare rozzi e infantili i percorsi consigliati, quando invece si aspettano che la letteratura li porti in un altrove, lontano dalle strade più battute.
La consuetudine con i messaggi ambigui dell'arte - che ti portano lì, ma anche là, e poi lì - muove gli umanisti. Proprio questi desideri e queste competenze possono essere trasmesse e condivise con colleghi informatici al fine della costruzione di un algoritmo che rappresenti altre formiche, e che compensi l'omologazione. Un algoritmo per mantenere il piacere della lettura e anche per uscire fuori dal canone, per scoprire avanguardie, antagonismi. Il che, dal punto di vista informatico, significa anche parlare con onestà: occorre dichiarare cosa abbiamo deciso (quale scopo si vuole ottenere), o cosa siamo in grado di fare ora (cosa si riesce a ottenere), con i nostri ancora miseri mezzi, umani, di ricerca informatica. Occorre cioè che sia trasparente, dichiarato, il principio che muove la costruzione dell'algoritmo. L'intellettuale deve dire la verità, ossia su quali principi, su quali pesi e misure è stato costruito l'algoritmo. E l'intellettuale deve dire la verità all'informatico, e l'informatico deve dire la verità all'utente16.
Appare quindi necessario diversificare gli algoritmi per utente esperto/principiante. Nel caso in esame, l'esperto coincide con il lettore forte che sa scegliere da sé, in una catena di rimandi bibliografici, di scarti, di desideri, quale libro far seguire a quello appena letto. Un algoritmo, semmai, potrebbe soddisfare la sua voglia di giocare («chi ha letto questo libro ha letto anche... lo avresti mai indovinato?»). Oppure, più semplicemente, al lettore esperto dovrebbe essere ricordato di guardare anche oltre il decimo risultato: a caccia, magari, apax, di occorrenze isolate ed eccentriche e come tali interessanti. Infine, dovrebbe essere segnalato al lettore che le storie, ormai, non sono veicolate solo dagli editori tradizionali. Se non inseriamo, o all'interno del calcolo stesso dell'algoritmo o come meccanismo di lettura dei risultati, queste precisazioni, sempre meno il lettore si concederà il lusso e la bellezza di una esitazione. Aumenta cioè il rischio che il lettore si dimentichi che può girare il capo dall'altro lato e decidere di andare a leggere in un romitaggio segreto, intimo.
Pertanto, in quei contesti in cui non sono dominanti (o non dovrebbero esserlo) valori quali la velocità, l'efficienza, la media standard, il modello comportamentale delle formiche non si rivela adatto. Se, viceversa, relativamente al fattore tempo i valori sono la permanenza, la durata, la contemplazione, la digressione, la riflessione, il sogno, l'immaginazione, la creatività, l'eccezione; e se relativamente al fattore spazio i valori sono la competenza disciplinare specialistica, il gusto divergente o bizzarro, o raro, l'innovazione, occorre costruire presto un algoritmo che rappresenti le altre formiche.
Un modello come Amazon, regolato da potenti, efficientissimi, algoritmi non è quindi adatto a un modello bibliotecario né, ovviamente, a una digital library. Come diceva la filastrocca di Rodari, il modello bibliotecario è proprio quello che segue l'etica del regalo e della condivisione, della disseminazione, non certo dell'efficacia/efficienza. In tal senso è interessante la scelta fatta dal primo repository, arXiv, che presenta l'elenco delle nuove accessioni in ordine non di rilevanza ma, semplicemente di arrivo, e consapevolmente sostiene tale scelta, avendo fiducia nel lettore, sapendo che sarà lui stesso a sapere cosa è meglio leggere (o che forse il meglio non esiste affatto, o esiste solo per ciascuno, in determinati momenti)17. Già solo da questo piccolo dettaglio ci rendiamo conto che la catena di valori e tradizioni che lega l'etica del pubblico, il modello di servizio della biblioteca, e il movimento open access è fortissima, e va sempre difesa. E una delle azioni di difesa è lasciare lo scaffale aperto, lo spazio del caso e della libertà, della gratuità, della inefficienza.
Quando Norbert Wiener nel 1950 pubblica The human use of human beings, il manifesto politico della cibernetica, individua infatti proprio l'efficiente formica come modello negativo18. Macchine di nuova generazione promettevano la possibilità per gli umani di sgravarsi dei compiti più faticosi, rischiosi, noiosi, guadagnando tempo per attività intellettualmente più appaganti; la formica, viceversa, rimandava a un passato retrivo, disumano, marcato dai sistemi totalitari. Certo, la formica è efficiente, ma secondo Wiener esiste tuttavia «il serio rischio morale di esagerare l'importanza dei risultati conseguiti» (p. 15). Infatti, per coloro che «hanno fatto dell'efficienza il loro primo ideale» - ossia per gli industriali, per i direttori di grandi laboratori scientifici, per i decisori politici - «la condizione meccanicamente regolata dalle funzioni prestabilite verso la quale sono attratti è la condizione delle formiche». Ma, per Wiener - l'ha scritto qui e altrove, l'ha ribadito con scelte che riguardavano tanto la carriera scientifica che l'impegno etico, come cittadino, ad esempio rifiutandosi di partecipare al Progetto Manhattan, ossia la costruzione della bomba atomica - certo il modello della formica non solo non è auspicabile, ma va contrastato:
In una comunità di formiche ogni lavoratore svolge una particolare funzione. C'è una casta di soldati. Alcuni individui altamente specializzati hanno la funzione di re e di regine. Se l'uomo dovesse scegliere come modello una comunità siffatta, egli dovrebbe vivere in uno stato fascista in cui teoricamente ogni individuo è condizionato fin dalla nascita a una particolare occupazione; in cui i governanti sono eternamente governanti, i soldati eternamente soldati, i contadini non cesseranno mai di essere contadini, e l'operaio è condannato sempre a essere un operaio.
Ultima consultazione siti web: 15 ottobre 2016.
[1] Marco Dorigo; Thomas Stützle, Ant colony optimization. Cambridge: MIT Press, 2004.
[2] Rimando a La simbiosi uomo-computer, in Paola Castellucci, Dall'ipertesto al Web: storia culturale dell'informatica. Roma-Bari: Laterza, 2009, p. 80 e seguenti.
[3] Alberto Colorni; Marco Dorigo; Vittorio Maniezzo,Distributed optimization by ant colonies. Parigi: Elsevier, 1991, p. 134-142. Marco Dorigo; Luca M. Gambardella, Ant colony system: a cooperative learning approach to the traveling salesman problem, «IEEE Transactions on evolutionary computation», 1997, p. 53-66.
[4] Éric. Bonabeau; Marco Dorigo; Guy Theraulaz,Swarm intelligence. Oxford: Oxford University Press, 1999. Marco Dorigo; Gianni Di Caro; Thomas Stützle, Ant algorithms, «Future generation computer systems», 16 (2000).
[5] Donna J. Haraway, Manifesto cyborg: donne, tecnologie e biopolitiche del corpo. Milano: Feltrinelli, 1995.
[6] Nel periodo del primo Web molti manifestavano la paura che i nuovi supporti avrebbero portato alla perdita della memoria. Un esempio significativo in tal senso è offerto da i contributi raccolti in: L'eclisse delle memorie, a cura di Tullio Gregory e Marcello Morelli. Roma-Bari: Laterza, 1994. Anche la formazione filosofica di alcuni degli autori ribadisce che da Platone in poi ad ogni cambio epocale di spazio dello scrivere si ripropongono tali ansie.
[7] Jie Wu; Karl Aberer, Swarm intelligent surfing in the Web. In: ICWE proceedings of the 2003 international conference on Web engineering. Heidelberg: Springer, 2003, p. 431-400.
[8] Alessio Malizia; Kai A. Olsen, Toward a new search paradigm: can we learn from ants?, «IEEE social computing», 2012, p. 79-81.
[9] Christopher Olston; Ed H. Chi, ScentTrails: integrating browsing and searching on the Web, «ACM transactions on computer-human interaction», 10 (2003), n.3, p. 1-21.
[10] Marco Dorigo; Vittorio Maniezzo; Alberto Colorni, The ant system: optimization by a colony of cooperating agents, «IEEE transactions systems, man and cybernetics», 1996, p. 29- 41.
[11] Al momento del lancio di Gmail lutente manifestò infatti un senso di disagio per la mancanza della funzione cestino, successivamente introdotta. Randall Stross, Pianeta Google. Milano: Sperling & Kupfer, 2009.
[12] Tommaso Turchi; Alessio Malizia; Paola Castellucci; Kai A. Olsen, Collaborative information seeking with ant colony ranking in real-time. In: Digital libraries on the move: 11th Italian research Conference on digital libraries, IRCDL 2015, Bolzano, January 29-30, 2015, revised selected papers, a cura di DiegoCalvanese, DarioDe Nart, Carlo Tasso. New York, Berlin, Heidelberg: Springer, 2016, p. 104-115.
[13] Francesco Antinucci, L' algoritmo al potere: vita quotidiana ai tempi di Google. Roma-Bari: Laterza, 2009.
[14] Pedro Domingos, L'algoritmo definitivo: la macchina che impara da sola e il futuro del nostro mondo. Torino: Bollati Boringhieri, 2016.
[15] Boris Vian, Le formiche. Milano: Marcos y Marcos, 2000. Lomonimo racconto è il primo della raccolta.
[16] Edward W. Said, Dire la verità: gli intellettuali e il potere. Milano: Feltrinelli, 1995.
[17] Asif-Ul Haque; Paul Ginsparg, Positional effects on citation and readership in arXiv (pubblicato su arXiv nel 2009).
[18] Norbert Wiener, Introduzione alla cibernetica. Torino: Bollati Boringhieri, 1996, p. 75. Nell'edizione italiana L'uso umano degli esseri umani è stato aggiunto solo successivamente, come sottotitolo.