Intelligenza artificiale? Riflettiamoci su: le lectio magistralis di Federico Cabitza e Luciano Floridi.

Lo scorso 14 ottobre, nell’ambito della terza edizione della Martini Lecture Bicocca, il Prof. Federico Cabitza – esperto di interazione uomo-macchina – e il Prof. Luciano Floridi – professore di Filosofia ed Etica a Oxford – hanno tenuto due lectio magistralis sul rapporto tra intelligenza artificiale ed etica. Interventi  poi raccolti in un libro recentemente pubblicato: Intelligenza Artificiale. L’uso delle nuove macchine. I due studiosi – con i loro interventi – offrono un importante contributo nella comprensione su cos’è e quali implicazioni  può avere l’intelligenza artificiale, ovvero l’ultima rivoluzionaria invenzione dell’intelletto umano.

Secondo l’ AI Index 2021 Annual Report della Stanford University, gli investimenti globali in intelligenza artificiale sono stati nel 2020 pari a quasi 70 miliardi di dollari con un incremento del 40% rispetto all’anno precedente. La sola Unione Europea prevede, per i prossimo decennio, una mobilitazione di investimenti di circa 20 miliardi di euro l’anno. Insomma, questa nuova tecnologia rappresenta un investimento strategico a livello globale e pare destinata – grazie al suo sviluppo esponenziale  –  a trasformare radicalmente, nei prossimi anni, le società umane.

Il filo conduttore di entrambi gli interventi è rintracciabile nello sforzo dei due studiosi di rispondere alle domande che poneva Carlo Maria Martini quando nel 2015 scriveva: sono così minacciose tutte le tecnologie del virtuale? L’intero cammino verso l’intelligenza artificiale finirà per svalutare il valore della persona, riducendola a pura meccanica? O, invece, saranno i valori dell’uomo a indurre la scienza ad aprire nuovi fronti grazie alle conquiste tecnologiche? Scenario questo molto incoraggiante purché l’intelligenza umana rimanga padrona dei processi.

Federico Cabitza, nel suo intervento, pone soprattutto con la questione etica: se è vero che l’intelligenza artificiale è una modalità del “fare umano” e se per questa ragione dietro le macchine non può esistere nessuna identità o volontà autonoma, allora il problema è “valutare” l’azione umana che è dietro le macchine. Azione umana nelle macchine che si esprime  attraverso gli algoritmi. Da qui “l’algoretica”, ossia lo studio dei problemi e dei risvolti etici connessi all’applicazione degli algoritmi. Una preoccupazione per l’etica  che nasce come conseguenza della costatazione che oggi la società si trova in uno stato di “algocrazia”, vale a dire in  una situazione nella quale il flusso dell’informazione è sotto il dominio degli algoritmi.

E per fare in modo, secondo Cabitza, che l’intelligenza umana rimanga padrona dei processi; allo strapotere dell’algoritmo, in quanto strumento di manipolazione e sfruttamento, bisogna contrapporre la forza dell’androritmo, ovvero tutto ciò che può essere considerato irriducibile alla conversione algoritmica della cose umane. Nell’azione di contrasto, gli approcci “algoretici”  possono essere due: quello di subordinare drasticamente le macchine alle ragioni umane oppure quello di provare a rendere in qualche modo “etici” gli stessi algoritmi.

O forse – incalza Cabitza – la soluzione può essere trovata addirittura fuori dal perimetro degli algoritmi,  in particolare nel mondo  “dell’ethical in design”, in altre parole negli stessi processi di progettazione dove la  dimensione valoriale dei tecnici e progettisti potrebbe  esprimere la differenza. Da  queste e altre riflessioni derivano anche  i tentativi di “normare”, in qualche modo, l’intelligenza artificiale. Iniziò, quasi per gioco, molti anni fa, il grande romanziere Isaac Asimov con le famose leggi della robotica. Oggi, in un contesto tecnologico molto più pressante, è l’esperto in “diritto robotico” Frank Pasquali a proporre nuove leggi: 1) i sistemi robotici devono essere complementare e non sostituire i professionisti 2) i sistemi robotici non devono contraffare l’umanità 3) i sistemi robotici devono sempre indicare l’identità dei loro creatori, controllori e proprietari e così via.

Comunque sia, a prescindere dagli esiti più o meno positivi degli “sforzi algoretici” e normativi, quello che alla fine pervade il discorso di Cabitza è un certo scetticismo. A partire proprio dalla base del discorso, è ciò dall’interazione tra intelligenza umana e intelligenza artificiale. È infatti su questo difficile rapporto e su i suoi futuri sviluppi che, secondo lo studioso, sembrano addensarsi nubi minacciose. Si tratta di un rapporto a rischio che potrebbe finire male rispetto alle grandi emergenze globali che sfidano l’umanità: la crisi climatica, il futuro del lavoro e il futuro del sistema dell’informazione. Lo sviluppo pervasivo dell’intelligenza artificiale, si chiede Cabitza, potrà essere la soluzione per questi grandi problemi o al contrario si trasformerà in un ulteriore fattore di aggravamento? Con l’aggiunta pessimistica riguardo anche il lungo periodo quando macchine sempre più intelligenti potrebbero, addirittura,  paradossalmente causare un effetto opposto ai loro scopi, vale a dire con il loro totalizzante “fare” determinare un progressivo depotenziamento delle capacità umane con conseguenze incalcolabili rispetto al nostro “umano” modo di essere.

 Anche il filosofo Luciano Floridi, nel rispondere al cardinale Martini, mette subito in chiaro che l’intelligenza artificiale non è da considerarsi come una “nuova forma di intelligenza”, ma “soltanto” coma una “nuova forma di capacità di agire”. L’intelligenza artificiale, secondo Floridi, è infatti una risorsa sostanzialmente “stupida” che però è capace di risolvere problemi complessi senza ricorrere all’intelligenza. Ma, come? In pratica, simulando un comportamento intelligente mediante il calcolo superveloce e la statistica. Gli attuali “sistemi informatici intelligenti” sono riusciti, in altre parole,  a centrare il risultato attraverso il solo “l’agire” senza bisogno di essere intelligenti per riuscire a farlo.

Insomma, le attuali tecnologie di intelligenza artificiale si sono sviluppate separando l’agere dall’intelligere. Mentre, i paralleli tentativi tecnologici di arrivare a una forma di intelligenza paragonabile a quella umana o addirittura superiore – finora – sono tutti naufragati: gli agenti intelligenti sviluppati da questa branca di ricerca tecno-cognitiva hanno – al momento – prodotto forme di intelligenza non superiori a quelle di un tostapane.

Tuttavia, anche nello sviluppo di questa intelligenza artificiale “stupida” Luciano Floridi individua dei rischi. Si tratta, infatti, di una tecnologia che per funzionare bene e ottenere i risultati attesi ha bisogno di trasformare l’ambiente in cui opera. Ad esempio, l’auto che si guida da sola necessita una trasformazione del contesto in cui opera: un “enveloping”, un “avvolgere” il mondo in modo da trasformarlo da un ambiente ostile e imprevedibile, difficilissimo da gestire, in un luogo amico nel quale, gli agenti artificiali,  con i loro semplici strumenti di calcolo e statistici  possono funzionare aggirando tutti i problemi di significato, pertinenza, comprensione, imprevedibilità ecc. tipici di un tradizionale contesto di guida umano.

Trasformare il mondo in un luogo “amico” per gli agenti artificiali potrebbe – inavvertitamente – portare gli esseri umani a diventare parte di questo meccanismo: mettendo, insomma, l’intelligere al servizio dell’agere. Un esempio del   genere  è il baratto in rete tra servizi gratuiti e dati personali. Per manipolare l’interfaccia umana che naviga nel web e personalizzare così le offerte, l’industria pubblicitaria ha bisogno di avere quante più informazioni possibili sugli individui on line e questo lo ottiene abbastanza facilmente con lo scambio.

Insomma, il rischio che stiamo correndo secondo Luciano Floridi, è che disegnando un modo digitale a misura degli agenti artificiali “stupidi” e non a misura dell’intelligenza umana, le nostre tecnologie e in particolare l’intelligenza artificiale potranno finire con il modellare i nostri ambienti fisici e concettuali costringendoci, o perlomeno, invitandoci ad adattarci a loro perché questo, alla fine, è presentato come il modo più semplice e o migliore o talvolta unico, per far funzionare le cose.

Pubblicato in algoritmo, Intelligenza artificiale, tecnologie digitali | Contrassegnato , , , , , , , , , | Lascia un commento

Testi, autori e intelligenza artificiale

Roland Barthes, nel “Brusio della lingua. Saggi critici IV”, scrive: ..l’essere totale della scrittura è un testo fatto di scritture molteplici…esiste però un luogo in cui tale molteplicità di riunisce, e tale luogo non è l’autore bensì il lettore, e poi ancora: l’unità di un testo non sta nella sua origine, ma nella sua destinazione ecc. Barthes, in un’epoca molto lontana, pre-digitale, portando avanti la sua critica destrutturante contro  l’ideologia capitalistica colpevole di attribuire la massima importanza alla persona dell’autore, né preconizzava la morte come condizione per la “ri-nascita” del lettore.

Oggi, in una realtà completamente diversa, “digitalizzata”, caratterizzata dall’ubiqua pervasività della Rete, sembra potersi avverare quell’antica profezia di “morte dell’autore”. Ma questa volta, non per mano della critica al sistema capitalistico, bensì grazie all’impatto dei sistemi di intelligenza artificiale.

Su queste suggestivo scenario, si è basato un recente seminario dal titolo: Imitation game. L’intelligenza Artificiale entra nel mondo del libri, di Maurizio Lana dell’Università del Piemonte Orientale. L’occasione, per evocare Alan Turing e parlare di algoritmi ed editoria: una riflessione sull’iniziativa – del 2019 –  da parte dell’editore Springer di dare alle stampe il primo libro al mondo di ricerca scientifica generato da una macchina.

Si tratta di: Lithium- Ion Batteries, libro che fornisce una panoramica sulle ultime ricerche sulle batterie agli ioni di litio. La base dati per la sua realizzazione è stata ricavata dall’universo di contenuti tecnico-scientifici già posseduti dall’editore Springer sui quali, ha prima lavorato un gruppo di esperti per circoscrivere gli argomenti, e subito dopo è intervenuta un’applicazione di machine learning in grado di leggere e apprendere le caratteristiche degli articoli selezionati. Lavoro di machine learning che è stato  infine sottoposto di nuovo agli esperti umani per una revisione finale.

A questo punto, arrivati alla stesura finale, è scattata l’ora dell’intelligenza artificiale.  La generazione finale del libro  – 233 pagine suddivise in  4 capitoli, paragrafi e sotto-paragrafi – è stata presa in mano, in qualità di autore principale,  dall’algoritmo Beta Writer – sviluppato grazie alla collaborazione tra Springer e il laboratorio di linguistica computazionale applicata dell’Università Goethe di Francoforte –  che ha provveduto alla scrittura definitiva del testo, in pratica mediante un riassunto incrociato di tutti gli articoli di ricerca precedentemente selezionati, inserendo nel testo anche i collegamenti ipertestuali ai documenti originali. Gli esperti umani, che si sono limitati a scrivere l’introduzione,  nel lavoro di redazione eseguito da Beta Writer non sono  intervenuti: astenendosi assolutamente da qualsiasi intervento di modifica o correzione del testo.

Nel seminario di Maurizio Lana, le riflessioni più interessanti si sono concentrate sulla questione dell’autorialità imposta dall’ingresso dell’intelligenza artificiale nella produzione del “prodotto libro”. L’autore,  secondo tutti i criteri di classificazione,  è colui che concepisce e crea  un’opera letteraria, scientifica, artistica. Finora tutti i sistemi di catalogazione conosciuti presuppongono che la responsabilità autoriale sia a capo di una o più persone fisiche. La comparsa di un algoritmo come autore, ovviamente, getta scompiglio in tutto ciò.

Tra l’altro, l’ulteriore sviluppo delle tecnologie digitali in ambito editoriale, prevede, come hanno spiegato i responsabili della casa editrice Spring nel presentare il loro Lithium- Ion Batteries , soprattutto per quel che riguarda l’editoria accademica, nuove opportunità per esplorare la possibilità di generare contenuti scientifici con l’ausilio di algoritmi. In particolare, ai contenuti ancora interamente creati dagli umani, si affiancheranno sempre di più non solo testi creati esclusivamente dalle macchine, ma anche tutta una varietà di combinazioni di prodotti editoriali generati dal lavoro combinato tra uomo e algoritmi. Questo significa che la concettualizzazione dello status di autore si complicherà ulteriormente con il prossimo l’arrivo di prodotti editoriali frutto di un’autorialità ibrida con confini sempre più sfumati tra uomo e macchina.

Il Barthes di fine anni ’60 non avrebbe mai immaginato tali scenari e possibili epiloghi. Secondo la sua teoria, la “dittatura” dell’autore era un prodotto – sbagliato – della modernità e, paradossalmente, è proprio questa stessa modernità,  diventata nel frattempo tecnologicamente ipertrofica, che  oggi può causare davvero la “morte dell’autore”.  Forse Barthes sottovalutò, e non fu il solo, la comparsa del primo segnale di  Imitation game. Nel 1952 Chistopher Strachey, ispirato dal lavoro di A. M. Turing “Computing machinery and intelligence”, programmava un computer Manchester Mark 1 utilizzando un algoritmo combinatorio basato su 70 parole, creando così il primo generatore di testi: “Lettere d’amore”. Il computer permetteva un’esplosione combinatoria dei risultati: con sole 70 parole di base si potevano ottenere fino  300 miliardi di lettere diverse! Era un primo segnale della potenza della tecnica che anticipava il futuro dell’intelligenza artificiale.

Pubblicato in algoritmo, futuro del libro, Intelligenza artificiale | Contrassegnato , , , , , , , | Lascia un commento

Storie di biblioteche: la Biblioteca mancata, quando a un progetto di “biblioteca pubblica” si preferì un parcheggio

Mentre la modernizzazione delle biblioteche italiane è ancora al di là da venire – siamo nel gennaio del 1979 e si è solo cominciato a discutere a Roma, nel corso della Conferenza nazionale delle biblioteche italiane, sull’opportunità di realizzare un servizio bibliotecario nazionale[1]– il sindaco di un capoluogo di provincia –Latina – decide di costruire al centro della sua città una moderna biblioteca pubblica rivolgendosi per il progetto ad uno dei più importanti e influenti architetti del XX secolo: James Stirling[2]. Il sindaco Antonio Corona[3], consigliato da un suo collaboratore appassionato studente di architettura, lo sceglie con convinzione, anche perché persuaso  dalle   performance in ambito culturale dell’architetto: il progetto della Biblioteca di storia dell’Università di Cambridge, ma anche i  grandi musei tedeschi di Düsseldorf, Colonia, Stoccarda.

L’idea di Corona è puntare– come si direbbe oggi –  su un archistar e su un progetto urbanistico-culturale di livello internazionale per risvegliare la città e spingerla verso la modernità. E non c’è dubbio che Latina ne abbia bisogno. Sul finire degli anni ’70 è una città socialmente e culturalmente depressa, alla continua ricerca di una sua identità, e in questo senso anche penalizzata dalla troppa vicinanza a Roma. Il sindaco fa notare che mancano opere pubbliche importanti, edifici significativi, monumenti,  e quel poco che c’è risale al periodo della fondazione, cioè a soli cinquant’anni addietro. E nella seduta del Consiglio comunale del 9 ottobre 1979, presenta la “proposta per la ristrutturazione della zona ex Ospedale civile per una nuova Biblioteca Comunale”, e spiega all’assemblea che “la scelta di James Stirling quale progettista della ristrutturazione dell’isolato del vecchio ospedale e della nuova Biblioteca comunale è dettata non soltanto perché si tratta di una grandissima personalità a livello mondiale…ma soprattutto per la qualità delle sue opere…che mostrano una grande capacità di interpretare l’attuale aspirazione ad un ambiente nuovo e per un nuovo modo di vivere…[4]. La scommessa è che la creazione di un “sistema – biblioteca” d’eccellenza, una sorta di polo culturale attrattore per  la città, possa dare il via sia a una riqualificazione urbanistica che a una rinascita identitaria beneficio di tutta la comunità.

Stirling capisce subito che nella realizzazione del progetto, oltre a esigenze funzionali, sono in ballo anche bisogni simbolici. E queste necessità ben si sposano con il suo tipo di architettura sempre al passo con le innovazioni tecnologiche, ma anche molto attenta a interpretare i “contesti” con linguaggio “neoclassico”. In un intervista rilasciata in quegli anni alla rivista di architettura Domus, Stirling afferma:“…nelle città è essenziale avere dei punti di riferimento – una città senza monumenti sarebbe nessun luogo – per me il monumentalismo non ha nulla a che vedere con le dimensioni o lo stile, ma dipende interamente dalla presenza  – così una sedia può essere monumentale, io ne ho molte[5]. Insomma: simbolismo e funzionalismo possono coesistere,  andare a braccetto.

Si fa così strada l’idea che la nuova biblioteca pubblica debba avere caratteristiche “monumentali”. La soluzione di riqualificare le città con edifici simbolici e monumentali è una strategia antica e la sua realizzazione comporta – se si desiderano risultati coronati dal successo – interventi di architettura di qualità.  Scelta particolarmente opportuna nel caso di Latina: città giovane, priva di un tessuto storico e con pochi luoghi simbolici. Si tratterebbe, in un certo senso, del tentativo di riannodare un filo spezzato con il giovane passato architettonico della città razionalista degli anni ’30 e ’40. La nuova Biblioteca pubblica “monumentale” ubicata nel cuore della città diventerebbe un nuovo punto di riferimento in grado di segnare una sorta di continuità con i riferimenti culturali del passato.

Sempre il 9 ottobre 1979, il Consiglio comunale approva la delibera per l’avvio del progetto. E’ individuato il sito dove sarà costruita la Biblioteca: è  un lotto triangolare adiacente alla centralissima Piazza del Popolo. Ma già a partire dalla discussione in aula del 9 ottobre, si fanno vivi gli oppositori. Le critiche politiche sono subito indirizzate alle caratteristiche del progetto accusato di  megalomania e mentalità faraonica.  Il sindaco ribatte di voler realizzare strutture per rendere Latina più vivibile e nello stesso tempo di voler attuare iniziative culturali importanti che possano dare una nuova dimensione alla città e non solo a livello nazionale ma anche a livello europeo. Non solo. Il progetto è anche preso di mira dai professionisti locali. È contestata la scelta di operare nel centro storico per episodi isolati senza un vero e proprio piano urbanistico. Ma, è subito evidente  la pretestuosità dell’attacco. In realtà,  si tratta di forte insofferenza rispetto alla chiamata di un famoso architetto internazionale, scelta giudicata tutta  a discapito delle professionalità locali.

Tuttavia, dopo una partenza  a razzo del progetto, arriva il primo – lungo – stop. Le carte rimangono tre anni nei cassetti dell’architetto Stirling. Cosa è successo? Due cose: il sindaco Corona non viene rieletto e la nuova amministrazione malgrado la delibera approvata,  blocca tutto. Per fortuna nel 1983 la situazione si capovolge di nuovo: Corona si riprende lo scranno di sindaco e con lui subito riparte il progetto della nuova Biblioteca pubblica. Nel dicembre 1983 è stipulata la Convenzione tra il Comune di Latina e lo studio Stirling nella quale è stabilito che il progetto sia ultimato entro maggio 1984. Infatti, puntualmente, nel mese indicato, è presentato il progetto di massima mediante relazione tecnica, 13 tavole in scala 1:200 e un plastico in scala 1:500. Nello stesso tempo, gli oppositori tornano all’attacco: questa volta a mezzo stampa. Nelle cronache di Latina del Messaggero, l’amministrazione comunale è attaccata per non aver provveduto a un piano urbanistico per il centro in grado di “preparare” l’inserimento della  nuova Biblioteca:”“…la nuova biblioteca va a collocarsi in un centro già intasato, sicché si deve evitare un nuovo affollamento, creando anzi soluzioni che riducano quello attuale…”[6], ma è anche attaccata per la sua politica di interventi culturali nel territorio ritenuta senza progettualità,  “confusa”:“…l’edificio destinato alla Biblioteca si caratterizza all’interno per una serie di ambienti e servizi che ne fanno l’effettiva “casa della cultura” e che crea fin d’ora il problema di come diversificare l’uso della “Casa della cultura e Teatro comunale” che è in costruzione in Via Umberto I”[7].

Tuttavia, il sindaco tira dritto e vengono definite le modalità per il progetto esecutivo finalizzate all’appalto per la realizzazione dell’edificio. Lo studio Stirling comunica anche i calcoli, ricavati dagli standard internazionali dell’IFLA[8], che permettono di  stabilire dimensioni e servizi della nuova Biblioteca. Punto di partenza è la stima  della dello sviluppo della popolazione di Latina, fatta dall’amministrazione,  corrispondente a  circa 150 mila abitanti. Di conseguenza, in base al  rapporto tra libri/abitanti di 1:1:, la Biblioteca avrà un patrimonio di circa 150 mila volumi. Mentre, rispetto ai posti per studio/lettura –sempre sulla base della raccomandazioni IFLA che per città superiori a 100 mila abitanti indicano almeno 28 metri e 3/4 posti ogni 1000 abitanti – i posti complessivi disponibili in tutte le sale della Biblioteca saranno circa 500/600.

Finalmente, nel maggio 1985, si tiene a Latina la cerimonia per la presentazione ufficiale della nuova Biblioteca pubblica. Il progetto definitivo è illustrato personalmente da Stirling che ne descrive  tutti i particolari aiutandosi con un plastico in scala 1:200.È un occasione particolare, infatti dopo circa vent’anni dalla sua ultima biblioteca – quella dell’Università di Cambridge – Stirling torna a progettarne una e lo fa, mettendo insieme due temi architettonici a lui molto cari: quello della “loggia”, già utilizzato nella Biblioteca di Cambridge, e quello del “cilindro” ispirato dalla famosa Biblioteca Asplund di Stoccolma. Ne viene fuori una costruzione longitudinale porticata dal cui tetto a capanna fuoriescono due cilindri lapidei con grandi lucernai. Un edificio bello, rappresentativo, “monumentale”. Un edificio da inserire in un contesto. E nel  caso di Latina, non si tratta di inserirlo nello spazio di un campus universitario inglese. Tutt’altro. Ma, si tratta di una sfida che non solo non spaventa Stirling, ma che lo stimola ulteriormente: “…una delle prime cose che un architetto deve fare è costruire edifici che siano legati con l’ambiente circostante[9]”.

Lo spazio a disposizione – il lotto triangolare al centro della città – è rivisitato da Stirling con l’obiettivo di una sua completa ridefinizione. Nell’area sono presenti tre vecchi edifici: un vecchio ospedale dismesso, una ex-autorimessa, e una piccola palazzina. Nella nuova sistemazione il lotto graviterà, ovviamente, sull’edificio biblioteca situato alla base del triangolo, il vecchio ospedale sarà demolito, mentre ex-autorimessa e la piccola palazzina saranno recuperate e trasformate, la prima in una galleria per mostre temporanee e il secondo in un piccolo museo di storia locale. Il tutto circondato e immerso in  un giardino che costituirà, nel suo insieme, una piazza verde tra due vie di scorrimento molto trafficate e che rappresenterà uno dei punti focali della futura organizzazione urbana del centro città.

La forma architettonica della nuova Biblioteca pubblica, nel suo proporsi rispetto al contesto come una sorta di “Basilica della cultura”, include 5.5oo m2di superficie, 77 metri di estensione rettangolare, assicurando capacità per circa 200 mila volumi e accoglienza per almeno 500 utenti. Numeri  importanti,  valorizzati dalla un’ingegnosa strutturazione interna basata sulle cavità dei due enormi cilindri e su un’articolazione in tre piani più un piano interrato. La biblioteca circolante – ovvero il prestito e i cataloghi – è situata nel cilindro di sinistra: organizzata a pianta cruciforme con  superfici delle pareti  occupate da librerie. Al centro, una struttura particolare a  forma di ziggurat a due livelli con altre librerie e posti di lettura. Nel cilindro di destra è invece collocata la biblioteca di consultazione:  un ampio spazio con circa 165 postazioni per lettura e  studio. In posizione baricentrica rispetto ai due cilindri, così da dare agli utenti la possibilità di un facile accesso, è posta la sala audiovisivi con una dotazione di 6 fonoriproduttori, minischermi video e lettori per microfilm.

Al piano terreno è predisposto un  servizio molto importante: la biblioteca per i ragazzi dai 6 ai 14 anni. Una proposta didattico-culturale che potenzia l’offerta – già importante – della Biblioteca pubblica. Si struttura in un ampia sala adibita per l’insegnamento e per la lettura con tavoli bassi e tondi dove potranno trovare posto circa 85 piccoli utenti. Sono previste anche 6 cabine attrezzate per esercizi e giochi per abituare i giovani all’utilizzo dei computer.

E’ un aspetto, quest’ultimo, che merita una riflessione. In un progetto di biblioteca pubblica vecchio ormai di quarant’anni, è possibile cogliere un’attenzione davvero lungimirante per delle tecnologie, come quelle informatiche, ancora, a quei tempi, agli albori. È degno d’attenzione il fatto che Stirling consideri l’informatica non come semplice orpello per dare appeal al  progetto, ma  come infrastruttura sostanziale rispetto al funzionamento presente e futuro del sistema biblioteca: non solo è previsto che in vari punti della struttura saranno ubicati  terminali collegati a un calcolatore centrale per consentire l’identificazione e la localizzazione rapida di qualsiasi libro, ma è anche previsto che la rete locale della biblioteca possa essere collegata a una futura rete nazionale (in pratica, l’anticipazione di SBN!) con l’obiettivo di potenziare ulteriormente i servizi informativi offerti.

Tuttavia, malgrado il progetto esecutivo già pronto e pagato, e nonostante la conclusione delle procedure amministrative con l’ottenimento di tutte le autorizzazioni necessarie compreso il parere favorevole della Regione Lazio, le forze che si oppongo al progetto non demordono.  E mentre anche l’autorevole rivista di architettura Casabella dà ulteriore visibilità al progetto dedicandogli un approfondito articolo intitolato “Progetto per un biblioteca pubblica a Latina”, nel quale conclude che: “…ripercorrendo la storia dell’architettura e soprattutto la sua architettura, Stirling riesce così, ancora una volta, a consegnarci un’opera che ha il coraggio di raccontare ciò che rappresenta, restituendo all’architettura un ruolo e una complessità…[10], incredibilmente, la situazione precipita di nuovo.

Tra le prime avvisaglie che il vento sta cambiando, c’è il riproporsi della questione dell’ex-autorimessa. Nella ridefinizione del lotto voluta da Stirling, il vecchio garage è destinato a diventare la nuova galleria per le mostre temporanee. Tutto questo grazie all’esproprio dell’immobile e al suo cambio di destinazione d’uso. Le procedure sono portate a termine secondo le regole,  compreso il parere favorevole della commissione urbanistica. Tuttavia, i vecchi proprietari dell’immobile continuano a opporsi, e cosa preoccupante, la loro azione trova sponde politiche all’interno del Consiglio comunale.

Ma, l’evento determinante è rappresentato dalle elezioni del giugno 1985[11]. La consultazione elettorale decreta ancora una volta la vittoria del partito del Sindaco Corona già da tempo al governo della città: la Democrazia Cristiana.  Tuttavia, inaspettatamente, si forma una coalizione interna allo stesso partito, contraria a rinnovare il mandato al sindaco in carica. Si tratta di un vero e proprio “ribaltone”. È un’amara sorpresa, ma come spiega una cronista politica sul Giornale Pontino del 19 giugno 1985, una sorpresa fino a un certo punto:“…siamo in presenza di una chiara manovra di potere condotta con incredibile disinvoltura da gruppi che senza tener conto dei risultati e della qualità di lavoro svolta dal partito e Latina, si uniscono oggi solo in funzione della difesa di interessi personali e di corrente, contro una linea di rigore e di crescita della città.[12]

Con il nuovo sindaco[13], date tali premesse, non vengono deluse le peggiori aspettative, e di conseguenza sono annullati  gli impegni culturali, sociali, economici e di riqualificazione urbanistica presi dal precedente primo cittadino. Il progetto della nuova biblioteca pubblica diventa un faldone da relegare – per sempre – negli archivi comunali.  La rimozione è attuata con due mosse esiziali: prima escludendo il progetto della nuova biblioteca dalle previsioni di bilancio, poi intervenendo in maniera definitiva– “tombale” -dal punto di vista urbanistico, vale a dire cambiando la destinazione del lotto triangolare. Da quel momento, lo spicchio  di città da cui – secondo la visione del sindaco Corona – sarebbe dovuta partire una rinascita culturale e identitaria della comunità, rimane in un limbo: sospeso. Ma, non per molto, nel 1988 arriva la decisione definitiva dell’amministrazione comunale sulla sua  “riqualificazione”: area adibita a parcheggio di auto e pullman. Un’occasione  di riscatto culturale incredibilmente sprecata che – beffardamente – il triangolo d’asfalto intasato di veicoli è ancora lì a ricordare.

[1]La Conferenza nazionale delle biblioteche italiane si tiene dal 22 al 24 gennaio 1979 a Roma.

[2]Sir James Stirling (Glasgow 1926 – Londra 1992) è stato un architetto britannico.

[3]Antonio Corona, appartenente alla Democrazia Cristiana, sindaco della città di Latina dal 1972 al 1980 e dal 1983 al 1985.

[4]Estratti dal verbale, da:  Claudio Greco (a cura), Biblioteca pubblica e giardini a Latina di James Stirling, Officina Edizioni, 1989, p. 113

[5]Alessandro Mendini, Colloquio con James Stirling, “Domus”,  n. 651 (1984) p. 1-15

[6]Il Messaggero, 24 maggio 1984

[7] Il Messaggero, 24 maggio 1984

[8]https://www.ifla.org/publications/ifla-publications-series

[9]Alessandro Mendini, Colloquio con James Stirling, “Domus”,  n. 651 (1984) p. 1-15

[10]Mirko Zardini, Progetto per una biblioteca pubblica a Latina, “Casabella Rivista internazionale di architettura”, n.507 (1984), p. 4-13

[11]https://it.wikipedia.org/wiki/Elezioni_amministrative_italiane_del_1985#Latina

[12]Rita Calicchia, Il Giornale Pontino, 19 giugno 1985.

[13]Delio Redi, appartenente alla Democrazia Cristiana,  sindaco di Latina dal 1985 al 1992.

Fabio Di Giammarco

Pubblicato su “Biblioteche oggi”  luglio-agosto 2021

Pubblicato in biblioteche italiane, patrimonio culturale digitalizzato, SBN (Servizio Bibliotecario Nazionale), storia delle biblioteche | Contrassegnato , , , , | Lascia un commento

Il futuro della Biblioteca: confusione “orizzontale”

Nell’articolo sul “Social reading e nuova mediazione”  di Simona Paolantoni, pubblicato su AIB studi (gennaio/aprile 2021), l’autrice si chiede, o meglio chiede, rivolgendosi al mondo delle piattaforme social reading,  come dovrà essere la Biblioteca del futuro. È una domanda che dalla rivoluzione digitale in poi, cioè nel corso degli ultimi decenni, è stata posta un’infinità di volte con esiti quasi sempre approssimativi.

 Tuttavia, è una domanda che ha una sua legittimità, visto che la Biblioteca, come tutte le istituzioni (culturali), è destinata inevitabilmente a cambiare nel tempo. E negli ultimi anni con l’accelerare della  rivoluzione digitale i cambiamenti sono  diventati sempre più incalzanti, veloci e pervasivi.

Prima di proiettarsi sulla Biblioteca nel futuro, l’articolo citato, a partire dall’attuale orizzonte multimediale, afferma in modo lapidario: la cultura è cambiata, o meglio si è trasformata in una cosa diversa rispetto al modello dominante: in un servizio. Infatti, non viene più percepita, come in passato, come un patrimonio fisico-intellettuale da possedere e tramandare, ma come un’opzione virtuale da utilizzare al bisogno. Tutto ciò sarebbe la conseguenza del fatto che la Rete e il web hanno eroso e trasformato il vecchio concetto di sapere, cioè quello elitario basato sulla distinzione tra cultura alta e cultura bassa. Da qui una nuova cultura non più verticale, ma orizzontale basata su un ecosistema digitale inclusivo entro il quale tutti – lettori, produttori di contenuti, mediatori, utenti – si possono muovere e partecipare – senza più alcuna gerarchia – impersonando ora un ruolo ora un altro.

In pratica, assistiamo al trionfo della pura disintermediazione.  Ma, è proprio così? La Rete, è vero,  ha sicuramente ridotto a mal partito i corpi intermedi – tra cui le nostre vecchie biblioteche – tuttavia, il vuoto creatosi è già in fase di riempimento: sono, infatti, in arrivo nuove forme di mediazione. Nel caso delle biblioteche, dalla nuova cultura “orizzontale” sta emergendo il fenomeno degli influencer, o meglio, nel nostro caso, i book-influencer.

 Si tratta di un tipo di mediazione accettata dal popolo social perché sostanzialmente paritaria.  Niente a che fare con il vecchio rapporto elitario dall’alto al basso. Il segreto del book-influencer è quello di essere visti  dai lettori-utenti, a differenza del severo bibliotecario tradizionale, come una specie di coetanei con il quale condividere gusti e aspettative. Sembra il concretizzarsi delle grandi utopie della Rete: inclusione, libertà e parità. Peccato che poi si debba  constatare che la disintermediazione ha anche un’altra faccia, cioè quella di una Rete ormai controllata da un’altra categoria di “nuovi mediatori”, assai più potenti dei pur volenterosi influencer: gli invisibili algoritmi, dal funzionamento tutt’ora piuttosto oscuro.

In ogni caso, rimane l’interesse per la domanda cruciale posta al popolo delle piattaforme: come sarà (come dovrà essere) la Biblioteca del futuro? Gli utenti della  piattaforma di social reading di maggior successo –  Wattpad – non hanno dubbi: la Biblioteca del futuro dovrà essere proprio come Wattpad, vale a dire una spazio virtuale dove tutti potranno leggere infinite storie. Storie che per il fatto di essere scritte “da ragazzi per ragazzi” avranno il “bollino” della cultura orizzontale, cioè si collocheranno “fuori dal canone”, nel senso che  gli autori-lettori potranno godere di una tale libertà che permetterà loro di esprimere in pieno tutta la loro creatività.

Un aspetto curioso dell’indagine è che l’idea più precisa su come dovrà essere la biblioteca del futuro sia venuta proprio da coloro che non sono mai entrati in una vera biblioteca. Facendo ricorso a tutto l’immaginario fantasy disponibile, la loro descrizione della  biblioteca del futuro non ha fatto altro che utilizzare immagini di biblioteca derivanti dalla letteratura e dal cinema a cominciare dalla saga di Harry Potter. Un po’ poco per iniziare una proficua collaborazione tra un’istituzione culturale tradizionalmente strutturata come la biblioteca e le nuove istanze comunitarie e identitarie provenienti dalle nuove “culture orizzontali”.

Comunque, l’indagine nell’universo del social reading sul futuro della Biblioteca a delle conclusioni finali giunge: i giovani suggeriscono di rendere le biblioteche più “social”. In  primo luogo attraverso una maggiore interazione sul web. E poi chiedono una svolta sui  servizi digitali: a cominciare dall’implementazione di apps per i servizi del prestito. Infine, sperano in biblioteche che si trasformino sempre più in “centri culturali” con l’inserimento di nuovi spazi per altre forme di cultura come, ad esempio, musica e teatro. Forse è un po’ poco per cominciare a progettare la Biblioteca del futuro…ma questo, al momento, è.

Pubblicato in Senza categoria | Lascia un commento

Biblioteche digitali: un futuro aperto

Dopo la rivoluzione di internet, le biblioteche digitali hanno cominciato a proporsi  come sistemi per far accedere gli utenti  alla conoscenza. Precedentemente, le biblioteche digitali erano circoscritte entro  progetti informatici allestiti per conversioni mirate di libri e/o documenti in formato elettronico. Poi nel 2004 cambia tutto. Con una rete internet ormai abbastanza matura, arriva con tutta la sua potenza l’iniziativa di Google: il progetto di biblioteca digitale universaleGoogle Books per “organizzare l’informazione del mondo per renderla accessibile a tutti”. Da questo momento, si pone la questione strategica della digitalizzazione massiva delle grandi biblioteche. Nel 2005 Jean-Noël Jeanneney, presidente della Bibliothèque nationale de France, con il suo scritto Quando Google sfida l’Europa, si schiera per una biblioteca digitale europea e francese come risposta a Google Books. È sviluppato il progetto Gallica – la biblioteca digitale della Bibliothèque nationale de France–che nel giro di alcuni anni arriverà a digitalizzare alcuni milioni di documenti. Mentre, nel 2008 è inaugurata Europeana – la biblioteca digitale europea che riunisce contributi già digitalizzati da diverse istituzioni dei ventotto paesi membri dell’Unione europea in trenta lingue –destinata, secondo i progetti, a diventare la vetrina della digitalizzazione del patrimonio culturale europeo.

Tuttavia, dopo una entusiastica partenza, sulla scia di Google Books che nel 2015 annunciava il traguardo dei 25 milioni di libri scansionati, inizia, per i progetti di digitalizzazione massiva,  una fase di ripensamento. Fase che coincide  con un  rallentamento del progetto Google causato – a partire  dal 2012 – non solo dalla battaglia legale con gli editori, ma anche dalle critiche sulla scarsa qualità delle digitalizzazioni effettuate, e poi, non ultimo, da  un clima di incertezza  sul futuro del progetto stesso. Insomma, tra risultati non esaltanti, infinite controversie legali, difficoltà operative, obiettivi non chiari, nonché coperture dei costi spesso problematiche, i progetti di “mass digitization”,  entrano in una fase di stanca, evidenziata anche dalla progressiva perdita d’appeal dell’utopia  tecnologica di arrivare a realizzare la “Biblioteca Universale on line”

A questo punto, quale futuro per la digitalizzazione dei patrimoni culturali e soprattutto per le biblioteche digitali che ne dovrebbero essere uno dei principali motori? Forse, come ha spiegato Jeffrey T. Schnapp nel suo intervento seguitissimo al convegno “La Biblioteca che cresce” tenutosi a Milano nel marzo 2019, intendere la Biblioteca come archivio universale è frutto di un fraintendimento, di una narrazione sbagliata. Considerare la Biblioteca solo come un gigantesco contenitore di libri e/o di contenuti digitali è, di fatto,  un modello Ottocentesco, oggi superato. Le biblioteche digitali sono e possono essere anche altro. Primariamente, spetta loro un compito: quello di affrontare  – con creatività –  le continue innovazioni tecnologiche nell’ambito delle modalità di trasmissione delle informazioni,  continuando – nello stesso tempo – a fare quello che sin dall’antichità fanno:  esplorare, gestire, selezionare e conservare la conoscenza.

La Biblioteca Vaticana sta digitalizzando i suoi 80 mila manoscritti: una delle collezioni più importanti al mondo. Il suo, è un approccio esemplare e razionale di conservazione della conoscenza. La  scelta strategica è basata sul formato “astronomico” FITS, sviluppato alla fine degli anni ’70 e tutt’ora utilizzato dalla NASA. Formato aperto, progettato per archiviare immagini scientifiche e dati associati, con una caratteristica fondamentale, che poi è il suo motto “once FITS forever FITS”, ovvero essere leggibile e quindi utilizzabile senza limiti di tempo. Gestire meglio la conoscenza può invece significare rendere fattibili sogni come quello che accomuna tutti gli studiosi di manoscritti: rimettere  insieme (virtualmente) i codici più antichi e preziosi da secoli frammentati e dispersi in tante biblioteche del mondo. La nuova tecnologia per biblioteche digitali IIIF consente di fare questo. IIIF è, infatti, una sorta di “lingua franca” per la gestione delle immagini ad alta risoluzione on line che permette di condividere sullo schermo libri antichi, codici, mappe, documenti ecc. Infine, anche la sfida di esplorare nuove forme di conoscenza è stata raccolta: le biblioteche digitali si sono candidate per la gestione dei big data. Negli USA e nel Regno Unito diversi sistemi bibliotecari già propongono loro piattaforme per servizi di supporto e consulenza. A conferma: uno studio dell’Università del Tennessee dal quale emerge che il 40% delle biblioteche universitarie è ormai impegnato nello sviluppo di programmi per supportare i ricercatori nelle procedure gestionali di grandi quantità di dati.

Pubblicato su Nòva.tech (IlSole24Ore) 4 febbraio 2021

Pubblicato in biblioteca digitale, biblioteche italiane, big data, Big Data culturali, Europeana, Google Books, IIIF, patrimonio culturale digitalizzato, tecnologie digitali | Contrassegnato | Lascia un commento