Il PNRR per il Patrimonio Culturale Digitale Italiano

Il programma  Horizon Europe (2021-2027) per la ricerca e lo sviluppo tecnologico, con un budget enorme di circa 100 miliardi, prevede, tra l’altro, per la cultura,  il finanziamento di 110 milioni di euro per la creazione, nel biennio 2023-2025,  di un Cloud collaborativo europeo per il patrimonio culturale. La soluzione del Cloud Computing è ormai la scelta strategica sia a livello comunitario che nazionale, ed è basata sostanzialmente su tre aspetti ritenuti fondamentali rispetto alle sfide del futuro: autonomia tecnologica, controllo sui dati e resilienza dei sistemi.

L’Italia, che grazie al PNRR (Piano Nazionale di Ripresa e Resilienza) può disporre di 6,68 miliardi di euro da investire nella cultura, al punto M1C3 1.1 “Strategie e piattaforme digitali per il patrimonio culturale”  può contare su un finanziamento di 500 milioni di euro per integrarsi nello spazio culturale digitale cloud europeo attraverso la realizzazione di una “piattaforma cloud per l’accesso al patrimonio culturale italiano”.

Punto fondamentale per il “matrimonio” tra Cultura e Cloud è stato l’inserimento, da parte del Consiglio D’Europa (conclusioni sul patrimonio culturale 21 maggio 2014), delle risorse digitali tra le “forme di patrimonio culturale”. Si è trattato di un cambio di prospettiva basilare che ha cambiato lo status della risorsa digitale: non più semplice replica/copia di un originale fisico, ma “originale” essa stessa. E questo cambiamento  non è più dovuto all’eventuale relazione con l’oggetto fisico di provenienza, ma alla relazione intellettuale dalla quale il bene digitale prende forma e da cui attinge nuovi significati trasmissibili.

La struttura attuatrice  che dovrà realizzare, entro il 2024, su incarico del Ministero della Cultura, la piattaforma,  è l’Istituto centrale per la digitalizzazione del patrimonio culturale – Digital Library che ha già predisposto la cornice nella quale inserire l’infrastruttura: il “Piano nazionale di digitalizzazione del patrimonio culturale (PDN). Il patrimonio culturale italiano da trasferire in digitale è davvero un qualcosa di enorme: si tratta di un “patrimonio diffuso” attraverso all’incirca 27 mila luoghi della cultura sparsi sul territorio nazionale che, nel dettaglio, comprendono quasi 12 mila biblioteche, oltre 9500 archivi e più di 6 mila tra musei, monumenti e aree archeologiche.

Limitando, logicamente,  una prima fase di popolamento della piattaforma ai soli sistemi informativi gestiti dagli istituti del Ministero della Cultura, in questo caso si tratta di almeno  770 siti adibiti alla tutela e conservazione del patrimonio nazionale. Con tutta evidenza, già questo  rappresenta un primo step assai impegnativo. Si tratta, infatti, di procedere con la migrazione e integrazione nei nuovi sistemi cloud di oltre 37 milioni di descrizioni catalografiche associate a circa 26 milioni di immagini, per poi passare alla digitalizzazione di tutto il restante (corposo) patrimonio ancora su supporto cartaceo.  Considerando, infine,  che la Commissione Europea, attraverso i programmi Horizon, ha chiarito che i requisiti alla base delle digitalizzazioni che poi entreranno a far parte del patrimonio culturale digitale europeo, devono: restituire l’aspetto “visivo” dei singoli oggetti, collezioni o siti culturali; “costruire storie”, esperienze e contesti culturali; ma soprattutto essere risorse digitali interconnesse, ricercabili con differenti domini e linguaggi. Anche  questa prima fase – circoscritta ai soli istituti culturali statali –  si annuncia  di dimensioni “monstre”.

Insomma, in prospettiva,  il Piano nazionale di digitalizzazione del patrimonio nazionale (PDN) di cui la piattaforma è infrastruttura fondamentale, ha l’ambizione di attuare una trasformazione digitale della cultura del paese, a partire dai seguenti obiettivi: sviluppare il potenziale delle banche dati culturali e delle collezioni digitali riconducendo la frammentazione attuale a una prospettiva che restituisca l’unitarietà e la complessità del patrimonio culturale nazionale; garantire l’uso e l’accessibilità a lungo termine delle risorse digitali adottando nuove strategie di conservazione (approccio cloud); semplificare i rapporti con cittadini e imprese, ridisegnando le procedure di settore e portando i servizi culturali in rete; facilitare la crescita di un mercato complementare dei servizi culturali aperto alle start-up innovative, finalizzato a innovare le modalità di fruizione del patrimonio culturale.

La piattaforma digitale di accesso al patrimonio culturale, nel dare il suo contributo  alla modernizzazione nella fruizione della cultura, avrà una duplice funzione: di aggregatore e di erogatore di contenuti. Si rivolgerà a tutti i soggetti proprietari e/o produttori di contenuti digitali e nello stesso tempo renderà utilizzabili le risorse digitali a tutti gli utenti finali comprese tutte quelle imprese interessate alla creazione di prodotti e servizi.

Sempre rispetto all’utilizzo della risorsa digitale, il Piano nazionale di digitalizzazione del patrimonio nazionale (PDN), prevede anche un’altra innovazione strategicamente importante: un sistema di certificazione dell’identità digitale per i beni culturali. Finora il patrimonio culturale digitale è stato soltanto correlato al sistema dei beni culturali materiali, ma non ha coinciso con essi. Infatti, non esiste una relazione 1 a 1, cioè a un bene culturale non corrisponde una sola risorsa digitale, bensì si generano delle relazioni molti a molti. Di conseguenza il patrimonio culturale digitale non identifica l’universo dei beni culturali, ma né è piuttosto una rappresentazione/interpretazione. Ora con i finanziamenti PNRR sarà realizzato un sistema di certificazione e per la risorsa digitale accadrà quello che è un po’ accaduto con lo SPID per le persone fisiche. Il certificato d’identità digitale per i beni culturali sarà la chiave abilitante affinché un bene culturale sia riconosciuto, e quindi valorizzato come unico, in tutti i sistemi: informativi, amministrativi, culturali, piattaforme di accesso ecc.

Pubblicato in biblioteca digitale, Cloud, digitalizzazione, interoperabilità, patrimonio culturale digitalizzato, tecnologie digitali | Contrassegnato , , , , | Lascia un commento

“Reading(&)Machine”: una macchina high tech per incentivare la lettura

Dall’ultimo rapporto ISTAT sulla lettura sappiamo che in Italia i lettori di libri sono soltanto il 40% della popolazione dai 6 anni in su, e le prospettive appaiono tutt’altro che rosee. Infatti,  la curva percentuale dei lettori – nell’arco degli ultimi vent’anni – presenta un tale andamento da essere definita dallo stesso ISTAT : desolante. Nel 2000 i lettori non superavano uno sconfortante 38%, poi la curva è faticosamente risalita nei dieci anni successivi fino al 46,8% del 2010, ma poi è ridiscesa  di nuovo nel corso dell’ultima decade per fermarsi intorno al 40%.

Che cosa fare rispetto a questa persistente avversione degli italiani verso la lettura? Avversione che, tra l’altro, è una delle principali cause di quel  fenomeno che ormai riguarda più del 46% dei cittadini tra i 16 e i 65 anni che risponde al nome di “analfabetismo funzionale”.  Insomma, che fare oltre alle tradizionali linee di intervento, finora non molto efficaci, riguardanti soprattutto strategie di promozione della lettura in ambito scolastico? Una novità potrebbe esserci ed è portata avanti da chi pensa che per ri-incentivare e rivitalizzare la lettura si debba agire in altro modo, ad esempio sfruttando la seduzione tecnologica.

Il Politecnico di Torino insieme al Dipartimento di Studi Storici dell’Università di Torino e alle Biblioteche Civiche Torinesi e grazie ai finanziamenti della Fondazione TIM, si apprestano a lanciare “Reading(&)Machine”. Un progetto che mira a “rinnovare” il  rapporto tra lettori e libri intervenendo proprio nei luoghi più tradizionali dove questo rapporto, da sempre, si esplica:  biblioteche e librerie. E “intervento” vuole dire due cose: potenziare suggestivamente e significativamente gli ambienti dedicati arricchendo, nello stesso tempo, l’esperienza della lettura mediante l’utilizzo delle tecnologie dell’intelligenza artificiale, della realtà aumentata e virtuale.

Da un punto di vista più tecnico, “Reading(&)Machine” lavorerà allo sviluppo di algoritmi di “raccomandazione” per la promozione della lettura. L’utilizzo, invece, di sistemi di machine learning permetterà l’esplorazione delle collezioni, ma anche l’estrazione, elaborazione e comunicazione di contenuti testuali nell’ambito delle biblioteche con patrimoni storici più rilevanti. E poi dati: benzina indispensabile per un progetto che si candita a essere una sorta di nuova “macchina high tech per leggere”. Dati che saranno di provenienza eterogenea e che affluiranno non solo dalle collezioni delle biblioteche, ma anche da piattaforme di social reading (come Anobii), acquisizioni attraverso dataset open e scaturiranno anche da profilazioni degli utenti.

Il progetto ha anche l’ambizioso obiettivo di far crescere una nuova “identità digitale”  negli spazi fisici all’interno delle biblioteche. Questo grazie all’implementazione  nelle sale di lettura di interfacce basate su tecnologie di realtà aumentata e virtuale accessibili agli utenti mediante app per smartphone e tablet. Insomma, “Reading(&)Machine” si propone l’intento onorevole di contrastare “la fuga dalla lettura” segnalata dall’ISTAT con una serie di interventi che prevedono sia la “stimolazione” della lettura che un nuovo appeal per richiamare più utenti nelle  biblioteche. Si tratta di un tipo di offerta, comunque, tecnologicamente orientata a rendere nuove e seducenti le modalità di esplorare e vivere il libro e i luoghi nei quali esso è custodito.

Una strategia tecno-centrica – una sorta di make-up d’ipermodernità – che sicuramente può avere un impatto, ma che non può non suscitare dubbi sulla sua efficacia reale a risolvere problemi annosi. Nel senso che forse tutte le difficoltà degli  italiani rispetto alla lettura hanno radici un po’ più profonde e che rimandano non semplicemente alla carenza di dotazioni tecnologiche nelle biblioteche che pure servono, ma soprattutto alla mancanza, nel corso degli ultimi decenni,  di scelte politiche e risorse adeguate per la cultura.

Inoltre, ritornando infine al contingente, un progetto come “Reading(&)Machine” deve anche tener conto di alcune criticità che la sua attuazione potrebbe generare. Come ha più volte spiegato l’IFLA (International Federation of Library Associations), l’adozione di sistemi di intelligenza artificiale, di machine learnig e altro da parte delle biblioteche, solleva questioni cruciali non ancora di fatto chiaramente risolte sulla libertà intellettuale e sulla privacy e inoltre comporta – urgentemente – una ridefinizione e formazione delle professionalità bibliotecarie nell’ambito di una nuova alfabetizzazione digitale centrata su queste nuove tecnologie.

Pubblicato in algoritmo, biblioteca digitale, big data, digitalizzazione, futuro del libro, Intelligenza artificiale, machine learning, social reading, tecnologie digitali | Contrassegnato , , , | Lascia un commento

Intelligenza artificiale? Riflettiamoci su: le lectio magistralis di Federico Cabitza e Luciano Floridi.

Lo scorso 14 ottobre, nell’ambito della terza edizione della Martini Lecture Bicocca, il Prof. Federico Cabitza – esperto di interazione uomo-macchina – e il Prof. Luciano Floridi – professore di Filosofia ed Etica a Oxford – hanno tenuto due lectio magistralis sul rapporto tra intelligenza artificiale ed etica. Interventi  poi raccolti in un libro recentemente pubblicato: Intelligenza Artificiale. L’uso delle nuove macchine. I due studiosi – con i loro interventi – offrono un importante contributo nella comprensione su cos’è e quali implicazioni  può avere l’intelligenza artificiale, ovvero l’ultima rivoluzionaria invenzione dell’intelletto umano.

Secondo l’ AI Index 2021 Annual Report della Stanford University, gli investimenti globali in intelligenza artificiale sono stati nel 2020 pari a quasi 70 miliardi di dollari con un incremento del 40% rispetto all’anno precedente. La sola Unione Europea prevede, per i prossimo decennio, una mobilitazione di investimenti di circa 20 miliardi di euro l’anno. Insomma, questa nuova tecnologia rappresenta un investimento strategico a livello globale e pare destinata – grazie al suo sviluppo esponenziale  –  a trasformare radicalmente, nei prossimi anni, le società umane.

Il filo conduttore di entrambi gli interventi è rintracciabile nello sforzo dei due studiosi di rispondere alle domande che poneva Carlo Maria Martini quando nel 2015 scriveva: sono così minacciose tutte le tecnologie del virtuale? L’intero cammino verso l’intelligenza artificiale finirà per svalutare il valore della persona, riducendola a pura meccanica? O, invece, saranno i valori dell’uomo a indurre la scienza ad aprire nuovi fronti grazie alle conquiste tecnologiche? Scenario questo molto incoraggiante purché l’intelligenza umana rimanga padrona dei processi.

Federico Cabitza, nel suo intervento, pone soprattutto con la questione etica: se è vero che l’intelligenza artificiale è una modalità del “fare umano” e se per questa ragione dietro le macchine non può esistere nessuna identità o volontà autonoma, allora il problema è “valutare” l’azione umana che è dietro le macchine. Azione umana nelle macchine che si esprime  attraverso gli algoritmi. Da qui “l’algoretica”, ossia lo studio dei problemi e dei risvolti etici connessi all’applicazione degli algoritmi. Una preoccupazione per l’etica  che nasce come conseguenza della costatazione che oggi la società si trova in uno stato di “algocrazia”, vale a dire in  una situazione nella quale il flusso dell’informazione è sotto il dominio degli algoritmi.

E per fare in modo, secondo Cabitza, che l’intelligenza umana rimanga padrona dei processi; allo strapotere dell’algoritmo, in quanto strumento di manipolazione e sfruttamento, bisogna contrapporre la forza dell’androritmo, ovvero tutto ciò che può essere considerato irriducibile alla conversione algoritmica della cose umane. Nell’azione di contrasto, gli approcci “algoretici”  possono essere due: quello di subordinare drasticamente le macchine alle ragioni umane oppure quello di provare a rendere in qualche modo “etici” gli stessi algoritmi.

O forse – incalza Cabitza – la soluzione può essere trovata addirittura fuori dal perimetro degli algoritmi,  in particolare nel mondo  “dell’ethical in design”, in altre parole negli stessi processi di progettazione dove la  dimensione valoriale dei tecnici e progettisti potrebbe  esprimere la differenza. Da  queste e altre riflessioni derivano anche  i tentativi di “normare”, in qualche modo, l’intelligenza artificiale. Iniziò, quasi per gioco, molti anni fa, il grande romanziere Isaac Asimov con le famose leggi della robotica. Oggi, in un contesto tecnologico molto più pressante, è l’esperto in “diritto robotico” Frank Pasquali a proporre nuove leggi: 1) i sistemi robotici devono essere complementare e non sostituire i professionisti 2) i sistemi robotici non devono contraffare l’umanità 3) i sistemi robotici devono sempre indicare l’identità dei loro creatori, controllori e proprietari e così via.

Comunque sia, a prescindere dagli esiti più o meno positivi degli “sforzi algoretici” e normativi, quello che alla fine pervade il discorso di Cabitza è un certo scetticismo. A partire proprio dalla base del discorso, è ciò dall’interazione tra intelligenza umana e intelligenza artificiale. È infatti su questo difficile rapporto e su i suoi futuri sviluppi che, secondo lo studioso, sembrano addensarsi nubi minacciose. Si tratta di un rapporto a rischio che potrebbe finire male rispetto alle grandi emergenze globali che sfidano l’umanità: la crisi climatica, il futuro del lavoro e il futuro del sistema dell’informazione. Lo sviluppo pervasivo dell’intelligenza artificiale, si chiede Cabitza, potrà essere la soluzione per questi grandi problemi o al contrario si trasformerà in un ulteriore fattore di aggravamento? Con l’aggiunta pessimistica riguardo anche il lungo periodo quando macchine sempre più intelligenti potrebbero, addirittura,  paradossalmente causare un effetto opposto ai loro scopi, vale a dire con il loro totalizzante “fare” determinare un progressivo depotenziamento delle capacità umane con conseguenze incalcolabili rispetto al nostro “umano” modo di essere.

 Anche il filosofo Luciano Floridi, nel rispondere al cardinale Martini, mette subito in chiaro che l’intelligenza artificiale non è da considerarsi come una “nuova forma di intelligenza”, ma “soltanto” coma una “nuova forma di capacità di agire”. L’intelligenza artificiale, secondo Floridi, è infatti una risorsa sostanzialmente “stupida” che però è capace di risolvere problemi complessi senza ricorrere all’intelligenza. Ma, come? In pratica, simulando un comportamento intelligente mediante il calcolo superveloce e la statistica. Gli attuali “sistemi informatici intelligenti” sono riusciti, in altre parole,  a centrare il risultato attraverso il solo “l’agire” senza bisogno di essere intelligenti per riuscire a farlo.

Insomma, le attuali tecnologie di intelligenza artificiale si sono sviluppate separando l’agere dall’intelligere. Mentre, i paralleli tentativi tecnologici di arrivare a una forma di intelligenza paragonabile a quella umana o addirittura superiore – finora – sono tutti naufragati: gli agenti intelligenti sviluppati da questa branca di ricerca tecno-cognitiva hanno – al momento – prodotto forme di intelligenza non superiori a quelle di un tostapane.

Tuttavia, anche nello sviluppo di questa intelligenza artificiale “stupida” Luciano Floridi individua dei rischi. Si tratta, infatti, di una tecnologia che per funzionare bene e ottenere i risultati attesi ha bisogno di trasformare l’ambiente in cui opera. Ad esempio, l’auto che si guida da sola necessita una trasformazione del contesto in cui opera: un “enveloping”, un “avvolgere” il mondo in modo da trasformarlo da un ambiente ostile e imprevedibile, difficilissimo da gestire, in un luogo amico nel quale, gli agenti artificiali,  con i loro semplici strumenti di calcolo e statistici  possono funzionare aggirando tutti i problemi di significato, pertinenza, comprensione, imprevedibilità ecc. tipici di un tradizionale contesto di guida umano.

Trasformare il mondo in un luogo “amico” per gli agenti artificiali potrebbe – inavvertitamente – portare gli esseri umani a diventare parte di questo meccanismo: mettendo, insomma, l’intelligere al servizio dell’agere. Un esempio del   genere  è il baratto in rete tra servizi gratuiti e dati personali. Per manipolare l’interfaccia umana che naviga nel web e personalizzare così le offerte, l’industria pubblicitaria ha bisogno di avere quante più informazioni possibili sugli individui on line e questo lo ottiene abbastanza facilmente con lo scambio.

Insomma, il rischio che stiamo correndo secondo Luciano Floridi, è che disegnando un modo digitale a misura degli agenti artificiali “stupidi” e non a misura dell’intelligenza umana, le nostre tecnologie e in particolare l’intelligenza artificiale potranno finire con il modellare i nostri ambienti fisici e concettuali costringendoci, o perlomeno, invitandoci ad adattarci a loro perché questo, alla fine, è presentato come il modo più semplice e o migliore o talvolta unico, per far funzionare le cose.

Pubblicato in algoritmo, Intelligenza artificiale, tecnologie digitali | Contrassegnato , , , , , , , , , | Lascia un commento

Testi, autori e intelligenza artificiale

Roland Barthes, nel “Brusio della lingua. Saggi critici IV”, scrive: ..l’essere totale della scrittura è un testo fatto di scritture molteplici…esiste però un luogo in cui tale molteplicità di riunisce, e tale luogo non è l’autore bensì il lettore, e poi ancora: l’unità di un testo non sta nella sua origine, ma nella sua destinazione ecc. Barthes, in un’epoca molto lontana, pre-digitale, portando avanti la sua critica destrutturante contro  l’ideologia capitalistica colpevole di attribuire la massima importanza alla persona dell’autore, né preconizzava la morte come condizione per la “ri-nascita” del lettore.

Oggi, in una realtà completamente diversa, “digitalizzata”, caratterizzata dall’ubiqua pervasività della Rete, sembra potersi avverare quell’antica profezia di “morte dell’autore”. Ma questa volta, non per mano della critica al sistema capitalistico, bensì grazie all’impatto dei sistemi di intelligenza artificiale.

Su queste suggestivo scenario, si è basato un recente seminario dal titolo: Imitation game. L’intelligenza Artificiale entra nel mondo del libri, di Maurizio Lana dell’Università del Piemonte Orientale. L’occasione, per evocare Alan Turing e parlare di algoritmi ed editoria: una riflessione sull’iniziativa – del 2019 –  da parte dell’editore Springer di dare alle stampe il primo libro al mondo di ricerca scientifica generato da una macchina.

Si tratta di: Lithium- Ion Batteries, libro che fornisce una panoramica sulle ultime ricerche sulle batterie agli ioni di litio. La base dati per la sua realizzazione è stata ricavata dall’universo di contenuti tecnico-scientifici già posseduti dall’editore Springer sui quali, ha prima lavorato un gruppo di esperti per circoscrivere gli argomenti, e subito dopo è intervenuta un’applicazione di machine learning in grado di leggere e apprendere le caratteristiche degli articoli selezionati. Lavoro di machine learning che è stato  infine sottoposto di nuovo agli esperti umani per una revisione finale.

A questo punto, arrivati alla stesura finale, è scattata l’ora dell’intelligenza artificiale.  La generazione finale del libro  – 233 pagine suddivise in  4 capitoli, paragrafi e sotto-paragrafi – è stata presa in mano, in qualità di autore principale,  dall’algoritmo Beta Writer – sviluppato grazie alla collaborazione tra Springer e il laboratorio di linguistica computazionale applicata dell’Università Goethe di Francoforte –  che ha provveduto alla scrittura definitiva del testo, in pratica mediante un riassunto incrociato di tutti gli articoli di ricerca precedentemente selezionati, inserendo nel testo anche i collegamenti ipertestuali ai documenti originali. Gli esperti umani, che si sono limitati a scrivere l’introduzione,  nel lavoro di redazione eseguito da Beta Writer non sono  intervenuti: astenendosi assolutamente da qualsiasi intervento di modifica o correzione del testo.

Nel seminario di Maurizio Lana, le riflessioni più interessanti si sono concentrate sulla questione dell’autorialità imposta dall’ingresso dell’intelligenza artificiale nella produzione del “prodotto libro”. L’autore,  secondo tutti i criteri di classificazione,  è colui che concepisce e crea  un’opera letteraria, scientifica, artistica. Finora tutti i sistemi di catalogazione conosciuti presuppongono che la responsabilità autoriale sia a capo di una o più persone fisiche. La comparsa di un algoritmo come autore, ovviamente, getta scompiglio in tutto ciò.

Tra l’altro, l’ulteriore sviluppo delle tecnologie digitali in ambito editoriale, prevede, come hanno spiegato i responsabili della casa editrice Spring nel presentare il loro Lithium- Ion Batteries , soprattutto per quel che riguarda l’editoria accademica, nuove opportunità per esplorare la possibilità di generare contenuti scientifici con l’ausilio di algoritmi. In particolare, ai contenuti ancora interamente creati dagli umani, si affiancheranno sempre di più non solo testi creati esclusivamente dalle macchine, ma anche tutta una varietà di combinazioni di prodotti editoriali generati dal lavoro combinato tra uomo e algoritmi. Questo significa che la concettualizzazione dello status di autore si complicherà ulteriormente con il prossimo l’arrivo di prodotti editoriali frutto di un’autorialità ibrida con confini sempre più sfumati tra uomo e macchina.

Il Barthes di fine anni ’60 non avrebbe mai immaginato tali scenari e possibili epiloghi. Secondo la sua teoria, la “dittatura” dell’autore era un prodotto – sbagliato – della modernità e, paradossalmente, è proprio questa stessa modernità,  diventata nel frattempo tecnologicamente ipertrofica, che  oggi può causare davvero la “morte dell’autore”.  Forse Barthes sottovalutò, e non fu il solo, la comparsa del primo segnale di  Imitation game. Nel 1952 Chistopher Strachey, ispirato dal lavoro di A. M. Turing “Computing machinery and intelligence”, programmava un computer Manchester Mark 1 utilizzando un algoritmo combinatorio basato su 70 parole, creando così il primo generatore di testi: “Lettere d’amore”. Il computer permetteva un’esplosione combinatoria dei risultati: con sole 70 parole di base si potevano ottenere fino  300 miliardi di lettere diverse! Era un primo segnale della potenza della tecnica che anticipava il futuro dell’intelligenza artificiale.

Pubblicato in algoritmo, futuro del libro, Intelligenza artificiale | Contrassegnato , , , , , , , | Lascia un commento

Storie di biblioteche: la Biblioteca mancata, quando a un progetto di “biblioteca pubblica” si preferì un parcheggio

Mentre la modernizzazione delle biblioteche italiane è ancora al di là da venire – siamo nel gennaio del 1979 e si è solo cominciato a discutere a Roma, nel corso della Conferenza nazionale delle biblioteche italiane, sull’opportunità di realizzare un servizio bibliotecario nazionale[1]– il sindaco di un capoluogo di provincia –Latina – decide di costruire al centro della sua città una moderna biblioteca pubblica rivolgendosi per il progetto ad uno dei più importanti e influenti architetti del XX secolo: James Stirling[2]. Il sindaco Antonio Corona[3], consigliato da un suo collaboratore appassionato studente di architettura, lo sceglie con convinzione, anche perché persuaso  dalle   performance in ambito culturale dell’architetto: il progetto della Biblioteca di storia dell’Università di Cambridge, ma anche i  grandi musei tedeschi di Düsseldorf, Colonia, Stoccarda.

L’idea di Corona è puntare– come si direbbe oggi –  su un archistar e su un progetto urbanistico-culturale di livello internazionale per risvegliare la città e spingerla verso la modernità. E non c’è dubbio che Latina ne abbia bisogno. Sul finire degli anni ’70 è una città socialmente e culturalmente depressa, alla continua ricerca di una sua identità, e in questo senso anche penalizzata dalla troppa vicinanza a Roma. Il sindaco fa notare che mancano opere pubbliche importanti, edifici significativi, monumenti,  e quel poco che c’è risale al periodo della fondazione, cioè a soli cinquant’anni addietro. E nella seduta del Consiglio comunale del 9 ottobre 1979, presenta la “proposta per la ristrutturazione della zona ex Ospedale civile per una nuova Biblioteca Comunale”, e spiega all’assemblea che “la scelta di James Stirling quale progettista della ristrutturazione dell’isolato del vecchio ospedale e della nuova Biblioteca comunale è dettata non soltanto perché si tratta di una grandissima personalità a livello mondiale…ma soprattutto per la qualità delle sue opere…che mostrano una grande capacità di interpretare l’attuale aspirazione ad un ambiente nuovo e per un nuovo modo di vivere…[4]. La scommessa è che la creazione di un “sistema – biblioteca” d’eccellenza, una sorta di polo culturale attrattore per  la città, possa dare il via sia a una riqualificazione urbanistica che a una rinascita identitaria beneficio di tutta la comunità.

Stirling capisce subito che nella realizzazione del progetto, oltre a esigenze funzionali, sono in ballo anche bisogni simbolici. E queste necessità ben si sposano con il suo tipo di architettura sempre al passo con le innovazioni tecnologiche, ma anche molto attenta a interpretare i “contesti” con linguaggio “neoclassico”. In un intervista rilasciata in quegli anni alla rivista di architettura Domus, Stirling afferma:“…nelle città è essenziale avere dei punti di riferimento – una città senza monumenti sarebbe nessun luogo – per me il monumentalismo non ha nulla a che vedere con le dimensioni o lo stile, ma dipende interamente dalla presenza  – così una sedia può essere monumentale, io ne ho molte[5]. Insomma: simbolismo e funzionalismo possono coesistere,  andare a braccetto.

Si fa così strada l’idea che la nuova biblioteca pubblica debba avere caratteristiche “monumentali”. La soluzione di riqualificare le città con edifici simbolici e monumentali è una strategia antica e la sua realizzazione comporta – se si desiderano risultati coronati dal successo – interventi di architettura di qualità.  Scelta particolarmente opportuna nel caso di Latina: città giovane, priva di un tessuto storico e con pochi luoghi simbolici. Si tratterebbe, in un certo senso, del tentativo di riannodare un filo spezzato con il giovane passato architettonico della città razionalista degli anni ’30 e ’40. La nuova Biblioteca pubblica “monumentale” ubicata nel cuore della città diventerebbe un nuovo punto di riferimento in grado di segnare una sorta di continuità con i riferimenti culturali del passato.

Sempre il 9 ottobre 1979, il Consiglio comunale approva la delibera per l’avvio del progetto. E’ individuato il sito dove sarà costruita la Biblioteca: è  un lotto triangolare adiacente alla centralissima Piazza del Popolo. Ma già a partire dalla discussione in aula del 9 ottobre, si fanno vivi gli oppositori. Le critiche politiche sono subito indirizzate alle caratteristiche del progetto accusato di  megalomania e mentalità faraonica.  Il sindaco ribatte di voler realizzare strutture per rendere Latina più vivibile e nello stesso tempo di voler attuare iniziative culturali importanti che possano dare una nuova dimensione alla città e non solo a livello nazionale ma anche a livello europeo. Non solo. Il progetto è anche preso di mira dai professionisti locali. È contestata la scelta di operare nel centro storico per episodi isolati senza un vero e proprio piano urbanistico. Ma, è subito evidente  la pretestuosità dell’attacco. In realtà,  si tratta di forte insofferenza rispetto alla chiamata di un famoso architetto internazionale, scelta giudicata tutta  a discapito delle professionalità locali.

Tuttavia, dopo una partenza  a razzo del progetto, arriva il primo – lungo – stop. Le carte rimangono tre anni nei cassetti dell’architetto Stirling. Cosa è successo? Due cose: il sindaco Corona non viene rieletto e la nuova amministrazione malgrado la delibera approvata,  blocca tutto. Per fortuna nel 1983 la situazione si capovolge di nuovo: Corona si riprende lo scranno di sindaco e con lui subito riparte il progetto della nuova Biblioteca pubblica. Nel dicembre 1983 è stipulata la Convenzione tra il Comune di Latina e lo studio Stirling nella quale è stabilito che il progetto sia ultimato entro maggio 1984. Infatti, puntualmente, nel mese indicato, è presentato il progetto di massima mediante relazione tecnica, 13 tavole in scala 1:200 e un plastico in scala 1:500. Nello stesso tempo, gli oppositori tornano all’attacco: questa volta a mezzo stampa. Nelle cronache di Latina del Messaggero, l’amministrazione comunale è attaccata per non aver provveduto a un piano urbanistico per il centro in grado di “preparare” l’inserimento della  nuova Biblioteca:”“…la nuova biblioteca va a collocarsi in un centro già intasato, sicché si deve evitare un nuovo affollamento, creando anzi soluzioni che riducano quello attuale…”[6], ma è anche attaccata per la sua politica di interventi culturali nel territorio ritenuta senza progettualità,  “confusa”:“…l’edificio destinato alla Biblioteca si caratterizza all’interno per una serie di ambienti e servizi che ne fanno l’effettiva “casa della cultura” e che crea fin d’ora il problema di come diversificare l’uso della “Casa della cultura e Teatro comunale” che è in costruzione in Via Umberto I”[7].

Tuttavia, il sindaco tira dritto e vengono definite le modalità per il progetto esecutivo finalizzate all’appalto per la realizzazione dell’edificio. Lo studio Stirling comunica anche i calcoli, ricavati dagli standard internazionali dell’IFLA[8], che permettono di  stabilire dimensioni e servizi della nuova Biblioteca. Punto di partenza è la stima  della dello sviluppo della popolazione di Latina, fatta dall’amministrazione,  corrispondente a  circa 150 mila abitanti. Di conseguenza, in base al  rapporto tra libri/abitanti di 1:1:, la Biblioteca avrà un patrimonio di circa 150 mila volumi. Mentre, rispetto ai posti per studio/lettura –sempre sulla base della raccomandazioni IFLA che per città superiori a 100 mila abitanti indicano almeno 28 metri e 3/4 posti ogni 1000 abitanti – i posti complessivi disponibili in tutte le sale della Biblioteca saranno circa 500/600.

Finalmente, nel maggio 1985, si tiene a Latina la cerimonia per la presentazione ufficiale della nuova Biblioteca pubblica. Il progetto definitivo è illustrato personalmente da Stirling che ne descrive  tutti i particolari aiutandosi con un plastico in scala 1:200.È un occasione particolare, infatti dopo circa vent’anni dalla sua ultima biblioteca – quella dell’Università di Cambridge – Stirling torna a progettarne una e lo fa, mettendo insieme due temi architettonici a lui molto cari: quello della “loggia”, già utilizzato nella Biblioteca di Cambridge, e quello del “cilindro” ispirato dalla famosa Biblioteca Asplund di Stoccolma. Ne viene fuori una costruzione longitudinale porticata dal cui tetto a capanna fuoriescono due cilindri lapidei con grandi lucernai. Un edificio bello, rappresentativo, “monumentale”. Un edificio da inserire in un contesto. E nel  caso di Latina, non si tratta di inserirlo nello spazio di un campus universitario inglese. Tutt’altro. Ma, si tratta di una sfida che non solo non spaventa Stirling, ma che lo stimola ulteriormente: “…una delle prime cose che un architetto deve fare è costruire edifici che siano legati con l’ambiente circostante[9]”.

Lo spazio a disposizione – il lotto triangolare al centro della città – è rivisitato da Stirling con l’obiettivo di una sua completa ridefinizione. Nell’area sono presenti tre vecchi edifici: un vecchio ospedale dismesso, una ex-autorimessa, e una piccola palazzina. Nella nuova sistemazione il lotto graviterà, ovviamente, sull’edificio biblioteca situato alla base del triangolo, il vecchio ospedale sarà demolito, mentre ex-autorimessa e la piccola palazzina saranno recuperate e trasformate, la prima in una galleria per mostre temporanee e il secondo in un piccolo museo di storia locale. Il tutto circondato e immerso in  un giardino che costituirà, nel suo insieme, una piazza verde tra due vie di scorrimento molto trafficate e che rappresenterà uno dei punti focali della futura organizzazione urbana del centro città.

La forma architettonica della nuova Biblioteca pubblica, nel suo proporsi rispetto al contesto come una sorta di “Basilica della cultura”, include 5.5oo m2di superficie, 77 metri di estensione rettangolare, assicurando capacità per circa 200 mila volumi e accoglienza per almeno 500 utenti. Numeri  importanti,  valorizzati dalla un’ingegnosa strutturazione interna basata sulle cavità dei due enormi cilindri e su un’articolazione in tre piani più un piano interrato. La biblioteca circolante – ovvero il prestito e i cataloghi – è situata nel cilindro di sinistra: organizzata a pianta cruciforme con  superfici delle pareti  occupate da librerie. Al centro, una struttura particolare a  forma di ziggurat a due livelli con altre librerie e posti di lettura. Nel cilindro di destra è invece collocata la biblioteca di consultazione:  un ampio spazio con circa 165 postazioni per lettura e  studio. In posizione baricentrica rispetto ai due cilindri, così da dare agli utenti la possibilità di un facile accesso, è posta la sala audiovisivi con una dotazione di 6 fonoriproduttori, minischermi video e lettori per microfilm.

Al piano terreno è predisposto un  servizio molto importante: la biblioteca per i ragazzi dai 6 ai 14 anni. Una proposta didattico-culturale che potenzia l’offerta – già importante – della Biblioteca pubblica. Si struttura in un ampia sala adibita per l’insegnamento e per la lettura con tavoli bassi e tondi dove potranno trovare posto circa 85 piccoli utenti. Sono previste anche 6 cabine attrezzate per esercizi e giochi per abituare i giovani all’utilizzo dei computer.

E’ un aspetto, quest’ultimo, che merita una riflessione. In un progetto di biblioteca pubblica vecchio ormai di quarant’anni, è possibile cogliere un’attenzione davvero lungimirante per delle tecnologie, come quelle informatiche, ancora, a quei tempi, agli albori. È degno d’attenzione il fatto che Stirling consideri l’informatica non come semplice orpello per dare appeal al  progetto, ma  come infrastruttura sostanziale rispetto al funzionamento presente e futuro del sistema biblioteca: non solo è previsto che in vari punti della struttura saranno ubicati  terminali collegati a un calcolatore centrale per consentire l’identificazione e la localizzazione rapida di qualsiasi libro, ma è anche previsto che la rete locale della biblioteca possa essere collegata a una futura rete nazionale (in pratica, l’anticipazione di SBN!) con l’obiettivo di potenziare ulteriormente i servizi informativi offerti.

Tuttavia, malgrado il progetto esecutivo già pronto e pagato, e nonostante la conclusione delle procedure amministrative con l’ottenimento di tutte le autorizzazioni necessarie compreso il parere favorevole della Regione Lazio, le forze che si oppongo al progetto non demordono.  E mentre anche l’autorevole rivista di architettura Casabella dà ulteriore visibilità al progetto dedicandogli un approfondito articolo intitolato “Progetto per un biblioteca pubblica a Latina”, nel quale conclude che: “…ripercorrendo la storia dell’architettura e soprattutto la sua architettura, Stirling riesce così, ancora una volta, a consegnarci un’opera che ha il coraggio di raccontare ciò che rappresenta, restituendo all’architettura un ruolo e una complessità…[10], incredibilmente, la situazione precipita di nuovo.

Tra le prime avvisaglie che il vento sta cambiando, c’è il riproporsi della questione dell’ex-autorimessa. Nella ridefinizione del lotto voluta da Stirling, il vecchio garage è destinato a diventare la nuova galleria per le mostre temporanee. Tutto questo grazie all’esproprio dell’immobile e al suo cambio di destinazione d’uso. Le procedure sono portate a termine secondo le regole,  compreso il parere favorevole della commissione urbanistica. Tuttavia, i vecchi proprietari dell’immobile continuano a opporsi, e cosa preoccupante, la loro azione trova sponde politiche all’interno del Consiglio comunale.

Ma, l’evento determinante è rappresentato dalle elezioni del giugno 1985[11]. La consultazione elettorale decreta ancora una volta la vittoria del partito del Sindaco Corona già da tempo al governo della città: la Democrazia Cristiana.  Tuttavia, inaspettatamente, si forma una coalizione interna allo stesso partito, contraria a rinnovare il mandato al sindaco in carica. Si tratta di un vero e proprio “ribaltone”. È un’amara sorpresa, ma come spiega una cronista politica sul Giornale Pontino del 19 giugno 1985, una sorpresa fino a un certo punto:“…siamo in presenza di una chiara manovra di potere condotta con incredibile disinvoltura da gruppi che senza tener conto dei risultati e della qualità di lavoro svolta dal partito e Latina, si uniscono oggi solo in funzione della difesa di interessi personali e di corrente, contro una linea di rigore e di crescita della città.[12]

Con il nuovo sindaco[13], date tali premesse, non vengono deluse le peggiori aspettative, e di conseguenza sono annullati  gli impegni culturali, sociali, economici e di riqualificazione urbanistica presi dal precedente primo cittadino. Il progetto della nuova biblioteca pubblica diventa un faldone da relegare – per sempre – negli archivi comunali.  La rimozione è attuata con due mosse esiziali: prima escludendo il progetto della nuova biblioteca dalle previsioni di bilancio, poi intervenendo in maniera definitiva– “tombale” -dal punto di vista urbanistico, vale a dire cambiando la destinazione del lotto triangolare. Da quel momento, lo spicchio  di città da cui – secondo la visione del sindaco Corona – sarebbe dovuta partire una rinascita culturale e identitaria della comunità, rimane in un limbo: sospeso. Ma, non per molto, nel 1988 arriva la decisione definitiva dell’amministrazione comunale sulla sua  “riqualificazione”: area adibita a parcheggio di auto e pullman. Un’occasione  di riscatto culturale incredibilmente sprecata che – beffardamente – il triangolo d’asfalto intasato di veicoli è ancora lì a ricordare.

[1]La Conferenza nazionale delle biblioteche italiane si tiene dal 22 al 24 gennaio 1979 a Roma.

[2]Sir James Stirling (Glasgow 1926 – Londra 1992) è stato un architetto britannico.

[3]Antonio Corona, appartenente alla Democrazia Cristiana, sindaco della città di Latina dal 1972 al 1980 e dal 1983 al 1985.

[4]Estratti dal verbale, da:  Claudio Greco (a cura), Biblioteca pubblica e giardini a Latina di James Stirling, Officina Edizioni, 1989, p. 113

[5]Alessandro Mendini, Colloquio con James Stirling, “Domus”,  n. 651 (1984) p. 1-15

[6]Il Messaggero, 24 maggio 1984

[7] Il Messaggero, 24 maggio 1984

[8]https://www.ifla.org/publications/ifla-publications-series

[9]Alessandro Mendini, Colloquio con James Stirling, “Domus”,  n. 651 (1984) p. 1-15

[10]Mirko Zardini, Progetto per una biblioteca pubblica a Latina, “Casabella Rivista internazionale di architettura”, n.507 (1984), p. 4-13

[11]https://it.wikipedia.org/wiki/Elezioni_amministrative_italiane_del_1985#Latina

[12]Rita Calicchia, Il Giornale Pontino, 19 giugno 1985.

[13]Delio Redi, appartenente alla Democrazia Cristiana,  sindaco di Latina dal 1985 al 1992.

Fabio Di Giammarco

Pubblicato su “Biblioteche oggi”  luglio-agosto 2021

Pubblicato in biblioteche italiane, patrimonio culturale digitalizzato, SBN (Servizio Bibliotecario Nazionale), storia delle biblioteche | Contrassegnato , , , , | Lascia un commento