Tentativi di “evoluzione” per la Biblioteca Digitale

La Biblioteca Digitale scivola sempre di più verso l’obsolescenza. Il fatto è che le sue modalità sono per lo più ferme alla teca o vetrina dove mettere in mostra o al più gestire  testi o immagini digitalizzate. Solo che – nel frattempo – l’ecosistema digitale è cambiato e ricambiato, e di conseguenza sono mutate le aspettative ed esigenze dei suoi potenziali utenti. Insomma, il vecchio “format” sembra proprio non bastare più.

Tra i tentativi più interessanti di “evoluzione” della Biblioteca Digitale c’è quello di DSpace-GLAM, vale a dire  la piattaforma digitale del gruppo 4Science, PMI innovativa con sede a Ravenna  specializzata in Data Science, Data Management e Data Repository per la Ricerca Scientifica e per i  Beni Culturali.  DSpace-GLAM recepisce  le indicazioni del Piano Nazionale di Digitalizzazione (PND) del patrimonio culturale che esorta la costruzione di nuovi paradigmi culturali e nello  specifico, riguardo le biblioteche digitali , prospetta l’idea di allargare i confini del concetto di patrimonio culturale per creare un ecosistema della cultura capace di incrementare la domanda potenziale e ampliare l’accessibilità per diversi segmenti di pubblico.

In primo luogo, la nuova Biblioteca Digitale targata 4Science, è compatibile con tutti gli standard nazionali, internazionali e linee guida RDA. Inoltre, è integrabile con i sistemi di “long term preservation” e garantisce un’adeguata esposizione per quanto riguarda la SEO (Search Engine Optimization). Infine, abbraccia strategicamente la filosofia “open source” anche rispetto alla scelta lungimirante di adottare l’ecosistema IIIF per quel che riguarda la navigazione, visualizzazione e consultazione dei documenti e immagini digitali.

Ma, il vero salto di qualità tentato dall’evolutivo DSpace-GLAM, è un altro. È quello di allargare i confini della tradizionale teca digitale introducendo il concetto di “contestualizzazione” nell’ambito della gestione e offerta di contenuti culturali digitalizzati. Vale a dire, ampliare le possibilità di ricerca degli utenti mettendo loro a disposizione nuove chiavi d’accesso per fruire / interrogare i patrimoni culturali digitalizzati.

L’innovazione fondamentale è l’implementazione di relazioni (digitali)– creando così dei contesti – tra gli oggetti digitali e altre entità quali persone, luoghi, oggetti, eventi ecc. E di conseguenza, in questo modo, determinare  l’apparire di un nuovo tipo di ecosistema: quello dei “paesaggi culturali digitali”. Ecosistema strutturato e poi visualizzato mediante  reti semantiche. La generazione dei  “paesaggi culturali digitali” che  si affiancano e si integrano con la “visione” istituzionale dei patrimoni culturali, può rappresentare un grande valore aggiunto nelle interazioni con la platea degli utenti e nel produrre, nell’ambito appunto delle biblioteche digitali,  nuova conoscenza e inedite prospettive nella valorizzazione dei beni culturali.

Come esempio, abbiamo alcune biblioteche digitali che hanno adottato la piattaforma DSpace-GLAM e che sono già in grado di creare primi abbozzi di “paesaggi culturali” intorno a personaggi storici significativamente presenti all’interno dei loro patrimoni. La Digital Library di Pavia ha creato una rete semantica intorno a Ugo Foscolo. Le collezioni digitali dalla Digital Library della Panizzi mettono, invece, in evidenza reti semantiche che attraversando la storia dell’arte hanno il loro centro intorno ai nomi di Raffaello e il Parmigianino.

Pubblicato in biblioteca digitale, digitalizzazione, IIIF, patrimonio culturale digitalizzato, tecnologie digitali | Contrassegnato , | Lascia un commento

MuseIT: una piattaforma inclusiva per l’accesso ai patrimoni culturali digitalizzati

L’accesso ai patrimoni culturali digitalizzati non è ancora uguale per tutti. La grande platea di utenti che soffrono di qualche forma di disabilità – circa un miliardo di persone in tutto il mondo – spesso è ancora penalizzata nell’accesso e nell’usabilità delle varie  piattaforme digitali.

Ora però c’è un nuovo progetto europeo – MuseIT, finanziato dal programma Horizon Europe per il periodo 2022-2025 – che si propone proprio di colmare questo gap. Si tratta di un’iniziativa dell’Università di Boras (Svezia) che si avvale di un consorzio internazionale di 9 partner dell’area UE e 3 partner associati (USA e Regno Unito). L’obiettivo  del progetto è, infatti,  la progettazione di una piattaforma multisensoriale in grado di garantire una piena accessibilità e usabilità per  tutti utenti.

Al centro della proposta innovativa di  MuseIT ci sono le tecnologie tattili. E per sviluppare al meglio le loro potenzialità, il progetto si avvale di una società leader in questo settore: la francese Actronika. Il co-fondatore della società – Vincent Hayward – ha spiegato che grazie a 30 anni di ricerca sono state sviluppate tecnologie tattili capaci di integrare perfettamente i feedback tattili nelle interfacce uomo-macchina. Infatti, Actronika ha già sperimentato l’inserimento di questo  tipo di tecnologia  in tutti i principali dispositivi digitali: smartphone, touchscreen, controller per la guida e per il gioco ecc.

Per ottenere il risultato previsto, il progetto deve, in pratica, realizzare una rappresentazione multisensoriale dei patrimoni culturali digitalizzati capace di andare oltre i sensi della vista e dell’udito. Non solo. Deve anche, contemporaneamente, intervenire su un altro piano, e cioè innovare nell’ambito della conservazione di beni culturali “atipici”, prevedendo standard di archiviazione interoperabili per i nuovi oggetti digitali multisensoriali.

Più nello specifico, la piattaforma MuseIT consentirà la creazione di espressioni alternative e modalità di rappresentazione (tra cui digitalizzazioni, traduzioni, interpretazioni e/o transmediazioni per esperienze estetiche arricchite) di un insieme di beni culturali predefiniti: oggetti, siti architettonici, beni immateriali ecc. Le rappresentazioni multisensoriali offerte dalla piattaforma terranno conto delle variazioni nella modalità percettive e nella capacità funzionali e cognitive degli utenti, ma nel contempo soddisferanno anche esigenze e preferenze diverse al fine di creare pari opportunità per tutti. Pertanto, le rappresentazioni a più livelli, inclusi segnali visivi, uditivi e tattili, saranno centrali nel progetto.

Il progetto,  intervenendo su una problematica particolarmente complessa, si inspira ai principi dell’Inclusive Design, con particolare attenzione all’accessibilità e al Design Universale. Riguardo l’accessibilità, precondizione richiesta è, ovviamente,  la garanzia che tecnologie utilizzate e relative interfacce possano essere utilizzata da persone con varie forme di disabilità. Mentre, l’adozione del  paradigma del Design Universale mira a creare le condizioni per cui l’utilizzo della piattaforma multisensoriale possa rappresentare un’esperienza tale da coinvolgere non solo la platea della disabilità, ma tutti gli utenti interessati.

Pubblicato in digitalizzazione, musei virtuali, patrimonio culturale digitalizzato, tecnologie digitali | Contrassegnato , , , , | Lascia un commento

La prima rivoluzione tecnologica: la scrittura

Nel susseguirsi delle invenzioni tecnologiche che hanno cambiato il mondo, la scrittura è l’evento storico fondamentale, ma per essere capito in pieno è necessario studiarlo  mettendolo a confronto con il mondo culturale che lo ha preceduto: quello dell’oralità. È questa la tesi centrale di Oralità e scrittura, le tecnologie della parola dell’antropologo, filosofo, esperto in problemi della comunicazione, Walter Ong. Ripubblicato recentemente dopo la prima edizione uscita nel 1982.

Il libro, malgrado i suoi oltre quarant’anni di età e il fatto che si occupi di tecnologie della comunicazione, non solo non risulta datato, ma è ancora considerato,  nell’ambito degli studi di storia della cultura e comunicazione umana,  un testo fondamentale. Questo è dovuto all’attualità della domanda che sottintende tutta la ricerca di Ong, vale a dire: quale impatto hanno avuto (e hanno) le tecnologie della comunicazione (parola, scrittura, stampa, computer) sul pensiero e sulla conoscenza degli esseri umani?

Per Ong il mondo dell’oralità, è stata una fase di esecuzioni verbali di grande bellezza e di alto valore artistico legate al senso dell’udito e al doppio filo della memoria. Ma è stato anche un mondo in cui mancava il pensiero astratto. Difatti, riprendendo il fondatore della neuropsicologia, il russo Aleksandr Romanovič Lurija, fa notare come una cultura orale non riesca a pensare in termini di figure geometriche, categorie astratte, logica formale ecc., tutte cose che derivano non semplicemente dal pensiero in sé ma dal pensiero condizionato dalla scrittura.

Ong indica un percorso evolutivo della psiche umana che solo con l’acquisizione della scrittura può sfruttare appieno le sue possibilità. Insomma, la scrittura è assolutamente necessaria per lo sviluppo della cultura: è indispensabile per la scienza, per la storia, per la filosofia, per la letteratura, per le arti e per il linguaggio stesso. È lo stesso Platone, “paradossalmente”, a dimostrarlo, sottolinea Ong, quando nel Fedro fa dire a Socrate che la scrittura è disumana poiché distrugge la memoria, indebolisce la mente…ma poi è proprio grazie alla scrittura che Platone può edificare il suo sistema filosofico basato sul pensiero astratto e le relative idee immutabili.

Il passaggio successivo, fondamentale, di Ong è quello di interpretare la scrittura come una “tecnologia”, cioè come un qualcosa di nuovo per il pensiero umano perché esterno alla semplice  condizione fisica com’era invece l’oralità basata sul senso “intimo” dell’udito. Ora, il senso   in gioco è quello “esterno” spaziale, della vista. E la scrittura con la sua “artificialità naturale” ha caratteristiche di una tecnologia perché richiede strumenti e perché attraverso questi strumenti realizza un oggetto fisico che prima non esisteva e che è distinto dalla persona che lo produce.

Ha rafforzare poi l’effetto che la scrittura ha sul pensiero e l’espressione, arriva la tecnologia della stampa che amplifica il carattere spaziale, visivo ed esterno rispetto alla fisicità umana in quanto oggettivato ancor di più dal processo tipografico. Ma, l’analisi di Ong non si ferma alla rivoluzione di Gutenberg, va avanti. E grazie anche alla collaborazione con il suo contemporaneo sociologo e studioso dei mezzi di comunicazione Marshall McLuhan, affronta anche i cambiamenti sul pensiero e conoscenza umana apportati dai nuovi media elettronici (radio, tv) e dai primi computer.

Condivide appieno il famoso slogan di McLuhan: “il medium è il messaggio”, nel senso che si trova d’accordo sul fatto che sia  proprio il mezzo (medium) con cui la lingua è comunicata (voce, scrittura, stampa, media elettronici e digitali) a determinare l’organizzazione del pensiero. E proprio le ultime riflessioni di Ong sui nuovi media e sull’avvento dell’era dei computer, lasciano trasparire  la sua convinzione nel ritenere la “parentesi di Gutenberg” – ovvero quel periodo di circa 500 anni situato tra le lunghe fasi della cultura orale e chirografica e la fase attuale dei media digitali – una sorta di “eccezione” all’interno del lunghissimo percorso del pensiero umano.  Alla quale inevitabilmente seguirà l’affermarsi di  una (nuova) oralità questa volta però supportata non solo dall’udito e dalla memoria ma soprattutto da tecnologie esterne, quelle dei media digitali, comunque anch’esse basate – come succedeva anche per l’oralità primaria –  sull’istantaneità, la ridondanza e l’ubiquità.

Pubblicato in futuro del libro, storia del libro, storia mass media | Contrassegnato , , , , , | Lascia un commento

Il PNRR per il Patrimonio Culturale Digitale Italiano

Il programma  Horizon Europe (2021-2027) per la ricerca e lo sviluppo tecnologico, con un budget enorme di circa 100 miliardi, prevede, tra l’altro, per la cultura,  il finanziamento di 110 milioni di euro per la creazione, nel biennio 2023-2025,  di un Cloud collaborativo europeo per il patrimonio culturale. La soluzione del Cloud Computing è ormai la scelta strategica sia a livello comunitario che nazionale, ed è basata sostanzialmente su tre aspetti ritenuti fondamentali rispetto alle sfide del futuro: autonomia tecnologica, controllo sui dati e resilienza dei sistemi.

L’Italia, che grazie al PNRR (Piano Nazionale di Ripresa e Resilienza) può disporre di 6,68 miliardi di euro da investire nella cultura, al punto M1C3 1.1 “Strategie e piattaforme digitali per il patrimonio culturale”  può contare su un finanziamento di 500 milioni di euro per integrarsi nello spazio culturale digitale cloud europeo attraverso la realizzazione di una “piattaforma cloud per l’accesso al patrimonio culturale italiano”.

Punto fondamentale per il “matrimonio” tra Cultura e Cloud è stato l’inserimento, da parte del Consiglio D’Europa (conclusioni sul patrimonio culturale 21 maggio 2014), delle risorse digitali tra le “forme di patrimonio culturale”. Si è trattato di un cambio di prospettiva basilare che ha cambiato lo status della risorsa digitale: non più semplice replica/copia di un originale fisico, ma “originale” essa stessa. E questo cambiamento  non è più dovuto all’eventuale relazione con l’oggetto fisico di provenienza, ma alla relazione intellettuale dalla quale il bene digitale prende forma e da cui attinge nuovi significati trasmissibili.

La struttura attuatrice  che dovrà realizzare, entro il 2024, su incarico del Ministero della Cultura, la piattaforma,  è l’Istituto centrale per la digitalizzazione del patrimonio culturale – Digital Library che ha già predisposto la cornice nella quale inserire l’infrastruttura: il “Piano nazionale di digitalizzazione del patrimonio culturale (PDN). Il patrimonio culturale italiano da trasferire in digitale è davvero un qualcosa di enorme: si tratta di un “patrimonio diffuso” attraverso all’incirca 27 mila luoghi della cultura sparsi sul territorio nazionale che, nel dettaglio, comprendono quasi 12 mila biblioteche, oltre 9500 archivi e più di 6 mila tra musei, monumenti e aree archeologiche.

Limitando, logicamente,  una prima fase di popolamento della piattaforma ai soli sistemi informativi gestiti dagli istituti del Ministero della Cultura, in questo caso si tratta di almeno  770 siti adibiti alla tutela e conservazione del patrimonio nazionale. Con tutta evidenza, già questo  rappresenta un primo step assai impegnativo. Si tratta, infatti, di procedere con la migrazione e integrazione nei nuovi sistemi cloud di oltre 37 milioni di descrizioni catalografiche associate a circa 26 milioni di immagini, per poi passare alla digitalizzazione di tutto il restante (corposo) patrimonio ancora su supporto cartaceo.  Considerando, infine,  che la Commissione Europea, attraverso i programmi Horizon, ha chiarito che i requisiti alla base delle digitalizzazioni che poi entreranno a far parte del patrimonio culturale digitale europeo, devono: restituire l’aspetto “visivo” dei singoli oggetti, collezioni o siti culturali; “costruire storie”, esperienze e contesti culturali; ma soprattutto essere risorse digitali interconnesse, ricercabili con differenti domini e linguaggi. Anche  questa prima fase – circoscritta ai soli istituti culturali statali –  si annuncia  di dimensioni “monstre”.

Insomma, in prospettiva,  il Piano nazionale di digitalizzazione del patrimonio nazionale (PDN) di cui la piattaforma è infrastruttura fondamentale, ha l’ambizione di attuare una trasformazione digitale della cultura del paese, a partire dai seguenti obiettivi: sviluppare il potenziale delle banche dati culturali e delle collezioni digitali riconducendo la frammentazione attuale a una prospettiva che restituisca l’unitarietà e la complessità del patrimonio culturale nazionale; garantire l’uso e l’accessibilità a lungo termine delle risorse digitali adottando nuove strategie di conservazione (approccio cloud); semplificare i rapporti con cittadini e imprese, ridisegnando le procedure di settore e portando i servizi culturali in rete; facilitare la crescita di un mercato complementare dei servizi culturali aperto alle start-up innovative, finalizzato a innovare le modalità di fruizione del patrimonio culturale.

La piattaforma digitale di accesso al patrimonio culturale, nel dare il suo contributo  alla modernizzazione nella fruizione della cultura, avrà una duplice funzione: di aggregatore e di erogatore di contenuti. Si rivolgerà a tutti i soggetti proprietari e/o produttori di contenuti digitali e nello stesso tempo renderà utilizzabili le risorse digitali a tutti gli utenti finali comprese tutte quelle imprese interessate alla creazione di prodotti e servizi.

Sempre rispetto all’utilizzo della risorsa digitale, il Piano nazionale di digitalizzazione del patrimonio nazionale (PDN), prevede anche un’altra innovazione strategicamente importante: un sistema di certificazione dell’identità digitale per i beni culturali. Finora il patrimonio culturale digitale è stato soltanto correlato al sistema dei beni culturali materiali, ma non ha coinciso con essi. Infatti, non esiste una relazione 1 a 1, cioè a un bene culturale non corrisponde una sola risorsa digitale, bensì si generano delle relazioni molti a molti. Di conseguenza il patrimonio culturale digitale non identifica l’universo dei beni culturali, ma né è piuttosto una rappresentazione/interpretazione. Ora con i finanziamenti PNRR sarà realizzato un sistema di certificazione e per la risorsa digitale accadrà quello che è un po’ accaduto con lo SPID per le persone fisiche. Il certificato d’identità digitale per i beni culturali sarà la chiave abilitante affinché un bene culturale sia riconosciuto, e quindi valorizzato come unico, in tutti i sistemi: informativi, amministrativi, culturali, piattaforme di accesso ecc.

Pubblicato in biblioteca digitale, Cloud, digitalizzazione, interoperabilità, patrimonio culturale digitalizzato, tecnologie digitali | Contrassegnato , , , , | Lascia un commento

“Reading(&)Machine”: una macchina high tech per incentivare la lettura

Dall’ultimo rapporto ISTAT sulla lettura sappiamo che in Italia i lettori di libri sono soltanto il 40% della popolazione dai 6 anni in su, e le prospettive appaiono tutt’altro che rosee. Infatti,  la curva percentuale dei lettori – nell’arco degli ultimi vent’anni – presenta un tale andamento da essere definita dallo stesso ISTAT : desolante. Nel 2000 i lettori non superavano uno sconfortante 38%, poi la curva è faticosamente risalita nei dieci anni successivi fino al 46,8% del 2010, ma poi è ridiscesa  di nuovo nel corso dell’ultima decade per fermarsi intorno al 40%.

Che cosa fare rispetto a questa persistente avversione degli italiani verso la lettura? Avversione che, tra l’altro, è una delle principali cause di quel  fenomeno che ormai riguarda più del 46% dei cittadini tra i 16 e i 65 anni che risponde al nome di “analfabetismo funzionale”.  Insomma, che fare oltre alle tradizionali linee di intervento, finora non molto efficaci, riguardanti soprattutto strategie di promozione della lettura in ambito scolastico? Una novità potrebbe esserci ed è portata avanti da chi pensa che per ri-incentivare e rivitalizzare la lettura si debba agire in altro modo, ad esempio sfruttando la seduzione tecnologica.

Il Politecnico di Torino insieme al Dipartimento di Studi Storici dell’Università di Torino e alle Biblioteche Civiche Torinesi e grazie ai finanziamenti della Fondazione TIM, si apprestano a lanciare “Reading(&)Machine”. Un progetto che mira a “rinnovare” il  rapporto tra lettori e libri intervenendo proprio nei luoghi più tradizionali dove questo rapporto, da sempre, si esplica:  biblioteche e librerie. E “intervento” vuole dire due cose: potenziare suggestivamente e significativamente gli ambienti dedicati arricchendo, nello stesso tempo, l’esperienza della lettura mediante l’utilizzo delle tecnologie dell’intelligenza artificiale, della realtà aumentata e virtuale.

Da un punto di vista più tecnico, “Reading(&)Machine” lavorerà allo sviluppo di algoritmi di “raccomandazione” per la promozione della lettura. L’utilizzo, invece, di sistemi di machine learning permetterà l’esplorazione delle collezioni, ma anche l’estrazione, elaborazione e comunicazione di contenuti testuali nell’ambito delle biblioteche con patrimoni storici più rilevanti. E poi dati: benzina indispensabile per un progetto che si candita a essere una sorta di nuova “macchina high tech per leggere”. Dati che saranno di provenienza eterogenea e che affluiranno non solo dalle collezioni delle biblioteche, ma anche da piattaforme di social reading (come Anobii), acquisizioni attraverso dataset open e scaturiranno anche da profilazioni degli utenti.

Il progetto ha anche l’ambizioso obiettivo di far crescere una nuova “identità digitale”  negli spazi fisici all’interno delle biblioteche. Questo grazie all’implementazione  nelle sale di lettura di interfacce basate su tecnologie di realtà aumentata e virtuale accessibili agli utenti mediante app per smartphone e tablet. Insomma, “Reading(&)Machine” si propone l’intento onorevole di contrastare “la fuga dalla lettura” segnalata dall’ISTAT con una serie di interventi che prevedono sia la “stimolazione” della lettura che un nuovo appeal per richiamare più utenti nelle  biblioteche. Si tratta di un tipo di offerta, comunque, tecnologicamente orientata a rendere nuove e seducenti le modalità di esplorare e vivere il libro e i luoghi nei quali esso è custodito.

Una strategia tecno-centrica – una sorta di make-up d’ipermodernità – che sicuramente può avere un impatto, ma che non può non suscitare dubbi sulla sua efficacia reale a risolvere problemi annosi. Nel senso che forse tutte le difficoltà degli  italiani rispetto alla lettura hanno radici un po’ più profonde e che rimandano non semplicemente alla carenza di dotazioni tecnologiche nelle biblioteche che pure servono, ma soprattutto alla mancanza, nel corso degli ultimi decenni,  di scelte politiche e risorse adeguate per la cultura.

Inoltre, ritornando infine al contingente, un progetto come “Reading(&)Machine” deve anche tener conto di alcune criticità che la sua attuazione potrebbe generare. Come ha più volte spiegato l’IFLA (International Federation of Library Associations), l’adozione di sistemi di intelligenza artificiale, di machine learnig e altro da parte delle biblioteche, solleva questioni cruciali non ancora di fatto chiaramente risolte sulla libertà intellettuale e sulla privacy e inoltre comporta – urgentemente – una ridefinizione e formazione delle professionalità bibliotecarie nell’ambito di una nuova alfabetizzazione digitale centrata su queste nuove tecnologie.

Pubblicato in algoritmo, biblioteca digitale, big data, digitalizzazione, futuro del libro, Intelligenza artificiale, machine learning, social reading, tecnologie digitali | Contrassegnato , , , | Lascia un commento