Biblioteche digitali nell’emergenza covid-19

Nell’emergenza covid-19, con l’isolamento a casa delle persone, le biblioteche digitali hanno assunto un ruolo strategico importante per il supporto al lavoro, allo studio e allo svago. Internet Archive, la più grande biblioteca digitale non profit al mondo, lo scorso 24 marzo ha annunciato la creazione della National Emergency Library, un’iniziativa di solidarietà digitale per rendere immediatamente disponibili circa 1,4 milioni di libri digitalizzati, ma ancora in regime di copyrigth, che prima dell’emergenza prevedevano, per essere consultati, una procedura di prestito a distanza con lunghe liste d’attesa.

 L’idea della “Biblioteca d’emergenza” è permettere l’accesso libero a un patrimonio di libri pubblicati nel corso del XX secolo, presenti in formato cartaceo sugli scaffali delle biblioteche universitarie (ma non solo) al momento chiuse, non più pubblicati, neanche in formato ebook, e quindi  fuori commercio, ma ancora indispensabili per gli studi e le ricerche di studiosi e studenti di tutto il mondo. A questi 1,4 milioni di libri, si aggiungono altri 2,5 milioni in regime di dominio pubblico già liberamente scaricabili prima dell’emergenza,  sempre tramite l’Internet Archive.

 La “National Emergency Library” è il tentativo, in un momento particolarmente difficile, di concretizzare, rendendolo effettivamente fruibile, il vecchio sogno di Brewster Kahle – l’inventore dell’Internet Archive – cioè quello di realizzare una biblioteca digitale universale in grado di far arrivare i libri nelle case di tutto il mondo. E in questo modo, riaffermare il ruolo strategico del digitale nel collegare  persone e trasmettere  cultura, soprattutto in una situazione al limite nella quale l’isolamento forzato può trasformarsi in  deprivazione generalizzata.

Da noi, invece, al momento, va segnalata l’iniziativa #IO LEGGO DIGITALE. È  un’interessante collaborazione pubblico – privato. Da una parte l’ICCU (Istituto Centrale per il Catalogo Unico delle Biblioteche Italiane) che gestisce il Servizio Bibliotecario Nazionale (SBN),  una rete di oltre 6.500 biblioteche con un catalogo unico con circa 18 milioni di record bibliografici, dall’altra DM Cultura, una società specializzata in soluzioni digitali per la cultura. Da questa  collaborazione, anche con il supporto di Amazon Web Services, è nato il portale #IO LEGGO DIGITALE mediante il quale è possibile accedere liberamente e gratuitamente  alla rete INDACO, una grande biblioteca digitale on line di DM Cultura, che mette insieme oltre 2 milioni di contenuti digitali: ebook, audiolibri, musica, film, corsi di lingua, videogiochi ecc. Si tratta di una quantità considerevole di risorse digitalizzate on line alle quali vanno aggiunti  i circa 800 mila link a documenti digitali già liberamente disponibili sull’Opac SBN gestito dall’ICCU.

 

Pubblicato in Senza categoria | Lascia un commento

Il Labirinto dell’attenzione

i miei vicini di casa hanno regalato due conigli alla loro bambina in occasione del suo compleanno. I conigli erano maschio e femmina. Ora vivo in una società ricca di conigli (informazione), ma si da il caso che quando c’è ricchezza di un elemento necessariamente ci deve essere mancanza di qualcos’altro. Infatti ora nel mio giardino c’è scarsità di lattuga (attenzione)”.

Era il 1969, quando l’economista Herbert Simon, premio Nobel 1978, durante la sua conferenza “Progettare organizzazioni per un mondo ricco di informazioni” a Washington, con la metafora dei conigli e della lattuga, coglieva – con un tasso di preveggenza davvero impressionante – un tema che con lo sviluppo tecnologico della società dell’informazione sarebbe diventato fondamentale: un eccesso di informazioni ha come conseguenza la perdita delle capacità di dedicare la necessaria attenzione a quanto accade intorno a noi.

Emanuele Bevilacqua che – come curatore – ha riportato nel volumetto “Il labirinto dell’attenzione. Progettare organizzazioni per un mondo ricco di informazioni”, la conferenza tenuta da Hebert Simon e parte della sua biografia, ci mette anche del suo, riprendendo il filo rosso del rapporto tra eccessiva informazione e scarsa attenzione. E lo fa, allargando il discorso non solo ai fruitori, ma a tutti gli altri attori del sistema informativo:  produttori e gestori di contenuti.

In un mondo come quello attuale, dove una sterminata platea di utenti più o meno distratti (più di 4 miliardi) ritiene molto basso il valore del digitale e  non è disposta a spendere per i contenuti che riceve, anche gli investitori pubblicitari non fanno che adeguarsi pagando pochissimo per le loro inserzioni. Una situazione che una conseguenza inevitabile:  scarsa attenzione alla qualità del materiale informativo in rete e scarso valore della pubblicità in rete.

E allora, come se ne esce dall’information overload, dalla distrazione di massa e dal degrado dei contenuti? Perseguendo un circolo virtuoso secondo Bevilacqua: dal conteggio delle teste alla cura dell’attenzione. Orientando gli investimenti pubblicitari non più sul numero degli utenti connessi, ma sull’attenzione e la soddisfazione che i contenuti riescono a generare.

Il nuovo contesto deve essere quello dell’economia dell’attenzione. Vale a dire, fornire contenuti di valore alle giuste tariffe, dimodoché tutte le parti siano soddisfatte. Si tratta di evitare la dispersione dell’attenzione in tutta la catena produttiva: da chi realizza i consumi fino a chi li consuma. Insomma, una inversione di tendenza rispetto a quanto accade oggi dove i monopoli (le piattaforme) digitale concentrano risorse economiche di attenzione senza saperle redistribuire e organizzare.

Hebert Simon, già nella sua conferenza, ponendosi il problema del “sovraccarico di informazioni”, individuava  come l’esito di un problema di information overload dipendesse da una certa organizzazione del sistema (economia dell’attenzione….?), concludendo che: “la soluzione di un problema di sovraccarico di informazioni, dipende dall’organizzazione di un sistema informativo della propria attenzione tra queste quattro classi di attività: ascolto, memorizzazione, pensiero e parola. Si otterrà una riduzione solo se il sistema assorbirà più informazioni di quante ne produce, se ascolta e pensa più di quanto parli”

Pubblicato in economia dell'attenzione, information overload, società dell'informazione, storia mass media, tecnologie digitali | Contrassegnato , , , , | Lascia un commento

L’altra faccia delle piattaforme: il nichilismo digitale

Le cose non sono andate come l’utopismo tecnologico degli anni Novanta immaginava, le reti digitali non solo non hanno portato più democrazia eliminando diseguaglianze e  gerarchie, ma, al contrario, hanno aumentato le ingiustizie rendendo solo  questo processo molto meno visibile, quasi occulto.

E allora – come sostiene Geert Lovink nel suo ultimo libro “Nichilismo digitale. L’altra faccia delle piattaforme”,  c’è urgente bisogno di capire cosa sta accadendo. Per far questo dobbiamo mettere in campo un nuovo “realismo digitale” in grado sia di svelare sia di indicare diverse prospettive rispetto al vicolo cieco nel quale ci siamo cacciati.

Il fatto è che il capitalismo vincente e dominante  delle grandi piattaforme, sostiene Lovink,  ha generato un sistema di social media che non si limita a pervadere il nostro quotidiano, ma lo condiziona a tal punto da creare una sorta di “tristezza prefabbricata” funzionale alla riproduzione del potere delle piattaforme.

Di conseguenza, il grande problema  che abbiamo davanti è: il sociale esiste ancora al di fuori dei social? E se – come pensa Lovink – la risposta è no. Che fare? Secondo Evgeny Morozov, l’atteggiamento di semplice rifiuto non è sufficiente, ci vuole dell’altro. Per alcuni, si tratta di sostenere il “diritto alla disconnessione”, per altri è invece necessaria una tattica più subdola,  più intelligente, una sorta di sabotaggio delle piattaforme: la falsificazione dei nostri dati in rete (falsi account, false ricerche ecc.) per controbattere con una certa efficacia lo strapotere del capitalismo digitale.

La costruzione del “realismo digitale” indicato dal libro di Lovink,  parte dall’analisi del concetto di piattaforma, dalla scoperta della sua “invisibile” violenza tecnologica e dalla descrizione del funzionamento della bolla di “tecno-tristezza” dentro la quale tutti siamo costretti. E poi la conclude, mettendo a fuoco un’altra questione centrale: l’industria dei dati.

Secondo  Andrew Keen – autore di “Come aggiustare il futuro. Restare umani nell’era digitale”, il vero problema sono infatti i dati – la cui raccolta avviene ormai ovunque – e non tanto più la privacy. Ma, i cinque principi fondamentali indicati “illuministicamente” da Keen per “aggiustare il futuro, non sembrano convincere più di tanto Lovink. Che invece pensa alla necessità – davvero prioritaria – di riconquistare e proteggere uno spazio pubblico.

Per ottenere ciò è fondamentale – secondo l’autore – chiedersi se è possibile una strategia alternativa e un nuovo design per il mondo digitale. Per quanto riguarda la strategia,  un ruolo potrebbe (e dovrebbe) avere l’Europa, l’unica forza attuale in grado di dar vita ad alternative capaci di restituire il controllo ai cittadini puntando su infrastrutture decentrate in opposizione ai modelli “Big Tech”. Per  un nuovo design, sarebbe invece necessario prima svelare e superare l’attuale design basato su tre concetti frutto dell’interazione tra il nostro stato mentale e l’evoluzione tecnologica: 1) la dipendenza tecnologica prefabbricata 2)la distrazione tecnologica prefabbricata 3) la privacy prefabbricata.

Pubblicato in big data, Datafication, digitalizzazione, Intelligenza artificiale, social media, Social Network, tecnologie digitali | Contrassegnato , , , | Lascia un commento

Lo standard IIIF per lo sviluppo delle biblioteche digitali

Tra le istituzioni culturali e scientifiche a livello globale che fanno parte della IIIF community, limitandoci alle sole biblioteche,  troviamo: Bibliothèque nationale de France, Bayerische Staatsbibliothek (Bavarian State Library), British Library, Boston Public Library, Library of Congress, National Library of Austria, New York University Libraries, Vatican Library.

Insomma, una buona parte del ghota bibliotecario mondiale. E non è un caso. Infatti,  L’IIIF, oltre ad essere  uno  standard de facto per il mondo dei repository di contenuti digitali, ha sempre di più un’importanza strategica per il futuro delle biblioteche digitali in quanto paradigmatico per i sistemi informativi basati sull’interoperabilità.

Se la frammentazione – causata dalla proliferazione dei progetti di digitalizzazione – ha rappresentato finora il grosso impedimento nella  condivisione e fruizione dei  patrimoni culturali digitalizzati, l’esempio offerto dallo standard IIIF  – anche se riguarda specificatamente la gestione e distribuzione delle immagini e metadati attraverso la rete – indica qual è la strada da seguire.

L’International Image Interoperability Framework (IIIF) è basato su tre  API (Shared Application Programming Interface) che consentono la descrizione delle immagini, la strutturazione dei repository digitali e le funzionalità di ricerca.

Queste applicazioni consentono funzionalità avanzate e interattive a vantaggio degli utenti finali. A cominciare dalla possibilità di combinare  e utilizzare risorse basate su immagini provenienti da tutto il web, e quindi confrontare pagine con la possibilità di visualizzare o creare delle raccolte virtuali. Ci sono poi le funzionalità che operano direttamente sulle immagini e che riguardano fondamentalmente la manipolazione e le annotazioni.

Ad esempio, con IIIF diventa possibile ricomporre virtualmente le opere smembrate, cosa che spesso accade nel mondo dei manoscritti. La piattaforma “Broken Books”, utilizzando la tecnologia compatibile IIIF “Canvas”, opera la ricomposizione recuperando via web – mediante URL persistenti – le immagini delle opere richieste, che appunto possono essere manoscritti spezzettati con le “foglie” disperse tra varie collezioni.

Cosa simile è realizzata con in manoscritti conservati nei fondi della British Library e della Bibliothèque nationale de France che possono essere comparati grazie a una stessa interfaccia IIIF, cioè utilizzando uno schermo unico al posto di più visualizzatori.

Mentre, in ambito italiano,  il progetto “Illuminated Dante Project”, si propone – entro il VII centenario della morte del sommo poeta (2021) – di realizzare – sempre grazie alle possibilità offerte dallo standard IIIF – un archivio on line e un database codicologico e iconografico di tutti gli antichi manoscritti provvisti di immagini– un corpus di circa 280 opere – che abbiano rapporti con il testo della Commedia.

Ultimamente, nella presentazione del progetto della Biblioteca digitale Ambrosiana “ad publicum commodum et utilitatem”, il riferimento latino “per il bene e l’utilità pubblica”, è stato appunto associato all’utilizzo – prima biblioteca in Italia – dello standard IIIF in quanto garanzia di una più ampia accessibilità ai contenuti digitali. Non solo. Anche il recente progetto Estense Digital Library ha ritenuto di sottolineare che il proprio patrimonio digitalizzato sarà consultabile con un visualizzatore IIIF di modo che le immagini ad alta definizione diverranno portabili, ossia comparabili con altre, editabili con strumenti di photoediting e annotabili liberamente.

Infine, è indicativo che l’ICCD (Istituto Centrale per i Catalogo e Documentazione del Ministero Beni Culturali) che in seguito a decreto ministeriale ha assunto il compito di implementare  il nuovo servizio per la digitalizzazione del patrimonio culturale italiano (Digital Library) attraverso il coordinamento dei tanti programmi di digitalizzazione in atto, abbia ultimamente organizzato – in partnership con la Stanford University e la Biblioteca Vaticana- un workshop dedicato a “Standard per la digitalizzazione del patrimonio culturale, interoperabilità e IIIF”.

Pubblicato in biblioteca digitale, interoperabilità, patrimonio culturale digitalizzato, tecnologie digitali | Contrassegnato , | Lascia un commento

La decentralizzazione della Rete: dal Blockchain alla nuova Biblioteca di Alessandria

Dopo la prima internet che rivoluzionò lo scambio di informazioni e abbatté i “walled garden” del tempo, cioè i media a stampa;  oggi è in atto un’altra rivoluzione che attraversa la Rete e che investe questa volta le “piattaforme chiuse” tipo Netflix, Spotify – le quali sviluppatesi e consolidatesi nell’ambito di un modello centralizzato distributivo  – vedono ora messa a rischio,  con l’avanzare della nuova tecnologia Blockchain, basata su una diversa architettura di rete decentralizzata e distribuita,  la loro posizione predominante

Alla base della nuova tecnologia Blockchain, c’è il rifiuto dell’idea di “centralizzazione” che, in generale,  per qualsivoglia tipo di organizzazione anche non propriamente informatica, è vista come un concentrato di criticità, in quanto facilmente attaccabile, corruttibile e suscettibile di errori. L’alternativa è quella rappresentata appunto dal design  Blockchain, ovvero un sistema decentrato, condiviso e sicuro, in quanto basato su una “certificazione collettiva”  garantita da una rete distribuita nella quale ogni nodo è garante della validità dell’intera struttura.

Attualmente, il modello vincente Blockchain è quello delle criptovalute tipo Bitcoin, tuttavia la tecnologia consente,  in un senso più ampio,  la certificazione, la trasmissione e lo stoccaggio dei dati. I livelli fondamentali di applicazione sono al momento tre: pagamenti, transazioni non solo finanziarie e smart contract, ovvero contratti che possono essere stipulati e/o imposti senza la necessità di una interazione umana. È comunque facile immaginare che la Blockchain sarà in grado – a breve –  di  rivoluzionare non solo i modelli economici, finanziari, aziendali,  contabili, ma anche di trasformare modelli più complessi come quelli sociali  a cominciare  dal settore cultura.

La società canadese Blocktech lavora da tempo per migliorare la tecnologia Blockchain. Tra l’altro, sta portando avanti un progetto open source molto interessante. In omaggio alla più grande biblioteca dell’antichità, quella di Alessandria,  il progetto riguarda  un’applicazione per il web denominata “Alexandria” che sfruttando la potenza delle tecnologie distribuite funziona  come una sorta di “Bittorrent” ma per l’archiviazione e la condivisione di contenuti culturali.

Il web oggi non ha ancora un indice aperto attraverso il quale tutti possano pubblicare o trovare qualsiasi tipo di informazione. “Alexandria” ha un po’ questa missione: sfogliare il web andando al di là degli attuali “walled garden” delle piattaforme chiuse, in altre parole bypassando il sistema CDN che funziona secondo le regole stabilite dalle società proprietarie di contenuti.

 Le specifiche per consentire ad “Alexandria” di fare tutto ciò sono definite da quello che è il vero motore  alla base  di questa nuova  rivoluzione dei sistemi decentralizzati e distribuiti:  l’Open Index Protocol. Sono del 2014 le prime dimostrazioni – sul forum della piattaforma decentralizzata Ethereum  – della maggiore efficienza di livelli dati condivisi per  la gestione di qualsiasi contenuto digitale. Le riflessioni successive hanno portato a focalizzare il  problema: la vulnerabilità dei sistemi centralizzati e la loro intrinseca correlazione negativa tra velocità di rete e popolarità  dei nodi.

Le caratteristiche dell’Open Index Protocol sono quelle di permettere un sistema aperto senza alcun tipo di autorizzazione per pubblicazione, distribuzione e pagamenti di qualsiasi contenuto digitale. Garantire  un aumento delle prestazioni, un quanto una rete distribuita riduce il sovraccarico del sistema annullando le criticità. Infine, aumentare la sicurezza attraverso la difesa collettiva contro gli attacchi. Insomma, nella nuova “open jungle” che si profila, il nuovo protocollo si candita a essere l’infrastruttura del web futuro : perfettamente interoperabile, condiviso, capace di servire tutti i modelli di distribuzione di contenuti da quelli gratuiti a quelli a pagamento.

Pubblicato in biblioteca digitale, blockchain, interoperabilità, tecnologie digitali | Contrassegnato , , , , , | Lascia un commento