Dalla Bibliotheca Universalis a Google Books, passando per la Bibliotheca Selecta

Gessner_Possevino_GoogleL’idea di offrire “un accesso universale” al sapere non è un concetto esclusivamente moderno. Non sono stati Larry Page e Sergey Brin –  con il loro visionario “Google Books”  che doveva “ organizzare l’informazione del mondo per renderla accessibile a tutti” – i primi ad avere questa idea. Qualche secolo addietro – per la precisione nel 1545 – qualcuno aveva già pensato una cosa simile.

Infatti, proprio in quell’anno cominciava a circolare in Europa la “Bibliotheca Universalis”, opera monumentale – in 4 volumi – del naturalista, teologo e bibliografo svizzero Conrad Gessner (1516-1565). La tecnologia utilizzata è, ovviamente, la più avanzata dell’epoca: il libro a stampa. Ma, l’eccezionalità è soprattutto nei contenuti: migliaia di pagine dove è raccolto la summa dello scibile umano dell’epoca. Si tratta dell’elenco di oltre 15 mila opere – nelle tre lingue base della cultura europea: ebraico, greco e latino – che rappresentano, in quello scorcio del XVI secolo, tradizione e apice della civiltà occidentale.

Nelle pagine della “Bibliotheca Universalis”, le opere sono catalogate per titolo e autore, con l’aggiunta di note tipografiche, numero delle pagine e formato. Inoltre, l’ordinamento immaginato da Gessner offre anche la possibilità di localizzare – e quindi teoricamente di accedere – alle opere, riportando per ognuna l’indicazione del luogo ove è conservata: le biblioteche di Roma, Firenze, Bologna, Venezia, alcune  biblioteche dei paesi germanici e poi raccolte private di studiosi tra le quali anche quella di Erasmo.

Ovviamente, l’accesso universale ”modello XXI secolo” di Google Books – conseguenza dell’impressionante rivoluzione tecnologia e digitale degli ultimi decenni – presenta numeri di tutt’altro genere rispetto alle dimensioni della “Bibliotheca Universalis” di Gessner: a ottobre 2015 i libri digitalizzati dalla Big Company di mountain view erano più di 25 milioni,  con l’obiettivo finale di annettere al mega archivio digitale tutti i libri pubblicati al mondo che – secondo una stima più o meno attendibile – ammonterebbero a circa 130 milioni.

Tuttavia, oltre a numeri completamente diversi  (anche se sulla base di alcune stime è stato calcolato che già nel 1500 i libri a stampa in circolazione Europa si aggirassero tra dieci e venti milioni di copie) bisogno tener conto dell’impostazione opposta delle due “Biblioteche Universali”: quella di Google basata visibilmente sulla quantità ovvero sul voler indicizzare – a prescindere –  tutto il patrimonio librario esistente, mentre la “Bibliotheca Universalis” di Gessner al contrario basata sulla qualità,  cioè su una selezione erudita di opere ritenute fondamentali sia alla circolazione del sapere che allo sviluppo della cultura umana del tempo.

Ma c’è di più, la “modernità” di Gessner non si limita alla sola idea di “accesso universale”, ma va oltre:  l’erudito svizzero si preoccupa anche di come debba  essere organizzato tecnicamente l’accesso al sapere. A questo scopo, Gessner scompone raccolta e strutturazione delle informazioni in tre passaggi ancora oggi attualissimi: 1) raccolta delle informazioni 2) inserimento di queste informazioni in una forma memoria organizzata 3) predisposizione strumenti per il recupero di queste informazioni. E nella sistematizzazione del terzo passaggio, ha un ulteriore colpo di genio: inventa la “scheda di catalogo”.

Insieme all’ideazione di questo strumento innovativo,  nasce anche l’idea della moderna biblioteconomia. Infatti, la scheda di catalogo non solo sopravvive al suo ideatore, ma attraversando i secoli e dopo  aver conquistato il mondo delle biblioteche è giunta fino a noi. E oggi –sopravvissuta anche alla rivoluzione dell’informatizzazione – la scheda di catalogo la ritroviamo, dematerializzata ma inalterata nei suoi tratti essenziali, ancora in uso nei cataloghi on line (OPAC) delle biblioteche di tutto il mondo.

 Nel 1525, durante il sacco di Buda compiuto dai turchi, la grande biblioteca del re Mattia Corvino viene devastata. Vent’anni dopo, al momento della comparsa della “Bibliotheca Universalis”, la grande impressione suscitata da questo evento è ancora forte tra gli eruditi europei, tra questi c’è anche Gessner che ne trae spunto per affrontare un altro grande problema strettamente connesso con l’accesso universale: la tutela e la conservazione del patrimonio librario. In questo senso la “Bibliotheca” di Gessner si propone anche come “guida” per la formazione di biblioteche pubbliche e private concepite – per la prima volta – come istituzioni indispensabili nel mettere a riparo le collezioni librarie da eventi calamitosi di varia natura.

Ma come sempre accade, a un certo punto, il pendolo della storia muta direzione: e alla cultura universale umanistica da cui aveva avuto origine la “Bibliotheca” di Conrad Gessner presto si sostituiscono particolarismi e chiusure che annunciano da lì a poco l’avvento della Controriforma. Ed è in un’Europa ormai attraversata dal “morbo dell’eresia” che la Chiesa Cattolica parte al contrattacco sbarrando la strada all’accesso universale al sapere, a cominciare dai libri. Nel 1559 su ordine del Papa Paolo IV è pubblicato l’Index librorum prohibitorum cui presto seguirà “l’Indice tridentino”.

È in questo clima oscurantista che nasce il progetto del gesuita Antonio Possevino (1533-1611) della “Bibliotheca Selecta”, in pratica l’anti-Bibliotheca Universalis: è la fine dell’idea di biblioteca aperta e universale e inizio del suo contrario. La biblioteca progettata da Possevino è “Selecta” in quanto filtro “ad excludendum” del sapere. Al contrario della “Bibliotheca Universalis”, deve con urgenza  porre “rimedi contra la libertà degl’ingegni troppo o curiosi o penetranti” e quindi creare una “biblioteca ideale e chiusa” del sapere controriformato nella quale solo alcuni libri (religiosi) sono permessi mentre molti altri (classici antichi e contemporanei) invece proibiti, tra questi: il Principe di Machiavelli, “l’arabica versio Aristotelis depravatissima”, le Satire di Luciano, il De rerum natura di Lucrezio…ecc.

E il pendolo della storia oggi da che parte sta andando? Dalla presentazione – nel 2004 –  del progetto “Google Books” che appunto doveva “ organizzare l’informazione del mondo per renderla accessibile a tutti”, molta acqua è passata sotto i ponti e la grande campagna di mass digitization per “liberare” tutti i libri del mondo, secondo molti osservatori, è in realtà diventata un modo per rendere i testi digitalizzati computabili e di conseguenza trasformabili in risorsa sia per lo sviluppo di progetti di intelligenza artificiale che di altre applicazioni “smart” a carattere prevalentemente commerciale, con un progressivo affievolirsi (se non spegnersi) dell’originario progetto culturale.

Nell’era post-libro, nell’era di Internet dove – all’inizio – tutto sembrava più aperto e libero, è in corso una mutazione preoccupante. L’accesso universale – grande promessa dalla rivoluzione digitale –appare sempre di più una chimera. Le Big Internet Company, a cominciare da Google, Facebook ecc., hanno ormai colonizzato la Rete e controllano domande e risposte delle ricerche on line di tutto il mondo. E chi controlla domande e rispose, controlla la realtà. Oggi, come nel XVI secolo, abbiamo bisogno di più cultura umanistica, di più apertura, di più universalismo. Servono – con urgenza – tanti Gessner per contrastare i Possevino  del XXI secolo.

Pubblicato in biblioteca digitale, digitalizzazione, Google Books, Senza categoria, storia del libro, storia delle biblioteche | Contrassegnato , , , , , , | Lascia un commento

Raccomandazioni dell’associazione delle biblioteche europee (EBLIDA) per una non più rimandabile riforma del diritto d’autore europeo

Copyright-European-Union-flagSul problema annoso della riforma del copyright in ambito UE – oltre all’associazione non-profit EDRI che si è  espressa abbastanza duramente rispetto ritardi e fallimenti della Commissione europea malgrado l’ambiziosa comunicazione del 9 dicembre scorso (vedi articolo precedente “Copyfails, i fallimenti del diritto d’autore europeo”) – è intervenuta anche EBLIDA (The European Bureau of Library, Information and Documentation Associations). L’associazione europea delle biblioteche, partendo da una posizione più “morbida” e cioè riconoscendo alla Commissione UE di aver avviato una riflessione generale riguardo il problema delle “eccezioni al copyright” alla luce degli sviluppi tecnologici di una società “sempre più digitale”, ha comunque rilevato l’esistenza di problematiche urgenti da affrontare.

Alla base di tutto – secondo l’EBLIDA – c’è il mancato aggiornamento della direttiva Infosoc (2001/29/CE) che nata proprio per adattare la legislazione sul diritto d’autore e diritti connessi agli sviluppi tecnologici della società dell’informazione, risulta ormai vecchia e inadeguata. A regime attuale, la direttiva non ha alcun effettivo potere rispetto alle barriere via via createsi che impediscono di fatto sia l’accesso egualitario ai contenuti culturali europei da parte di tutti i cittadini dell’Unione e sia la realizzazione di progetti di ricerca pan-europei.

L’armonizzazione – da sempre cavallo di battaglia della filosofia copyright della UE – deve assolutamente superare il principio dell’applicazione facoltativa delle eccezioni (che in pratica lascia liberi i 28 paesi di applicarle o meno) e trasformare le proprie direttive in prescrizioni vincolanti. Ma soprattutto, la nuova Infosoc – caldeggiata dall’EBLIDA – deve acquisire forza di legge “sovrastante” rispetto a tutte quelle possibili condizioni contrattuali previste dalle licenze che invece – allo stato attuale –  esercitano un pesante condizionamento su biblioteche, archivi e musei impedendo di fatto a questi istituti di svolgere le loro funzioni istituzionali, e cioè di offrire all’utenza il  più ampio  accesso possibile ai propri contenuti.

Più nel dettaglio, l’EBLIDA – nel suo report – indica delle misure concrete da inserire nella nuova normativa europea sul copyright, a cominciare da una robusta eccezione a favore del “Text and Data Mining”. Si tratta di consentire finalmente anche ai ricercatori europei l’utilizzo di queste tecnologie di rielaborazione dei “big data” superando il diniego degli editori che si oppongono persino nel caso che si possieda l’accesso legale ai database da processare. E poi, aggiornare le eccezioni riguardanti la preservazione digitale con particolare attenzione sia al materiale born digital che a quello derivante da digitalizzazioni, quindi rivedere le eccezioni concernenti gli accessi on line alle collezioni digitalizzate per scopi di studio e ricerca. Infine, introdurre forti eccezioni tali da rendere finalmente possibile l’attivazione di pratiche di e-lending da parte delle biblioteche.

La nefasta prevalenza dei contratti e licenze sulle leggi che dovrebbero regolare il copyright, è ben illustrata dal caso British Library che l’EBLIDA inserisce tra gli esempi di  “fallimenti causa lacune legislative nell’ambito del quadro di riferimento vigente del copyright”. Nel 2012 la British Library deve interrompere il suo servizio di fornitura internazionale di documenti denominato OPLS (Overseas Library Privilege Service), servizio reso possibile proprio da un’eccezione introdotta nella normativa nazionale sul copyright, per salvaguardare la biblioteca da una pioggia di denunce su presunte violazioni del copyright. A quel punto, il servizio viene sostituito non con una nuova legge ma con una licenza – approvata dagli editori – denominata INCD (International Non-Commercial Document Supply).

Il passaggio dalla normazione all’accordo privato determina però,  a partire dal  2014, un crollo verticale delle richieste e quindi degli accessi internazionali ai contenuti della British Library che diminuiscono addirittura del 97%. Un tracollo dovuto da un lato all’enorme crescita dei diritti da caricare nel sistema INCD che inevitabilmente  ha messo le collezioni della biblioteca fuori della portata di molte università e istituti di ricerca europei, e dall’altro al ritiro massiccio (circa del 93%) delle pubblicazioni operato dagli editori che ha ridotto drasticamente l’offerta della British anche verso l’esterno.

Pubblicato in biblioteca digitale, big data, copyright, digitalizzazione, diritto d'autore, patrimonio culturale digitalizzato, preservazione digitale, prestito digitale | Contrassegnato , , , | Lascia un commento

Copyfails, i fallimenti del diritto d’autore europeo

CjSlZpSXAAAPixNL’associazione non-profit EDRI (European Digital Rights),  impegnata da anni nella difesa dei diritti e le libertà nell’ambiente digitale europeo, ha tra le sue priorità anche la riforma del copyright in ambito UE. Quest’ultimo tema d’urgenza si è ulteriormente rafforzato alla luce dell’ultima comunicazione della Commissione europea – presentata lo scorso 9 dicembre 2015 –  dove, malgrado l’ambizioso riferimento a un “diritto d’autore moderno, più europeo”, si evidenzia- secondo l’EDRI – un interesse solo incentrato sull’accesso ai contenuti e sul relativo adattamento di alcune eccezioni con l’esclusivo scopo di migliorare il mercato facendo rispettare alcuni precetti del diritto d’autore.

In pratica, il copyright in Europa è ancora fermo alla direttiva Infosoc (2001/29/CE) “sull’armonizzazione di taluni aspetti del diritto d’autore e dei diritti connessi nella società dell’informazione”.  Nel frattempo, la società dell’informazione e l’ecosistema digitale sono cambiati più e più volte. Secondo l’EDRI la Commissione con la comunicazione del 9 dicembre 2015 ha perso un’altra importante occasione per una riforma vera del diritto d’autore  capace di sfidare le potenti lobby costituite dalle aziende tecnologiche, dagli editori e dai titolari dei diritti.

Entrando più nel dettaglio rispetto a come il sistema copyright UE  si è finora realizzato, l’EDRI ha individuato almeno nove “fallimenti” (copyfails) rispetto ai quali sarebbe urgente intervenire per ri-impostare un  progetto di “vera” riforma a beneficio di tutti gli attori (creatori e utenti) e degno del 21° secolo:

  1. Un sistema frammentato e caotico di eccezioni nell’utilizzo delle opere protette da copyright: in base all’attuale direttiva copyright UE sulle “eccezioni e limitazioni” ogni paese dei 28 può scegliere di includere o escludere qualunque di queste eccezioni facoltative. Di conseguenza: in alcuni paesi – tra cui la Francia – gli usi delle opere protette da copyright nelle scuole subiscono molte più limitazioni che in altre paesi come ad esempio l’Estonia, mentre nel Regno Unito le persone non sono autorizzate a fare copie di brani musicali acquistati legalmente contraddicendo il diritto alla copia privata.
  1. il fallimento della legislazione UE nel dare accesso ai non vedenti alle opere protette da copyright: la UE non ha ancora ratificato il Trattato di Marrakech – ratificato anche dalla Corea del Nord – che obbliga gli Stati a introdurre limitazioni e/o eccezioni nelle loro legislazioni nazionali tale da facilitare l’accesso alle persone non vedenti o ipovedenti ai contenuti (ebook) culturali digitalizzati.
  1. Le big company di internet – Google e Facebook su tutte – indebitamente investite dagli stessi governi di un ruolo di controllo tale da trasformarle in iuna sorta di “polizia di internet”: una sorta di privatizzazione strisciante dell’applicazione della legge che sposta sulle aziende private la sorveglianza dei contenuti pubblicati in internet. Insomma, invece che sistemi come “contentID”, una vera riforma del copyright.
  1. Il problema degli autori nell’ottenere una remunerazione equa.
  1. Una protezione del copyright così eccessiva da uccidere la creatività e l’accesso alla cultura.
  1. Una “Google tax” che non è una tassa e che Google non paga…!
  1. L’impedimento della ricerca – via commerciale – del text and data mining.
  1. Il Geo-blocking, ovvero l’accesso bloccato dai contenuti on line basati sulle geolocalizzazioni.
  1. la questione DRM: la limitazione dei diritti sulla musica e libri in formato digitale.
Pubblicato in copyright, diritto d'autore, ebook, editoria digitale | Contrassegnato , , , , , | Lascia un commento

Strategie di contrasto all’obsolescenza digitale

A junk pile of computers

A junk pile of computers

Alla fine degli anni ’80 del secolo scorso veniva avviato il progetto “BBC Domesday” con lo scopo – al tempo rivoluzionario – di replicare in formato digitale, dopo 900 anni, il famoso censimento inglese “Domesday Book”. Peccato che nel volgere di soli due decenni se ne dovette costatare il sostanziale fallimento e la sua trasformazione in uno dei più citati casi di obsolescenza digitale: i laser disc sui quali erano state memorizzate immagini e dati del censimento risultavano, infatti, a distanza di poco tempo,  praticamente inservibili causa  scomparsa sia dei software e che dell’hardware in grado di accedere ai dischi, mentre al contrario  le informazioni originali del “Domesday Book”  erano – dopo ben nove secoli! –  ancora accessibili.

Si tratta di uno, tra i più conosciuti,  casi precursori di quella che viene definita come prossima  “digital dark age”, ovvero un imminente Medioevo digitale” dove diventerà sempre più difficile – se non impossibile –  interagire con i tanti supporti e software via via negli anni creati per l’utilizzo e memorizzazione di tutte le nostre passate e presenti attività e vite digitali.

Nel tentativo di contrastare questa deriva, da tempo, sono state implementate diverse strategie miranti alla conservazione a lungo termine dei dati e degli ecosistemi digitali. In questo senso si parla di “refreshing”  ovvero il trasferimento di dati tra sue supporti digitali dello stesso tipo oppure di “migrazione” vale a dire il trasferimento da vecchi e nuovi supporti digitali o anche di “emulazione” con la duplicazione delle funzionalità di un sistema digitale ormai obsoleto.

Ultimamente si è fatta strada una nuova strategia che si preoccupa non solo di spedire nel futuro copie perfettamente conservate dei nostri contenuti digitali, ma anche e soprattutto di far capire agli utilizzatori di domani il tipo di prodotto tecnologico che si troveranno tra le mani e quindi come utilizzarlo.

Si tratta di un nuovo software open source “packager” chiamato “Archivematica capace di analizzare i materiali digitali di tutti i tipi, registrare i risultati in un file formato testo confezionato e conservato con i materiali stessi. Un sistema pensato per aiutare le future generazioni a comprendere i “flussi di bit” – provenienti dal passato –  che si troveranno davanti.

Questo software si appoggia sulla tecnologia “BagIt” sviluppata non a caso da coloro che da sempre si occupano della conservazione – tramite sviluppo e innovazione dei supporti – delle memorie sociali: le biblioteche. Infatti, “BagIt” nasce per iniziativa della Library of Congress coadiuvata  dalla California Digital Library e dalla Standford University. La Library of Congress usa questa tecnologia per diversi progetti, in particolare in quei servizi di trasferimento dei contenuti digitali, dove è necessaria la loro inventariazione e replica in ambienti di produzione e stoccaggio.

Di recente, il Museum of Modern Arts (MoMa) di New York ha proceduto alla digitalizzazione di parte del suo grande patrimonio: circa 65 mila opere realizzate tra il 1860 e il 2016. In questo progetto di codificazione digitale è stato appunto utilizzato il “packager”  “Archivematica”. In questo caso, ha assunto ancora più importanza garantire nel tempo l’autenticità del contenuto digitale via via archiviato. Il problema è stato risolto assegnando a ciascun “pacchetto confezionato” un algoritmo – checksum – in grado di controllare anche a distanza di 100 anni la serie di lettere e numeri verificando che l’oggetto in questione non sia stato né manomesso né corrotto.

Pubblicato in digitalizzazione, preservazione digitale | Contrassegnato , , , , , , | Lascia un commento

Dal MARC a BIBFRAME: la lunga marcia delle biblioteche per integrarsi nel Web

bibframe-and-moving-away-from-marc-10-638E’ una storia con quattro protagonisti: il catalogo delle biblioteche, i formati MARC e BIBFRAME,  il Web. Possiamo farla iniziare nel 2002, quanto il bibliotecario-tecnologo Roy Tennant pubblica il famoso articolo: “Marc Must Die”. Da quel momento, per il mondo delle biblioteche è chiaro che qualcosa sta davvero cambiando: con l’inizio del XXI secolo la rivoluzione del nuovo sistema dell’informazione globale lambisce ormai anche il piccolo  periferico spazio chiuso del catalogo bibliografico.

Fino a quel momento,  i ricercatori del sapere avevano interrogato l’universo bibliografico del libro a stampa tramite Il migliore strumento di intermediazione fino ad allora inventato: il catalogo, ovvero un linguaggio di interrogazione ormai evoluto e dotato di vocabolario, semantica e sintassi proprie. Quando poi, a cominciare dai paesi anglosassoni,  intorno alla metà degli anni ’60 del secolo scorso,   era partito il primo tentativo di automazione del catalogo delle biblioteche: sostanzialmente nulla era cambiato,  a parte l’apparizione – nelle incredule sale delle biblioteche – di  rudimentali terminali collegati a primitive reti telematiche.

Si trattava di dare veste  informatica alla scheda cartacea bibliografica. E la scelta era caduta sul  MARC (Machine Readable Cataloguing), ovvero su un formato per una catalogazione leggibile da una macchina. Un immediato successo, quello del Marc, dovuto alla combinazione di due fattori, entrambi preziosissimi nella paleo-informatica del tempo: capacità di ottimizzare la scarsa (e costosa) memoria di sistema e gestione non “troppo complicata” delle informazioni trasferite su supporto informatico.

In pratica, data questa impostazione, il MARC  appariva come un formato molto strutturato – in etichette da tre cifre – ma soprattutto rigidamente chiuso: figlio di un sistema informativo ancora concettualmente analogico nel quale cominciava a fare il suo ingresso un’informatica – per forza di cose – settoriale, proprietaria, solo per addetti ai lavori. Insomma, ancora lontana anni luce  dall’evoluzione futura, cioè quella di un’informatica fattasi rete globale, aperta, interoperabile, condivisibile.

 Diffusosi il modello d’automazione bibliotecaria e consolidatosi il MARC, ad un certo punto della nostra storia irrompe il terzo protagonista: il Web. Il solco è aperto prima dall’avvento di Internet e poi dall’accelerazione dell’innovazione tecnologica a cavallo tra il XX e XXI secolo. A questo punto, la velocità di cambiamento diventa vertiginosa. Il sistema dell’informazione muta in ecosistema digitale ubiquo e pervasivo. Nello stesso tempo, parte la digitalizzazione massiva dei contenuti sostenuta dal nuovo paradigma della dematerializzazione.

L’innovazione del Web, significa per il catalogo ritrovarsi dietro un muro: apparentemente autosufficiente nel loro reticolo informativo, le descrizioni bibliografiche  formato MARC sono di fatto isolate. Mentre, dall’altra parte del muro, dalla parte del Web, le informazioni si muovono sempre più velocemente, trasversalmente, liberamente. Nello stesso tempo, ad accrescere ancora di più l’immobilismo del catalogo rispetto anche alla dematerializzazione avanzante, contribuisce il fermo immagine del processo catalografico sulla pubblicazione, ovvero sul supporto fisico dell’informazione.

Ritardi e separazione evidenziati pure dalle tecniche di indicizzazione: nell’universo catalografico esclusivamente manuali e con unico riferimento il patrimonio della biblioteca, mentre nel Web il modello è l’indicizzazione automatica globale mutuata dai  motori di ricerca.

La questione per il catalogo è – a questo punto – come “aprirsi” al Web. In altre parole, come far interagire gli OPAC delle biblioteche con le altre risorse della Rete, come scambiare i dati con le comunità virtuali non bibliotecarie. E poi, come andare oltre il principio di “materialità” in base al quale ha finora considerato le proprie risorse documentali. Più precisamente:  come spostare il focus dal supporto al contenuto della descrizione bibliografica, e cioè sull’entità autori, titoli, soggetti, e soprattutto sulle relazioni che legano dinamicamente queste entità.

Per avviare la “rivoluzione copernicana”, nel 1998 l’IFLA (International Federation of Library Associations and Institutions) mette a punto un nuovo modello concettuale per la rappresentazione delle informazioni bibliografiche: l’FRBR (Functional Requirements for Bibliographic Records), basato sulle relazioni intese come strumenti che possono essere utilizzati dall’utente nell’esplorazione dell’universo rappresentato da una bibliografia, così come nell’esplorazione di basi dati bibliografiche residenti nel Web.  Anche se solo concettuale, si tratta di un primo passo importante che mostra ancor di più l’urgenza di superare l’obsolescenza del formato MARC:  ormai diventato l’ostacolo tra le biblioteche e il Web.

Il successivo passaggio fondamentale è la realizzazione del nuovo modello per le descrizioni bibliografiche. Per averlo, bisogna attendere fino al novembre 2012, quanto la Library of Congress rilascia BIBFRAME (Bibliographic Framework). È un grande cambiamento: il risultato è un formato che aspira a rappresentare un ambiente con una struttura dati bibliografica basata su relazioni e costruita tecnologicamente sul Web, e quindi agnostica rispetto alle vecchie regole catalografiche.

Netta distinzione tra i dati sul contenuto concettuale e quelli sulla manifestazione fisica di un oggetto bibliografico, uso di sistemi di controllo d’autorità per identificare univocamente gli elementi informativi, rappresentazione delle relazioni esistenti tra le entità in modo da favorire la navigabilità, sono questi i principi – secondo BIBFRAME – sui quali si deve fondare il futuro della catalogazione bibliografica.

Ma, oltre a ciò, cosa assai importante, l’apertura e la flessibilità di BIBFRAME dovrebbero consentire al mondo bibliotecario di interagire con la più recente ed epocale evoluzione del Web: la sua trasformazione da Web dei documenti a Web dei dati. Per questo, il nuovo formato dovrà essere in grado di separare significato dei dati dalla codifica strutturata degli stessi. Insomma, l’obiettivo è mantenere lo stesso significato (web semantico) anche cambiando formato.

La tecnologia che anche le biblioteche cominciano a utilizzare – tecnologia nata  per pubblicare e collegare i dati rendendoli interpretabili alle macchine – è quella dei Linked Data. Grazie ad essa, i dati collegati si potranno  via via costituire reticoli sempre più grandi a partire da un dominio che a sua volta si collegherà  ad altri domini esterni in un contesto di relazioni sempre più ramificate ed estese.

Si tratta anche per le biblioteche – con l’aiuto di BIBFRAME – di percorrere la strada indicata da Tim Berners-Lee, ovvero:  “a web of things in the world, described by data on the web”. Vale a dire, entrare “in una rete di cose presenti nel mondo, descritta nel web tramite dati”. “Cose del mondo” collegate ad altre “cose del mondo”, nella fattispecie  descrizioni bibliografiche collegate ad altre entità così da arricchire reciprocamente le informazioni ottenute.

Insomma, nell’universo semantico del web del prossimo futuro, BIBFRAME permetterà non solo ai cataloghi delle biblioteche di interagire con la Rete globale, ma anche di offrire un modello capace di ospitare metadati non solo creati da professionisti e da sistemi di automazione, ma anche  e soprattutto da utenti, metadati compresivi di annotazioni, recensioni e informazioni sull’utilizzo delle risorse.

Per questo, nella strutturazione dei dati in BIBFRAME  è stata inserita la classe “annotation” che definisce una gestione flessibile dei dati provenienti da più fonti tradizionali e non tradizionali. Inoltre, tale capacità di combinare informazioni professionali e non, fornirà anche un importante riconoscimento teorico e una definizione tecnica all’apporto degli utenti rendendoli – per la prima volta – parte attiva del processo catalografico.

Pubblicato in biblioteca digitale, digitalizzazione, futuro del libro, linked data, tecnologie digitali, web semantico | Contrassegnato , , , , , | Lascia un commento