Il Labirinto dell’attenzione

i miei vicini di casa hanno regalato due conigli alla loro bambina in occasione del suo compleanno. I conigli erano maschio e femmina. Ora vivo in una società ricca di conigli (informazione), ma si da il caso che quando c’è ricchezza di un elemento necessariamente ci deve essere mancanza di qualcos’altro. Infatti ora nel mio giardino c’è scarsità di lattuga (attenzione)”.

Era il 1969, quando l’economista Herbert Simon, premio Nobel 1978, durante la sua conferenza “Progettare organizzazioni per un mondo ricco di informazioni” a Washington, con la metafora dei conigli e della lattuga, coglieva – con un tasso di preveggenza davvero impressionante – un tema che con lo sviluppo tecnologico della società dell’informazione sarebbe diventato fondamentale: un eccesso di informazioni ha come conseguenza la perdita delle capacità di dedicare la necessaria attenzione a quanto accade intorno a noi.

Emanuele Bevilacqua che – come curatore – ha riportato nel volumetto “Il labirinto dell’attenzione. Progettare organizzazioni per un mondo ricco di informazioni”, la conferenza tenuta da Hebert Simon e parte della sua biografia, ci mette anche del suo, riprendendo il filo rosso del rapporto tra eccessiva informazione e scarsa attenzione. E lo fa, allargando il discorso non solo ai fruitori, ma a tutti gli altri attori del sistema informativo:  produttori e gestori di contenuti.

In un mondo come quello attuale, dove una sterminata platea di utenti più o meno distratti (più di 4 miliardi) ritiene molto basso il valore del digitale e  non è disposta a spendere per i contenuti che riceve, anche gli investitori pubblicitari non fanno che adeguarsi pagando pochissimo per le loro inserzioni. Una situazione che una conseguenza inevitabile:  scarsa attenzione alla qualità del materiale informativo in rete e scarso valore della pubblicità in rete.

E allora, come se ne esce dall’information overload, dalla distrazione di massa e dal degrado dei contenuti? Perseguendo un circolo virtuoso secondo Bevilacqua: dal conteggio delle teste alla cura dell’attenzione. Orientando gli investimenti pubblicitari non più sul numero degli utenti connessi, ma sull’attenzione e la soddisfazione che i contenuti riescono a generare.

Il nuovo contesto deve essere quello dell’economia dell’attenzione. Vale a dire, fornire contenuti di valore alle giuste tariffe, dimodoché tutte le parti siano soddisfatte. Si tratta di evitare la dispersione dell’attenzione in tutta la catena produttiva: da chi realizza i consumi fino a chi li consuma. Insomma, una inversione di tendenza rispetto a quanto accade oggi dove i monopoli (le piattaforme) digitale concentrano risorse economiche di attenzione senza saperle redistribuire e organizzare.

Hebert Simon, già nella sua conferenza, ponendosi il problema del “sovraccarico di informazioni”, individuava  come l’esito di un problema di information overload dipendesse da una certa organizzazione del sistema (economia dell’attenzione….?), concludendo che: “la soluzione di un problema di sovraccarico di informazioni, dipende dall’organizzazione di un sistema informativo della propria attenzione tra queste quattro classi di attività: ascolto, memorizzazione, pensiero e parola. Si otterrà una riduzione solo se il sistema assorbirà più informazioni di quante ne produce, se ascolta e pensa più di quanto parli”

Pubblicato in economia dell'attenzione, information overload, società dell'informazione, storia mass media, tecnologie digitali | Contrassegnato , , , , | Lascia un commento

L’altra faccia delle piattaforme: il nichilismo digitale

Le cose non sono andate come l’utopismo tecnologico degli anni Novanta immaginava, le reti digitali non solo non hanno portato più democrazia eliminando diseguaglianze e  gerarchie, ma, al contrario, hanno aumentato le ingiustizie rendendo solo  questo processo molto meno visibile, quasi occulto.

E allora – come sostiene Geert Lovink nel suo ultimo libro “Nichilismo digitale. L’altra faccia delle piattaforme”,  c’è urgente bisogno di capire cosa sta accadendo. Per far questo dobbiamo mettere in campo un nuovo “realismo digitale” in grado sia di svelare sia di indicare diverse prospettive rispetto al vicolo cieco nel quale ci siamo cacciati.

Il fatto è che il capitalismo vincente e dominante  delle grandi piattaforme, sostiene Lovink,  ha generato un sistema di social media che non si limita a pervadere il nostro quotidiano, ma lo condiziona a tal punto da creare una sorta di “tristezza prefabbricata” funzionale alla riproduzione del potere delle piattaforme.

Di conseguenza, il grande problema  che abbiamo davanti è: il sociale esiste ancora al di fuori dei social? E se – come pensa Lovink – la risposta è no. Che fare? Secondo Evgeny Morozov, l’atteggiamento di semplice rifiuto non è sufficiente, ci vuole dell’altro. Per alcuni, si tratta di sostenere il “diritto alla disconnessione”, per altri è invece necessaria una tattica più subdola,  più intelligente, una sorta di sabotaggio delle piattaforme: la falsificazione dei nostri dati in rete (falsi account, false ricerche ecc.) per controbattere con una certa efficacia lo strapotere del capitalismo digitale.

La costruzione del “realismo digitale” indicato dal libro di Lovink,  parte dall’analisi del concetto di piattaforma, dalla scoperta della sua “invisibile” violenza tecnologica e dalla descrizione del funzionamento della bolla di “tecno-tristezza” dentro la quale tutti siamo costretti. E poi la conclude, mettendo a fuoco un’altra questione centrale: l’industria dei dati.

Secondo  Andrew Keen – autore di “Come aggiustare il futuro. Restare umani nell’era digitale”, il vero problema sono infatti i dati – la cui raccolta avviene ormai ovunque – e non tanto più la privacy. Ma, i cinque principi fondamentali indicati “illuministicamente” da Keen per “aggiustare il futuro, non sembrano convincere più di tanto Lovink. Che invece pensa alla necessità – davvero prioritaria – di riconquistare e proteggere uno spazio pubblico.

Per ottenere ciò è fondamentale – secondo l’autore – chiedersi se è possibile una strategia alternativa e un nuovo design per il mondo digitale. Per quanto riguarda la strategia,  un ruolo potrebbe (e dovrebbe) avere l’Europa, l’unica forza attuale in grado di dar vita ad alternative capaci di restituire il controllo ai cittadini puntando su infrastrutture decentrate in opposizione ai modelli “Big Tech”. Per  un nuovo design, sarebbe invece necessario prima svelare e superare l’attuale design basato su tre concetti frutto dell’interazione tra il nostro stato mentale e l’evoluzione tecnologica: 1) la dipendenza tecnologica prefabbricata 2)la distrazione tecnologica prefabbricata 3) la privacy prefabbricata.

Pubblicato in big data, Datafication, digitalizzazione, Intelligenza artificiale, social media, Social Network, tecnologie digitali | Contrassegnato , , , | Lascia un commento

Lo standard IIIF per lo sviluppo delle biblioteche digitali

Tra le istituzioni culturali e scientifiche a livello globale che fanno parte della IIIF community, limitandoci alle sole biblioteche,  troviamo: Bibliothèque nationale de France, Bayerische Staatsbibliothek (Bavarian State Library), British Library, Boston Public Library, Library of Congress, National Library of Austria, New York University Libraries, Vatican Library.

Insomma, una buona parte del ghota bibliotecario mondiale. E non è un caso. Infatti,  L’IIIF, oltre ad essere  uno  standard de facto per il mondo dei repository di contenuti digitali, ha sempre di più un’importanza strategica per il futuro delle biblioteche digitali in quanto paradigmatico per i sistemi informativi basati sull’interoperabilità.

Se la frammentazione – causata dalla proliferazione dei progetti di digitalizzazione – ha rappresentato finora il grosso impedimento nella  condivisione e fruizione dei  patrimoni culturali digitalizzati, l’esempio offerto dallo standard IIIF  – anche se riguarda specificatamente la gestione e distribuzione delle immagini e metadati attraverso la rete – indica qual è la strada da seguire.

L’International Image Interoperability Framework (IIIF) è basato su tre  API (Shared Application Programming Interface) che consentono la descrizione delle immagini, la strutturazione dei repository digitali e le funzionalità di ricerca.

Queste applicazioni consentono funzionalità avanzate e interattive a vantaggio degli utenti finali. A cominciare dalla possibilità di combinare  e utilizzare risorse basate su immagini provenienti da tutto il web, e quindi confrontare pagine con la possibilità di visualizzare o creare delle raccolte virtuali. Ci sono poi le funzionalità che operano direttamente sulle immagini e che riguardano fondamentalmente la manipolazione e le annotazioni.

Ad esempio, con IIIF diventa possibile ricomporre virtualmente le opere smembrate, cosa che spesso accade nel mondo dei manoscritti. La piattaforma “Broken Books”, utilizzando la tecnologia compatibile IIIF “Canvas”, opera la ricomposizione recuperando via web – mediante URL persistenti – le immagini delle opere richieste, che appunto possono essere manoscritti spezzettati con le “foglie” disperse tra varie collezioni.

Cosa simile è realizzata con in manoscritti conservati nei fondi della British Library e della Bibliothèque nationale de France che possono essere comparati grazie a una stessa interfaccia IIIF, cioè utilizzando uno schermo unico al posto di più visualizzatori.

Mentre, in ambito italiano,  il progetto “Illuminated Dante Project”, si propone – entro il VII centenario della morte del sommo poeta (2021) – di realizzare – sempre grazie alle possibilità offerte dallo standard IIIF – un archivio on line e un database codicologico e iconografico di tutti gli antichi manoscritti provvisti di immagini– un corpus di circa 280 opere – che abbiano rapporti con il testo della Commedia.

Ultimamente, nella presentazione del progetto della Biblioteca digitale Ambrosiana “ad publicum commodum et utilitatem”, il riferimento latino “per il bene e l’utilità pubblica”, è stato appunto associato all’utilizzo – prima biblioteca in Italia – dello standard IIIF in quanto garanzia di una più ampia accessibilità ai contenuti digitali. Non solo. Anche il recente progetto Estense Digital Library ha ritenuto di sottolineare che il proprio patrimonio digitalizzato sarà consultabile con un visualizzatore IIIF di modo che le immagini ad alta definizione diverranno portabili, ossia comparabili con altre, editabili con strumenti di photoediting e annotabili liberamente.

Infine, è indicativo che l’ICCD (Istituto Centrale per i Catalogo e Documentazione del Ministero Beni Culturali) che in seguito a decreto ministeriale ha assunto il compito di implementare  il nuovo servizio per la digitalizzazione del patrimonio culturale italiano (Digital Library) attraverso il coordinamento dei tanti programmi di digitalizzazione in atto, abbia ultimamente organizzato – in partnership con la Stanford University e la Biblioteca Vaticana- un workshop dedicato a “Standard per la digitalizzazione del patrimonio culturale, interoperabilità e IIIF”.

Pubblicato in biblioteca digitale, interoperabilità, patrimonio culturale digitalizzato, tecnologie digitali | Contrassegnato , | Lascia un commento

La decentralizzazione della Rete: dal Blockchain alla nuova Biblioteca di Alessandria

Dopo la prima internet che rivoluzionò lo scambio di informazioni e abbatté i “walled garden” del tempo, cioè i media a stampa;  oggi è in atto un’altra rivoluzione che attraversa la Rete e che investe questa volta le “piattaforme chiuse” tipo Netflix, Spotify – le quali sviluppatesi e consolidatesi nell’ambito di un modello centralizzato distributivo  – vedono ora messa a rischio,  con l’avanzare della nuova tecnologia Blockchain, basata su una diversa architettura di rete decentralizzata e distribuita,  la loro posizione predominante

Alla base della nuova tecnologia Blockchain, c’è il rifiuto dell’idea di “centralizzazione” che, in generale,  per qualsivoglia tipo di organizzazione anche non propriamente informatica, è vista come un concentrato di criticità, in quanto facilmente attaccabile, corruttibile e suscettibile di errori. L’alternativa è quella rappresentata appunto dal design  Blockchain, ovvero un sistema decentrato, condiviso e sicuro, in quanto basato su una “certificazione collettiva”  garantita da una rete distribuita nella quale ogni nodo è garante della validità dell’intera struttura.

Attualmente, il modello vincente Blockchain è quello delle criptovalute tipo Bitcoin, tuttavia la tecnologia consente,  in un senso più ampio,  la certificazione, la trasmissione e lo stoccaggio dei dati. I livelli fondamentali di applicazione sono al momento tre: pagamenti, transazioni non solo finanziarie e smart contract, ovvero contratti che possono essere stipulati e/o imposti senza la necessità di una interazione umana. È comunque facile immaginare che la Blockchain sarà in grado – a breve –  di  rivoluzionare non solo i modelli economici, finanziari, aziendali,  contabili, ma anche di trasformare modelli più complessi come quelli sociali  a cominciare  dal settore cultura.

La società canadese Blocktech lavora da tempo per migliorare la tecnologia Blockchain. Tra l’altro, sta portando avanti un progetto open source molto interessante. In omaggio alla più grande biblioteca dell’antichità, quella di Alessandria,  il progetto riguarda  un’applicazione per il web denominata “Alexandria” che sfruttando la potenza delle tecnologie distribuite funziona  come una sorta di “Bittorrent” ma per l’archiviazione e la condivisione di contenuti culturali.

Il web oggi non ha ancora un indice aperto attraverso il quale tutti possano pubblicare o trovare qualsiasi tipo di informazione. “Alexandria” ha un po’ questa missione: sfogliare il web andando al di là degli attuali “walled garden” delle piattaforme chiuse, in altre parole bypassando il sistema CDN che funziona secondo le regole stabilite dalle società proprietarie di contenuti.

 Le specifiche per consentire ad “Alexandria” di fare tutto ciò sono definite da quello che è il vero motore  alla base  di questa nuova  rivoluzione dei sistemi decentralizzati e distribuiti:  l’Open Index Protocol. Sono del 2014 le prime dimostrazioni – sul forum della piattaforma decentralizzata Ethereum  – della maggiore efficienza di livelli dati condivisi per  la gestione di qualsiasi contenuto digitale. Le riflessioni successive hanno portato a focalizzare il  problema: la vulnerabilità dei sistemi centralizzati e la loro intrinseca correlazione negativa tra velocità di rete e popolarità  dei nodi.

Le caratteristiche dell’Open Index Protocol sono quelle di permettere un sistema aperto senza alcun tipo di autorizzazione per pubblicazione, distribuzione e pagamenti di qualsiasi contenuto digitale. Garantire  un aumento delle prestazioni, un quanto una rete distribuita riduce il sovraccarico del sistema annullando le criticità. Infine, aumentare la sicurezza attraverso la difesa collettiva contro gli attacchi. Insomma, nella nuova “open jungle” che si profila, il nuovo protocollo si candita a essere l’infrastruttura del web futuro : perfettamente interoperabile, condiviso, capace di servire tutti i modelli di distribuzione di contenuti da quelli gratuiti a quelli a pagamento.

Pubblicato in biblioteca digitale, blockchain, interoperabilità, tecnologie digitali | Contrassegnato , , , , , | Lascia un commento

Il futuro delle biblioteche secondo Jeffrey T. Schnapp

Al tempo delle rivoluzioni tecnologiche, fare previsioni sul futuro delle biblioteche è un esercizio molto praticato: se ne fanno in continuazione e sono tutte più o meno orientate verso il digitale. Per questo motivo, l’intervento all’ultimo convengo delle Stelline del designer statunitense Jeffrey T. Schnapp – La biblioteca oltre il libro – risulta molto stimolante. Punto di partenza: confutare, appunto, la narrazione dominante, vale a dire che  futuro delle biblioteche è circoscritto all’interno del modello di “biblioteca digitale”.

Secondo il designer, si tratta di una narrazione che strizza l’occhio a una facile previsione di modernità, alla base della quale c’è sempre il solito mix di virtualità, universalità, ubiquità ecc. E per questo motivo è una narrazione che perde di vista un aspetto fondamentale: la “centralità” degli spazi fisici nella costruzione dell’identità delle biblioteche. Spazi entro i quali, anche nel XXI secolo – ne è convinto Schnapp – l’umanità dovrà trovare i propri modi per reiterare (come ha sempre fatto)  quelle operazioni di accesso, conservazione, produzione, attivazione e scambio della conoscenza.

Insomma, non siamo alla vigila del trionfo definitivo della Biblioteca di Babele digitale di borgesiana memoria, e non solo – fa notare Schnapp – per una narrazione sbagliata, ma anche e soprattutto per alcune questioni che non tornano rispetto  al modello “biblioteca digitale”.

 Intanto, le collezioni digitali sono sicuramente una grande risorsa, ma non sono un luogo. E come accennato prima, gli umani per elaborare il sapere hanno bisogno di luoghi. In altre parole, consultare, studiare sono atti complessi che si devono svolgere in spazi articolati e dedicati, non riconducibili alla semplice disponibilità digitale di un numero – anche elevatissimo – dati.

E poi la Biblioteca intesa come archivio universale, è un fraintendimento rispetto al suo ruolo che invece è sempre stato almeno duplice: luogo sia di “connessioni” sia di “collezioni”, con la prevalenza storica del primo. Tant’è che la biblioteca come gigantesco contenitore a scaffali (luogo di connessioni) è un’invenzione ottocentesca, mentre sin dall’antichità le biblioteche sono state molto  più vicine al modello del campus con uno stretto contatto tra testi conservati e spazi per lo studio e la comunità.

E in aggiunta, va considerato anche un altro motivo di confusione riguardo al supposto “ trionfo” della biblioteca digitale: la presunta maggiore importanza dell’accesso alle informazioni rispetto alla conoscenza vissuta, acquisita e scambiata. In altre parole, i dati percepiti sempre come  più importanti dei documenti, dimenticando che i dati non sono semplici dati, ma  estrapolazioni mirate, atti cognitivi determinati socialmente.

Infine, ogni rivoluzione che coinvolge gli strumenti che supportano informazione, causa sempre  ridefinizioni / redistribuzioni dei compiti, e mai delle semplici e brusche sostituzioni. Quindi, nel futuro delle biblioteche, accanto al digitale,  il libro a stampa è destinato a restare, anche se con un ruolo via via diverso rispetto all’attuale.

Infatti, nella  visione di Jeffrey T. Schnapp non c’è posto per una scelta drastica tra digitale o libri a stampa oppure tra database o scaffale. Ma, la vera questione futura riguarda altri aspetti fondamentali: da un lato architettura e design e dall’altro i protocolli cognitivi.

Per concludere, le biblioteche, anche in una società dell’informazione sempre più evoluta, continueranno a fare quello che da secoli fanno: selezionare e preservare – mediante i diversi supporti materiali (dai libri ai bit) – la conoscenza misurandosi, nello stesso tempo, con le esigenze delle comunità alle quali presteranno i loro servizi. E le ragioni del selezionare e preservare  continueranno ad avvalersi sia degli antichi filtri (bibliotecarie ed edifici) che dei nuovi (procedure algoritmiche).

Pubblicato in biblioteca digitale, biblioteche italiane, digitalizzazione, futuro del libro, storia delle biblioteche, tecnologie digitali | Contrassegnato | Lascia un commento