La crisi sanitaria globale covid-19 è anche una crisi informativa globale

Il JASIST (Journal of Association for Information Science and Technology) ha pubblicato nel marzo scorso un paper di un gruppo di ricerca della University of Texas di Austin, nel quale si sostiene che ogni crisi sanitaria globale, come l’attuale pandemia di covid-19, determina anche una grande crisi informativa. La ricerca ritiene che anche questo tipo di crisi va trattata come un’emergenza e che pertanto siano necessari di ulteriori studi, nuove strategie e azioni concrete.

La prima sfida è rappresentata dalla distorsione del sistema informativo. Un’emergenza globale come quella del covid-19 è in grado di produrre una tale sovrabbondanza caotica e  incontrollata di informazioni che lo stesso OMS nel tentativo di definirla è dovuto ricorrere al neologismo ”infodemia”,  ossia un fenomeno caratterizzato da una smisurata circolazione pandemica di  informazioni non vagliate con accuratezza, spesso contraddittorie tra loro, capaci di fornire  solo un quadro  confuso e ansiogeno alla grande platea dei destinatari.

Va tenuto in considerazione, suggeriscono i ricercatori, che la crisi attuale è un fenomeno completamente nuovo, molto diverso, dal punto di vista dell’informazione, rispetto all’ultima importante pandemia verificatasi. In quel caso, correva l’anno 2002, e sempre dalla Cina, in quel caso dalla provincia delle Guangdong, si diffuse la SARS. Un evento inserito in un contesto tecnologico lontanissimo da nostro, neanche paragonabile con l’attuale ecosistema digitale globale che è subito diventato  assordante  cassa di risonanza planetaria della crisi covid-19.

Secondo il paper, sono i social media i vettori dell’attuale infodemia,  i quali grazie alla loro velocità di diffusione possono facilmente trasformarsi in potentissimi strumenti di disinformazione di massa. Nello stesso tempo, si fa notare,  la stessa rivoluzione digitale può anche giocare a nostro favore mettendo  a  disposizione alcuni  potenti anticorpi: ad esempio le applicazioni di machine learnig e di intelligenza artificiale, tecnologie in grado di individuare ed etichettare automaticamente testi e immagini generati dalla disinformazione per poi bloccarli.

Non solo. È anche evidenziata l’importanza della diffusione, condivisione e integrazione delle informazioni a prescindere dalla provenienza dei dati. Le piattaforme e le infrastrutture di emissione delle informazioni, nel corso di crisi sanitarie, dovrebbero essere coordinate e/o supportate  da professionisti dell’informazione e da quelle istituzioni che hanno come scopo l’organizzazione pubblica dell’informazione: associazioni professionali, organizzazione sanitarie nazionali, biblioteche pubbliche ecc. In questo modo si renderebbe possibile la creazione di  una circolazione virtuosa delle informazioni tra medici, pazienti, ospedali, associazioni di volontari, famiglie ecc.

Questo approccio dovrebbe (soprattutto) valere anche per le big platform social come Whatsapp, Facebook, WeChat, Twitter ecc. Il paper suggerisce che l’impegno degli scienziati dell’informazione deve essere quello di progettare ambienti condivisi che nel caso di crisi sanitarie globali consentano di rendere interoperabili – per estrapolazioni finalizzate alla difesa della salute pubblica – gli enormi dataset delle big platform. A conferma dell’importanza dell’estrapolazione e utilizzo predittivo dei big data, si cita una ricerca retrospettiva riguardante una pandemia di influenza suina H1N1 verificatasi nel 2009 negli USA, nella quale si mostra come l’estrazione dei dati dalle piattaforme social media avrebbe consentito di prevedere con due settimane di anticipo l’esplosione della pandemia.

Le ondate di disinformazione prodotte da eventi eccezionali come crisi sanitarie globali, richiedono che le scienze dell’informazioni indichino anche azioni concrete da intraprendere. La ricerca della University of Texas, ne mette a fuoco almeno due: alfabetizzazione eHealth e digital divide.

Nelle emergenze pandemiche – come abbiamo visto in Cina a Wuhan e come stiamo vedendo con i lockdown nelle città di tutto il mondo – i cellulari spesso diventano il mezzo più utile sia per ricevere informazioni essenziali che per il contenimento dell’epidemia mediante apps per il tracciamento dei contatti. L’azione di alfabetizzazione – in questo caso mHealth, ossia basata su smartphone o tablet – è pensata per migliorare le abilità delle persone ad accedere, valutare e utilizzare le informazioni sanitarie digitali nel caso di assistenza per interventi medici da remoto e più in generale per essere in grado di prendere decisioni consapevoli.

Tuttavia, quando la gran parte delle informazioni essenziali vengono divulgate digitalmente, nasce il problema delle persone più vulnerabili, cioè di quelle che si trovano dalla parte sbagliata del digital divide: anziani e fasce sociali più deboli della popolazione. Questo è un altro campo d’azione fondamentale per gli scienziati dell’informazione, e in questo caso si tratta di offrire la collaborazione alle agenzie governative, alle associazioni di volontariato che operano sui territori, alle comunità in genere, per individuare i metodi giusti per raggiungere anche i gruppi più vulnerabili  garantendo loro l’accessibilità  e l’usabililità attraverso soluzioni low-tech.

Riaffermata – anche attraverso le varie soluzioni indicate – la necessità di divulgare, in caso di crisi sanitarie globali – informazione personali. Il paper non si sottrae ai delicati aspetti etici che comportano queste situazioni e in conclusione esorta tutti coloro che si occupano di scienze dell’informazione  nel dare il loro contributo – nei limiti del possibile – per la protezione della privacy di tutte le persone coinvolte come pazienti, come pazienti sospetti o come contatti diretti tracciati nel corso dell’emergenza sanitaria.

Pubblicato in big data, digitalizzazione, information overload, Intelligenza artificiale, interoperabilità, privacy, società dell'informazione, tecnologie digitali | Contrassegnato , , , , , , , , , , , , | Lascia un commento

Biblioteche digitali nell’emergenza covid-19

Nell’emergenza covid-19, con l’isolamento a casa delle persone, le biblioteche digitali hanno assunto un ruolo strategico importante per il supporto al lavoro, allo studio e allo svago. Internet Archive, la più grande biblioteca digitale non profit al mondo, lo scorso 24 marzo ha annunciato la creazione della National Emergency Library, un’iniziativa di solidarietà digitale per rendere immediatamente disponibili circa 1,4 milioni di libri digitalizzati, ma ancora in regime di copyrigth, che prima dell’emergenza prevedevano, per essere consultati, una procedura di prestito a distanza con lunghe liste d’attesa.

 L’idea della “Biblioteca d’emergenza” è permettere l’accesso libero a un patrimonio di libri pubblicati nel corso del XX secolo, presenti in formato cartaceo sugli scaffali delle biblioteche universitarie (ma non solo) al momento chiuse, non più pubblicati, neanche in formato ebook, e quindi  fuori commercio, ma ancora indispensabili per gli studi e le ricerche di studiosi e studenti di tutto il mondo. A questi 1,4 milioni di libri, si aggiungono altri 2,5 milioni in regime di dominio pubblico già liberamente scaricabili prima dell’emergenza,  sempre tramite l’Internet Archive.

 La “National Emergency Library” è il tentativo, in un momento particolarmente difficile, di concretizzare, rendendolo effettivamente fruibile, il vecchio sogno di Brewster Kahle – l’inventore dell’Internet Archive – cioè quello di realizzare una biblioteca digitale universale in grado di far arrivare i libri nelle case di tutto il mondo. E in questo modo, riaffermare il ruolo strategico del digitale nel collegare  persone e trasmettere  cultura, soprattutto in una situazione al limite nella quale l’isolamento forzato può trasformarsi in  deprivazione generalizzata.

Da noi, invece, al momento, va segnalata l’iniziativa #IO LEGGO DIGITALE. È  un’interessante collaborazione pubblico – privato. Da una parte l’ICCU (Istituto Centrale per il Catalogo Unico delle Biblioteche Italiane) che gestisce il Servizio Bibliotecario Nazionale (SBN),  una rete di oltre 6.500 biblioteche con un catalogo unico con circa 18 milioni di record bibliografici, dall’altra DM Cultura, una società specializzata in soluzioni digitali per la cultura. Da questa  collaborazione, anche con il supporto di Amazon Web Services, è nato il portale #IO LEGGO DIGITALE mediante il quale è possibile accedere liberamente e gratuitamente  alla rete INDACO, una grande biblioteca digitale on line di DM Cultura, che mette insieme oltre 2 milioni di contenuti digitali: ebook, audiolibri, musica, film, corsi di lingua, videogiochi ecc. Si tratta di una quantità considerevole di risorse digitalizzate on line alle quali vanno aggiunti  i circa 800 mila link a documenti digitali già liberamente disponibili sull’Opac SBN gestito dall’ICCU.

 

Pubblicato in Senza categoria | Lascia un commento

Il Labirinto dell’attenzione

i miei vicini di casa hanno regalato due conigli alla loro bambina in occasione del suo compleanno. I conigli erano maschio e femmina. Ora vivo in una società ricca di conigli (informazione), ma si da il caso che quando c’è ricchezza di un elemento necessariamente ci deve essere mancanza di qualcos’altro. Infatti ora nel mio giardino c’è scarsità di lattuga (attenzione)”.

Era il 1969, quando l’economista Herbert Simon, premio Nobel 1978, durante la sua conferenza “Progettare organizzazioni per un mondo ricco di informazioni” a Washington, con la metafora dei conigli e della lattuga, coglieva – con un tasso di preveggenza davvero impressionante – un tema che con lo sviluppo tecnologico della società dell’informazione sarebbe diventato fondamentale: un eccesso di informazioni ha come conseguenza la perdita delle capacità di dedicare la necessaria attenzione a quanto accade intorno a noi.

Emanuele Bevilacqua che – come curatore – ha riportato nel volumetto “Il labirinto dell’attenzione. Progettare organizzazioni per un mondo ricco di informazioni”, la conferenza tenuta da Hebert Simon e parte della sua biografia, ci mette anche del suo, riprendendo il filo rosso del rapporto tra eccessiva informazione e scarsa attenzione. E lo fa, allargando il discorso non solo ai fruitori, ma a tutti gli altri attori del sistema informativo:  produttori e gestori di contenuti.

In un mondo come quello attuale, dove una sterminata platea di utenti più o meno distratti (più di 4 miliardi) ritiene molto basso il valore del digitale e  non è disposta a spendere per i contenuti che riceve, anche gli investitori pubblicitari non fanno che adeguarsi pagando pochissimo per le loro inserzioni. Una situazione che una conseguenza inevitabile:  scarsa attenzione alla qualità del materiale informativo in rete e scarso valore della pubblicità in rete.

E allora, come se ne esce dall’information overload, dalla distrazione di massa e dal degrado dei contenuti? Perseguendo un circolo virtuoso secondo Bevilacqua: dal conteggio delle teste alla cura dell’attenzione. Orientando gli investimenti pubblicitari non più sul numero degli utenti connessi, ma sull’attenzione e la soddisfazione che i contenuti riescono a generare.

Il nuovo contesto deve essere quello dell’economia dell’attenzione. Vale a dire, fornire contenuti di valore alle giuste tariffe, dimodoché tutte le parti siano soddisfatte. Si tratta di evitare la dispersione dell’attenzione in tutta la catena produttiva: da chi realizza i consumi fino a chi li consuma. Insomma, una inversione di tendenza rispetto a quanto accade oggi dove i monopoli (le piattaforme) digitale concentrano risorse economiche di attenzione senza saperle redistribuire e organizzare.

Hebert Simon, già nella sua conferenza, ponendosi il problema del “sovraccarico di informazioni”, individuava  come l’esito di un problema di information overload dipendesse da una certa organizzazione del sistema (economia dell’attenzione….?), concludendo che: “la soluzione di un problema di sovraccarico di informazioni, dipende dall’organizzazione di un sistema informativo della propria attenzione tra queste quattro classi di attività: ascolto, memorizzazione, pensiero e parola. Si otterrà una riduzione solo se il sistema assorbirà più informazioni di quante ne produce, se ascolta e pensa più di quanto parli”

Pubblicato in economia dell'attenzione, information overload, società dell'informazione, storia mass media, tecnologie digitali | Contrassegnato , , , , | Lascia un commento

L’altra faccia delle piattaforme: il nichilismo digitale

Le cose non sono andate come l’utopismo tecnologico degli anni Novanta immaginava, le reti digitali non solo non hanno portato più democrazia eliminando diseguaglianze e  gerarchie, ma, al contrario, hanno aumentato le ingiustizie rendendo solo  questo processo molto meno visibile, quasi occulto.

E allora – come sostiene Geert Lovink nel suo ultimo libro “Nichilismo digitale. L’altra faccia delle piattaforme”,  c’è urgente bisogno di capire cosa sta accadendo. Per far questo dobbiamo mettere in campo un nuovo “realismo digitale” in grado sia di svelare sia di indicare diverse prospettive rispetto al vicolo cieco nel quale ci siamo cacciati.

Il fatto è che il capitalismo vincente e dominante  delle grandi piattaforme, sostiene Lovink,  ha generato un sistema di social media che non si limita a pervadere il nostro quotidiano, ma lo condiziona a tal punto da creare una sorta di “tristezza prefabbricata” funzionale alla riproduzione del potere delle piattaforme.

Di conseguenza, il grande problema  che abbiamo davanti è: il sociale esiste ancora al di fuori dei social? E se – come pensa Lovink – la risposta è no. Che fare? Secondo Evgeny Morozov, l’atteggiamento di semplice rifiuto non è sufficiente, ci vuole dell’altro. Per alcuni, si tratta di sostenere il “diritto alla disconnessione”, per altri è invece necessaria una tattica più subdola,  più intelligente, una sorta di sabotaggio delle piattaforme: la falsificazione dei nostri dati in rete (falsi account, false ricerche ecc.) per controbattere con una certa efficacia lo strapotere del capitalismo digitale.

La costruzione del “realismo digitale” indicato dal libro di Lovink,  parte dall’analisi del concetto di piattaforma, dalla scoperta della sua “invisibile” violenza tecnologica e dalla descrizione del funzionamento della bolla di “tecno-tristezza” dentro la quale tutti siamo costretti. E poi la conclude, mettendo a fuoco un’altra questione centrale: l’industria dei dati.

Secondo  Andrew Keen – autore di “Come aggiustare il futuro. Restare umani nell’era digitale”, il vero problema sono infatti i dati – la cui raccolta avviene ormai ovunque – e non tanto più la privacy. Ma, i cinque principi fondamentali indicati “illuministicamente” da Keen per “aggiustare il futuro, non sembrano convincere più di tanto Lovink. Che invece pensa alla necessità – davvero prioritaria – di riconquistare e proteggere uno spazio pubblico.

Per ottenere ciò è fondamentale – secondo l’autore – chiedersi se è possibile una strategia alternativa e un nuovo design per il mondo digitale. Per quanto riguarda la strategia,  un ruolo potrebbe (e dovrebbe) avere l’Europa, l’unica forza attuale in grado di dar vita ad alternative capaci di restituire il controllo ai cittadini puntando su infrastrutture decentrate in opposizione ai modelli “Big Tech”. Per  un nuovo design, sarebbe invece necessario prima svelare e superare l’attuale design basato su tre concetti frutto dell’interazione tra il nostro stato mentale e l’evoluzione tecnologica: 1) la dipendenza tecnologica prefabbricata 2)la distrazione tecnologica prefabbricata 3) la privacy prefabbricata.

Pubblicato in big data, Datafication, digitalizzazione, Intelligenza artificiale, social media, Social Network, tecnologie digitali | Contrassegnato , , , | Lascia un commento

Lo standard IIIF per lo sviluppo delle biblioteche digitali

Tra le istituzioni culturali e scientifiche a livello globale che fanno parte della IIIF community, limitandoci alle sole biblioteche,  troviamo: Bibliothèque nationale de France, Bayerische Staatsbibliothek (Bavarian State Library), British Library, Boston Public Library, Library of Congress, National Library of Austria, New York University Libraries, Vatican Library.

Insomma, una buona parte del ghota bibliotecario mondiale. E non è un caso. Infatti,  L’IIIF, oltre ad essere  uno  standard de facto per il mondo dei repository di contenuti digitali, ha sempre di più un’importanza strategica per il futuro delle biblioteche digitali in quanto paradigmatico per i sistemi informativi basati sull’interoperabilità.

Se la frammentazione – causata dalla proliferazione dei progetti di digitalizzazione – ha rappresentato finora il grosso impedimento nella  condivisione e fruizione dei  patrimoni culturali digitalizzati, l’esempio offerto dallo standard IIIF  – anche se riguarda specificatamente la gestione e distribuzione delle immagini e metadati attraverso la rete – indica qual è la strada da seguire.

L’International Image Interoperability Framework (IIIF) è basato su tre  API (Shared Application Programming Interface) che consentono la descrizione delle immagini, la strutturazione dei repository digitali e le funzionalità di ricerca.

Queste applicazioni consentono funzionalità avanzate e interattive a vantaggio degli utenti finali. A cominciare dalla possibilità di combinare  e utilizzare risorse basate su immagini provenienti da tutto il web, e quindi confrontare pagine con la possibilità di visualizzare o creare delle raccolte virtuali. Ci sono poi le funzionalità che operano direttamente sulle immagini e che riguardano fondamentalmente la manipolazione e le annotazioni.

Ad esempio, con IIIF diventa possibile ricomporre virtualmente le opere smembrate, cosa che spesso accade nel mondo dei manoscritti. La piattaforma “Broken Books”, utilizzando la tecnologia compatibile IIIF “Canvas”, opera la ricomposizione recuperando via web – mediante URL persistenti – le immagini delle opere richieste, che appunto possono essere manoscritti spezzettati con le “foglie” disperse tra varie collezioni.

Cosa simile è realizzata con in manoscritti conservati nei fondi della British Library e della Bibliothèque nationale de France che possono essere comparati grazie a una stessa interfaccia IIIF, cioè utilizzando uno schermo unico al posto di più visualizzatori.

Mentre, in ambito italiano,  il progetto “Illuminated Dante Project”, si propone – entro il VII centenario della morte del sommo poeta (2021) – di realizzare – sempre grazie alle possibilità offerte dallo standard IIIF – un archivio on line e un database codicologico e iconografico di tutti gli antichi manoscritti provvisti di immagini– un corpus di circa 280 opere – che abbiano rapporti con il testo della Commedia.

Ultimamente, nella presentazione del progetto della Biblioteca digitale Ambrosiana “ad publicum commodum et utilitatem”, il riferimento latino “per il bene e l’utilità pubblica”, è stato appunto associato all’utilizzo – prima biblioteca in Italia – dello standard IIIF in quanto garanzia di una più ampia accessibilità ai contenuti digitali. Non solo. Anche il recente progetto Estense Digital Library ha ritenuto di sottolineare che il proprio patrimonio digitalizzato sarà consultabile con un visualizzatore IIIF di modo che le immagini ad alta definizione diverranno portabili, ossia comparabili con altre, editabili con strumenti di photoediting e annotabili liberamente.

Infine, è indicativo che l’ICCD (Istituto Centrale per i Catalogo e Documentazione del Ministero Beni Culturali) che in seguito a decreto ministeriale ha assunto il compito di implementare  il nuovo servizio per la digitalizzazione del patrimonio culturale italiano (Digital Library) attraverso il coordinamento dei tanti programmi di digitalizzazione in atto, abbia ultimamente organizzato – in partnership con la Stanford University e la Biblioteca Vaticana- un workshop dedicato a “Standard per la digitalizzazione del patrimonio culturale, interoperabilità e IIIF”.

Pubblicato in biblioteca digitale, interoperabilità, patrimonio culturale digitalizzato, tecnologie digitali | Contrassegnato , | Lascia un commento