Big Data e scienze umane: un problematico rapporto

Ryan Cordell dirige il progetto “Uncovering Reprinting Network in  Nineteenth-Century American Newspaper” che utilizzando metodi computazionali avanzati sta esaminando, alla ricerca di “viral texts”,  milioni di pagine di quotidiani USA del XIX secolo digitalizzate nell’ambito soprattutto dal progetto NEH e Library of Congress Chronicling America”.

La ricerca – spiega Cordell – grazie alla sua inedita capacità di analizzare in poco tempo molti più dati di quanti ne possa studiare in una vita intera un singolo ricercatore, è in grado di far emergere nuovi modelli interpretativi con la conseguente scoperta di  fenomeni precedentemente non percepibili in regime di scarsità di dati, come – ad esempio – le caratteristiche “virali” di testi appartenenti a vari generi popolari: poesie, racconti, notizie, appunti di viaggio, discorsi politici, vignette ecc.

Si tratta di una sfida – continua Cordell – che scommettendo sulla capacità di integrare rappresentanti di diverse  discipline (storici, studiosi di letteratura e informatici) mostra– come sta anche accadendo anche con altri progetti simili tipo “data mining the 1918 influenza pandemic” – quale potenziale è insito nei Big Data culturali, e cioè di mettere in grado gli studiosi di porre alle fonti umanistiche domande completamente nuove rivisitando il passato in maniera prima inconcepibile.

Tuttavia, Barry C Smith, direttore dell’Istituto di filosofia di Londra e pioniere nella collaborazione tra filosofi, psicologi e neuroscienziati, nell’affrontare la questione dei “Big Data in the Humanities”, mette in luce alcune criticità. Le scienze umane, per loro natura, sono focalizzate sul particolare, su specifici oggetti, sulla piccola scala corrispondente a persone, luoghi e cose, considerate quasi sempre rispetto al loro peculiare contesto storico. L’approccio attuale dei Big Humanities Data – secondo Barry C Smith – si limita al tentativo di cercare un senso nella complessità di dati non strutturati attraverso tools di visualizzazione, ma si tratta di una soluzione parziale e spesso non neutrale.

Inoltre, aggiunge Barry C Smith, la ricerca umanistica finora si è servita per lo più di dati provenienti da fonti cartacee digitalizzate, ma cosa cambierà quando gli oggetti di studio diventeranno sempre più “born digital” ? Quando gli storici si troveranno immersi nella “Datafication”? Quando, insomma, eventi, persone, luoghi e cose saranno sempre di più trasformati in un coacervo di “dati informatici”? A quel punto sarà inevitabile il salto di paradigma fatalmente conflittuale rispetto ai metodi tradizionali di ricerca.

Le scienze umane potrebbero – a breve –  dover fare i conti con una difficile scelta tra studiare le cause o le correlazioni tra dati. Sondare i Big Data può voler dire, infatti, il far affiorare intuizioni significativamente suggestive: il progetto di Ryan Cordell – collegando vasti depositi di quotidiani digitalizzati – sta tentando di mostrare modelli di pensiero convergenti (testi virali) emersi nel XIX secolo rispetto a eventi e contesti storico-sociali comuni.

Permane la domanda:  sarà davvero possibile trasformare l’esame automatico di grandi datasets in conoscenza, in una nuova visione del mondo altrettanto valida rispetto a quella costruita nei secoli sulla “causalità”? Il possesso di un corpus di conoscenze  che nel mondo dei documenti cartacei vuol dire comprensione delle epoche trascorse, cosa significherà  nell’universo “born digital” delle correlazioni tra dati? Forse, in un certo senso, la capacità di “predire” il passato”….?

Questa voce è stata pubblicata in big data, Big Data culturali, big data curation, Datafication, digitalizzazione, linked data, linked open data e contrassegnata con , , , , , , . Contrassegna il permalink.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *