La prima rivoluzione tecnologica: la scrittura

Nel susseguirsi delle invenzioni tecnologiche che hanno cambiato il mondo, la scrittura è l’evento storico fondamentale, ma per essere capito in pieno è necessario studiarlo  mettendolo a confronto con il mondo culturale che lo ha preceduto: quello dell’oralità. È questa la tesi centrale di Oralità e scrittura, le tecnologie della parola dell’antropologo, filosofo, esperto in problemi della comunicazione, Walter Ong. Ripubblicato recentemente dopo la prima edizione uscita nel 1982.

Il libro, malgrado i suoi oltre quarant’anni di età e il fatto che si occupi di tecnologie della comunicazione, non solo non risulta datato, ma è ancora considerato,  nell’ambito degli studi di storia della cultura e comunicazione umana,  un testo fondamentale. Questo è dovuto all’attualità della domanda che sottintende tutta la ricerca di Ong, vale a dire: quale impatto hanno avuto (e hanno) le tecnologie della comunicazione (parola, scrittura, stampa, computer) sul pensiero e sulla conoscenza degli esseri umani?

Per Ong il mondo dell’oralità, è stata una fase di esecuzioni verbali di grande bellezza e di alto valore artistico legate al senso dell’udito e al doppio filo della memoria. Ma è stato anche un mondo in cui mancava il pensiero astratto. Difatti, riprendendo il fondatore della neuropsicologia, il russo Aleksandr Romanovič Lurija, fa notare come una cultura orale non riesca a pensare in termini di figure geometriche, categorie astratte, logica formale ecc., tutte cose che derivano non semplicemente dal pensiero in sé ma dal pensiero condizionato dalla scrittura.

Ong indica un percorso evolutivo della psiche umana che solo con l’acquisizione della scrittura può sfruttare appieno le sue possibilità. Insomma, la scrittura è assolutamente necessaria per lo sviluppo della cultura: è indispensabile per la scienza, per la storia, per la filosofia, per la letteratura, per le arti e per il linguaggio stesso. È lo stesso Platone, “paradossalmente”, a dimostrarlo, sottolinea Ong, quando nel Fedro fa dire a Socrate che la scrittura è disumana poiché distrugge la memoria, indebolisce la mente…ma poi è proprio grazie alla scrittura che Platone può edificare il suo sistema filosofico basato sul pensiero astratto e le relative idee immutabili.

Il passaggio successivo, fondamentale, di Ong è quello di interpretare la scrittura come una “tecnologia”, cioè come un qualcosa di nuovo per il pensiero umano perché esterno alla semplice  condizione fisica com’era invece l’oralità basata sul senso “intimo” dell’udito. Ora, il senso   in gioco è quello “esterno” spaziale, della vista. E la scrittura con la sua “artificialità naturale” ha caratteristiche di una tecnologia perché richiede strumenti e perché attraverso questi strumenti realizza un oggetto fisico che prima non esisteva e che è distinto dalla persona che lo produce.

Ha rafforzare poi l’effetto che la scrittura ha sul pensiero e l’espressione, arriva la tecnologia della stampa che amplifica il carattere spaziale, visivo ed esterno rispetto alla fisicità umana in quanto oggettivato ancor di più dal processo tipografico. Ma, l’analisi di Ong non si ferma alla rivoluzione di Gutenberg, va avanti. E grazie anche alla collaborazione con il suo contemporaneo sociologo e studioso dei mezzi di comunicazione Marshall McLuhan, affronta anche i cambiamenti sul pensiero e conoscenza umana apportati dai nuovi media elettronici (radio, tv) e dai primi computer.

Condivide appieno il famoso slogan di McLuhan: “il medium è il messaggio”, nel senso che si trova d’accordo sul fatto che sia  proprio il mezzo (medium) con cui la lingua è comunicata (voce, scrittura, stampa, media elettronici e digitali) a determinare l’organizzazione del pensiero. E proprio le ultime riflessioni di Ong sui nuovi media e sull’avvento dell’era dei computer, lasciano trasparire  la sua convinzione nel ritenere la “parentesi di Gutenberg” – ovvero quel periodo di circa 500 anni situato tra le lunghe fasi della cultura orale e chirografica e la fase attuale dei media digitali – una sorta di “eccezione” all’interno del lunghissimo percorso del pensiero umano.  Alla quale inevitabilmente seguirà l’affermarsi di  una (nuova) oralità questa volta però supportata non solo dall’udito e dalla memoria ma soprattutto da tecnologie esterne, quelle dei media digitali, comunque anch’esse basate – come succedeva anche per l’oralità primaria –  sull’istantaneità, la ridondanza e l’ubiquità.

Pubblicato in futuro del libro, storia del libro, storia mass media | Contrassegnato , , , , , | Lascia un commento

Il PNRR per il Patrimonio Culturale Digitale Italiano

Il programma  Horizon Europe (2021-2027) per la ricerca e lo sviluppo tecnologico, con un budget enorme di circa 100 miliardi, prevede, tra l’altro, per la cultura,  il finanziamento di 110 milioni di euro per la creazione, nel biennio 2023-2025,  di un Cloud collaborativo europeo per il patrimonio culturale. La soluzione del Cloud Computing è ormai la scelta strategica sia a livello comunitario che nazionale, ed è basata sostanzialmente su tre aspetti ritenuti fondamentali rispetto alle sfide del futuro: autonomia tecnologica, controllo sui dati e resilienza dei sistemi.

L’Italia, che grazie al PNRR (Piano Nazionale di Ripresa e Resilienza) può disporre di 6,68 miliardi di euro da investire nella cultura, al punto M1C3 1.1 “Strategie e piattaforme digitali per il patrimonio culturale”  può contare su un finanziamento di 500 milioni di euro per integrarsi nello spazio culturale digitale cloud europeo attraverso la realizzazione di una “piattaforma cloud per l’accesso al patrimonio culturale italiano”.

Punto fondamentale per il “matrimonio” tra Cultura e Cloud è stato l’inserimento, da parte del Consiglio D’Europa (conclusioni sul patrimonio culturale 21 maggio 2014), delle risorse digitali tra le “forme di patrimonio culturale”. Si è trattato di un cambio di prospettiva basilare che ha cambiato lo status della risorsa digitale: non più semplice replica/copia di un originale fisico, ma “originale” essa stessa. E questo cambiamento  non è più dovuto all’eventuale relazione con l’oggetto fisico di provenienza, ma alla relazione intellettuale dalla quale il bene digitale prende forma e da cui attinge nuovi significati trasmissibili.

La struttura attuatrice  che dovrà realizzare, entro il 2024, su incarico del Ministero della Cultura, la piattaforma,  è l’Istituto centrale per la digitalizzazione del patrimonio culturale – Digital Library che ha già predisposto la cornice nella quale inserire l’infrastruttura: il “Piano nazionale di digitalizzazione del patrimonio culturale (PDN). Il patrimonio culturale italiano da trasferire in digitale è davvero un qualcosa di enorme: si tratta di un “patrimonio diffuso” attraverso all’incirca 27 mila luoghi della cultura sparsi sul territorio nazionale che, nel dettaglio, comprendono quasi 12 mila biblioteche, oltre 9500 archivi e più di 6 mila tra musei, monumenti e aree archeologiche.

Limitando, logicamente,  una prima fase di popolamento della piattaforma ai soli sistemi informativi gestiti dagli istituti del Ministero della Cultura, in questo caso si tratta di almeno  770 siti adibiti alla tutela e conservazione del patrimonio nazionale. Con tutta evidenza, già questo  rappresenta un primo step assai impegnativo. Si tratta, infatti, di procedere con la migrazione e integrazione nei nuovi sistemi cloud di oltre 37 milioni di descrizioni catalografiche associate a circa 26 milioni di immagini, per poi passare alla digitalizzazione di tutto il restante (corposo) patrimonio ancora su supporto cartaceo.  Considerando, infine,  che la Commissione Europea, attraverso i programmi Horizon, ha chiarito che i requisiti alla base delle digitalizzazioni che poi entreranno a far parte del patrimonio culturale digitale europeo, devono: restituire l’aspetto “visivo” dei singoli oggetti, collezioni o siti culturali; “costruire storie”, esperienze e contesti culturali; ma soprattutto essere risorse digitali interconnesse, ricercabili con differenti domini e linguaggi. Anche  questa prima fase – circoscritta ai soli istituti culturali statali –  si annuncia  di dimensioni “monstre”.

Insomma, in prospettiva,  il Piano nazionale di digitalizzazione del patrimonio nazionale (PDN) di cui la piattaforma è infrastruttura fondamentale, ha l’ambizione di attuare una trasformazione digitale della cultura del paese, a partire dai seguenti obiettivi: sviluppare il potenziale delle banche dati culturali e delle collezioni digitali riconducendo la frammentazione attuale a una prospettiva che restituisca l’unitarietà e la complessità del patrimonio culturale nazionale; garantire l’uso e l’accessibilità a lungo termine delle risorse digitali adottando nuove strategie di conservazione (approccio cloud); semplificare i rapporti con cittadini e imprese, ridisegnando le procedure di settore e portando i servizi culturali in rete; facilitare la crescita di un mercato complementare dei servizi culturali aperto alle start-up innovative, finalizzato a innovare le modalità di fruizione del patrimonio culturale.

La piattaforma digitale di accesso al patrimonio culturale, nel dare il suo contributo  alla modernizzazione nella fruizione della cultura, avrà una duplice funzione: di aggregatore e di erogatore di contenuti. Si rivolgerà a tutti i soggetti proprietari e/o produttori di contenuti digitali e nello stesso tempo renderà utilizzabili le risorse digitali a tutti gli utenti finali comprese tutte quelle imprese interessate alla creazione di prodotti e servizi.

Sempre rispetto all’utilizzo della risorsa digitale, il Piano nazionale di digitalizzazione del patrimonio nazionale (PDN), prevede anche un’altra innovazione strategicamente importante: un sistema di certificazione dell’identità digitale per i beni culturali. Finora il patrimonio culturale digitale è stato soltanto correlato al sistema dei beni culturali materiali, ma non ha coinciso con essi. Infatti, non esiste una relazione 1 a 1, cioè a un bene culturale non corrisponde una sola risorsa digitale, bensì si generano delle relazioni molti a molti. Di conseguenza il patrimonio culturale digitale non identifica l’universo dei beni culturali, ma né è piuttosto una rappresentazione/interpretazione. Ora con i finanziamenti PNRR sarà realizzato un sistema di certificazione e per la risorsa digitale accadrà quello che è un po’ accaduto con lo SPID per le persone fisiche. Il certificato d’identità digitale per i beni culturali sarà la chiave abilitante affinché un bene culturale sia riconosciuto, e quindi valorizzato come unico, in tutti i sistemi: informativi, amministrativi, culturali, piattaforme di accesso ecc.

Pubblicato in biblioteca digitale, Cloud, digitalizzazione, interoperabilità, patrimonio culturale digitalizzato, tecnologie digitali | Contrassegnato , , , , | Lascia un commento

“Reading(&)Machine”: una macchina high tech per incentivare la lettura

Dall’ultimo rapporto ISTAT sulla lettura sappiamo che in Italia i lettori di libri sono soltanto il 40% della popolazione dai 6 anni in su, e le prospettive appaiono tutt’altro che rosee. Infatti,  la curva percentuale dei lettori – nell’arco degli ultimi vent’anni – presenta un tale andamento da essere definita dallo stesso ISTAT : desolante. Nel 2000 i lettori non superavano uno sconfortante 38%, poi la curva è faticosamente risalita nei dieci anni successivi fino al 46,8% del 2010, ma poi è ridiscesa  di nuovo nel corso dell’ultima decade per fermarsi intorno al 40%.

Che cosa fare rispetto a questa persistente avversione degli italiani verso la lettura? Avversione che, tra l’altro, è una delle principali cause di quel  fenomeno che ormai riguarda più del 46% dei cittadini tra i 16 e i 65 anni che risponde al nome di “analfabetismo funzionale”.  Insomma, che fare oltre alle tradizionali linee di intervento, finora non molto efficaci, riguardanti soprattutto strategie di promozione della lettura in ambito scolastico? Una novità potrebbe esserci ed è portata avanti da chi pensa che per ri-incentivare e rivitalizzare la lettura si debba agire in altro modo, ad esempio sfruttando la seduzione tecnologica.

Il Politecnico di Torino insieme al Dipartimento di Studi Storici dell’Università di Torino e alle Biblioteche Civiche Torinesi e grazie ai finanziamenti della Fondazione TIM, si apprestano a lanciare “Reading(&)Machine”. Un progetto che mira a “rinnovare” il  rapporto tra lettori e libri intervenendo proprio nei luoghi più tradizionali dove questo rapporto, da sempre, si esplica:  biblioteche e librerie. E “intervento” vuole dire due cose: potenziare suggestivamente e significativamente gli ambienti dedicati arricchendo, nello stesso tempo, l’esperienza della lettura mediante l’utilizzo delle tecnologie dell’intelligenza artificiale, della realtà aumentata e virtuale.

Da un punto di vista più tecnico, “Reading(&)Machine” lavorerà allo sviluppo di algoritmi di “raccomandazione” per la promozione della lettura. L’utilizzo, invece, di sistemi di machine learning permetterà l’esplorazione delle collezioni, ma anche l’estrazione, elaborazione e comunicazione di contenuti testuali nell’ambito delle biblioteche con patrimoni storici più rilevanti. E poi dati: benzina indispensabile per un progetto che si candita a essere una sorta di nuova “macchina high tech per leggere”. Dati che saranno di provenienza eterogenea e che affluiranno non solo dalle collezioni delle biblioteche, ma anche da piattaforme di social reading (come Anobii), acquisizioni attraverso dataset open e scaturiranno anche da profilazioni degli utenti.

Il progetto ha anche l’ambizioso obiettivo di far crescere una nuova “identità digitale”  negli spazi fisici all’interno delle biblioteche. Questo grazie all’implementazione  nelle sale di lettura di interfacce basate su tecnologie di realtà aumentata e virtuale accessibili agli utenti mediante app per smartphone e tablet. Insomma, “Reading(&)Machine” si propone l’intento onorevole di contrastare “la fuga dalla lettura” segnalata dall’ISTAT con una serie di interventi che prevedono sia la “stimolazione” della lettura che un nuovo appeal per richiamare più utenti nelle  biblioteche. Si tratta di un tipo di offerta, comunque, tecnologicamente orientata a rendere nuove e seducenti le modalità di esplorare e vivere il libro e i luoghi nei quali esso è custodito.

Una strategia tecno-centrica – una sorta di make-up d’ipermodernità – che sicuramente può avere un impatto, ma che non può non suscitare dubbi sulla sua efficacia reale a risolvere problemi annosi. Nel senso che forse tutte le difficoltà degli  italiani rispetto alla lettura hanno radici un po’ più profonde e che rimandano non semplicemente alla carenza di dotazioni tecnologiche nelle biblioteche che pure servono, ma soprattutto alla mancanza, nel corso degli ultimi decenni,  di scelte politiche e risorse adeguate per la cultura.

Inoltre, ritornando infine al contingente, un progetto come “Reading(&)Machine” deve anche tener conto di alcune criticità che la sua attuazione potrebbe generare. Come ha più volte spiegato l’IFLA (International Federation of Library Associations), l’adozione di sistemi di intelligenza artificiale, di machine learnig e altro da parte delle biblioteche, solleva questioni cruciali non ancora di fatto chiaramente risolte sulla libertà intellettuale e sulla privacy e inoltre comporta – urgentemente – una ridefinizione e formazione delle professionalità bibliotecarie nell’ambito di una nuova alfabetizzazione digitale centrata su queste nuove tecnologie.

Pubblicato in algoritmo, biblioteca digitale, big data, digitalizzazione, futuro del libro, Intelligenza artificiale, machine learning, social reading, tecnologie digitali | Contrassegnato , , , | Lascia un commento

Intelligenza artificiale? Riflettiamoci su: le lectio magistralis di Federico Cabitza e Luciano Floridi.

Lo scorso 14 ottobre, nell’ambito della terza edizione della Martini Lecture Bicocca, il Prof. Federico Cabitza – esperto di interazione uomo-macchina – e il Prof. Luciano Floridi – professore di Filosofia ed Etica a Oxford – hanno tenuto due lectio magistralis sul rapporto tra intelligenza artificiale ed etica. Interventi  poi raccolti in un libro recentemente pubblicato: Intelligenza Artificiale. L’uso delle nuove macchine. I due studiosi – con i loro interventi – offrono un importante contributo nella comprensione su cos’è e quali implicazioni  può avere l’intelligenza artificiale, ovvero l’ultima rivoluzionaria invenzione dell’intelletto umano.

Secondo l’ AI Index 2021 Annual Report della Stanford University, gli investimenti globali in intelligenza artificiale sono stati nel 2020 pari a quasi 70 miliardi di dollari con un incremento del 40% rispetto all’anno precedente. La sola Unione Europea prevede, per i prossimo decennio, una mobilitazione di investimenti di circa 20 miliardi di euro l’anno. Insomma, questa nuova tecnologia rappresenta un investimento strategico a livello globale e pare destinata – grazie al suo sviluppo esponenziale  –  a trasformare radicalmente, nei prossimi anni, le società umane.

Il filo conduttore di entrambi gli interventi è rintracciabile nello sforzo dei due studiosi di rispondere alle domande che poneva Carlo Maria Martini quando nel 2015 scriveva: sono così minacciose tutte le tecnologie del virtuale? L’intero cammino verso l’intelligenza artificiale finirà per svalutare il valore della persona, riducendola a pura meccanica? O, invece, saranno i valori dell’uomo a indurre la scienza ad aprire nuovi fronti grazie alle conquiste tecnologiche? Scenario questo molto incoraggiante purché l’intelligenza umana rimanga padrona dei processi.

Federico Cabitza, nel suo intervento, pone soprattutto con la questione etica: se è vero che l’intelligenza artificiale è una modalità del “fare umano” e se per questa ragione dietro le macchine non può esistere nessuna identità o volontà autonoma, allora il problema è “valutare” l’azione umana che è dietro le macchine. Azione umana nelle macchine che si esprime  attraverso gli algoritmi. Da qui “l’algoretica”, ossia lo studio dei problemi e dei risvolti etici connessi all’applicazione degli algoritmi. Una preoccupazione per l’etica  che nasce come conseguenza della costatazione che oggi la società si trova in uno stato di “algocrazia”, vale a dire in  una situazione nella quale il flusso dell’informazione è sotto il dominio degli algoritmi.

E per fare in modo, secondo Cabitza, che l’intelligenza umana rimanga padrona dei processi; allo strapotere dell’algoritmo, in quanto strumento di manipolazione e sfruttamento, bisogna contrapporre la forza dell’androritmo, ovvero tutto ciò che può essere considerato irriducibile alla conversione algoritmica della cose umane. Nell’azione di contrasto, gli approcci “algoretici”  possono essere due: quello di subordinare drasticamente le macchine alle ragioni umane oppure quello di provare a rendere in qualche modo “etici” gli stessi algoritmi.

O forse – incalza Cabitza – la soluzione può essere trovata addirittura fuori dal perimetro degli algoritmi,  in particolare nel mondo  “dell’ethical in design”, in altre parole negli stessi processi di progettazione dove la  dimensione valoriale dei tecnici e progettisti potrebbe  esprimere la differenza. Da  queste e altre riflessioni derivano anche  i tentativi di “normare”, in qualche modo, l’intelligenza artificiale. Iniziò, quasi per gioco, molti anni fa, il grande romanziere Isaac Asimov con le famose leggi della robotica. Oggi, in un contesto tecnologico molto più pressante, è l’esperto in “diritto robotico” Frank Pasquali a proporre nuove leggi: 1) i sistemi robotici devono essere complementare e non sostituire i professionisti 2) i sistemi robotici non devono contraffare l’umanità 3) i sistemi robotici devono sempre indicare l’identità dei loro creatori, controllori e proprietari e così via.

Comunque sia, a prescindere dagli esiti più o meno positivi degli “sforzi algoretici” e normativi, quello che alla fine pervade il discorso di Cabitza è un certo scetticismo. A partire proprio dalla base del discorso, è ciò dall’interazione tra intelligenza umana e intelligenza artificiale. È infatti su questo difficile rapporto e su i suoi futuri sviluppi che, secondo lo studioso, sembrano addensarsi nubi minacciose. Si tratta di un rapporto a rischio che potrebbe finire male rispetto alle grandi emergenze globali che sfidano l’umanità: la crisi climatica, il futuro del lavoro e il futuro del sistema dell’informazione. Lo sviluppo pervasivo dell’intelligenza artificiale, si chiede Cabitza, potrà essere la soluzione per questi grandi problemi o al contrario si trasformerà in un ulteriore fattore di aggravamento? Con l’aggiunta pessimistica riguardo anche il lungo periodo quando macchine sempre più intelligenti potrebbero, addirittura,  paradossalmente causare un effetto opposto ai loro scopi, vale a dire con il loro totalizzante “fare” determinare un progressivo depotenziamento delle capacità umane con conseguenze incalcolabili rispetto al nostro “umano” modo di essere.

 Anche il filosofo Luciano Floridi, nel rispondere al cardinale Martini, mette subito in chiaro che l’intelligenza artificiale non è da considerarsi come una “nuova forma di intelligenza”, ma “soltanto” coma una “nuova forma di capacità di agire”. L’intelligenza artificiale, secondo Floridi, è infatti una risorsa sostanzialmente “stupida” che però è capace di risolvere problemi complessi senza ricorrere all’intelligenza. Ma, come? In pratica, simulando un comportamento intelligente mediante il calcolo superveloce e la statistica. Gli attuali “sistemi informatici intelligenti” sono riusciti, in altre parole,  a centrare il risultato attraverso il solo “l’agire” senza bisogno di essere intelligenti per riuscire a farlo.

Insomma, le attuali tecnologie di intelligenza artificiale si sono sviluppate separando l’agere dall’intelligere. Mentre, i paralleli tentativi tecnologici di arrivare a una forma di intelligenza paragonabile a quella umana o addirittura superiore – finora – sono tutti naufragati: gli agenti intelligenti sviluppati da questa branca di ricerca tecno-cognitiva hanno – al momento – prodotto forme di intelligenza non superiori a quelle di un tostapane.

Tuttavia, anche nello sviluppo di questa intelligenza artificiale “stupida” Luciano Floridi individua dei rischi. Si tratta, infatti, di una tecnologia che per funzionare bene e ottenere i risultati attesi ha bisogno di trasformare l’ambiente in cui opera. Ad esempio, l’auto che si guida da sola necessita una trasformazione del contesto in cui opera: un “enveloping”, un “avvolgere” il mondo in modo da trasformarlo da un ambiente ostile e imprevedibile, difficilissimo da gestire, in un luogo amico nel quale, gli agenti artificiali,  con i loro semplici strumenti di calcolo e statistici  possono funzionare aggirando tutti i problemi di significato, pertinenza, comprensione, imprevedibilità ecc. tipici di un tradizionale contesto di guida umano.

Trasformare il mondo in un luogo “amico” per gli agenti artificiali potrebbe – inavvertitamente – portare gli esseri umani a diventare parte di questo meccanismo: mettendo, insomma, l’intelligere al servizio dell’agere. Un esempio del   genere  è il baratto in rete tra servizi gratuiti e dati personali. Per manipolare l’interfaccia umana che naviga nel web e personalizzare così le offerte, l’industria pubblicitaria ha bisogno di avere quante più informazioni possibili sugli individui on line e questo lo ottiene abbastanza facilmente con lo scambio.

Insomma, il rischio che stiamo correndo secondo Luciano Floridi, è che disegnando un modo digitale a misura degli agenti artificiali “stupidi” e non a misura dell’intelligenza umana, le nostre tecnologie e in particolare l’intelligenza artificiale potranno finire con il modellare i nostri ambienti fisici e concettuali costringendoci, o perlomeno, invitandoci ad adattarci a loro perché questo, alla fine, è presentato come il modo più semplice e o migliore o talvolta unico, per far funzionare le cose.

Pubblicato in algoritmo, Intelligenza artificiale, tecnologie digitali | Contrassegnato , , , , , , , , , | Lascia un commento

Testi, autori e intelligenza artificiale

Roland Barthes, nel “Brusio della lingua. Saggi critici IV”, scrive: ..l’essere totale della scrittura è un testo fatto di scritture molteplici…esiste però un luogo in cui tale molteplicità di riunisce, e tale luogo non è l’autore bensì il lettore, e poi ancora: l’unità di un testo non sta nella sua origine, ma nella sua destinazione ecc. Barthes, in un’epoca molto lontana, pre-digitale, portando avanti la sua critica destrutturante contro  l’ideologia capitalistica colpevole di attribuire la massima importanza alla persona dell’autore, né preconizzava la morte come condizione per la “ri-nascita” del lettore.

Oggi, in una realtà completamente diversa, “digitalizzata”, caratterizzata dall’ubiqua pervasività della Rete, sembra potersi avverare quell’antica profezia di “morte dell’autore”. Ma questa volta, non per mano della critica al sistema capitalistico, bensì grazie all’impatto dei sistemi di intelligenza artificiale.

Su queste suggestivo scenario, si è basato un recente seminario dal titolo: Imitation game. L’intelligenza Artificiale entra nel mondo del libri, di Maurizio Lana dell’Università del Piemonte Orientale. L’occasione, per evocare Alan Turing e parlare di algoritmi ed editoria: una riflessione sull’iniziativa – del 2019 –  da parte dell’editore Springer di dare alle stampe il primo libro al mondo di ricerca scientifica generato da una macchina.

Si tratta di: Lithium- Ion Batteries, libro che fornisce una panoramica sulle ultime ricerche sulle batterie agli ioni di litio. La base dati per la sua realizzazione è stata ricavata dall’universo di contenuti tecnico-scientifici già posseduti dall’editore Springer sui quali, ha prima lavorato un gruppo di esperti per circoscrivere gli argomenti, e subito dopo è intervenuta un’applicazione di machine learning in grado di leggere e apprendere le caratteristiche degli articoli selezionati. Lavoro di machine learning che è stato  infine sottoposto di nuovo agli esperti umani per una revisione finale.

A questo punto, arrivati alla stesura finale, è scattata l’ora dell’intelligenza artificiale.  La generazione finale del libro  – 233 pagine suddivise in  4 capitoli, paragrafi e sotto-paragrafi – è stata presa in mano, in qualità di autore principale,  dall’algoritmo Beta Writer – sviluppato grazie alla collaborazione tra Springer e il laboratorio di linguistica computazionale applicata dell’Università Goethe di Francoforte –  che ha provveduto alla scrittura definitiva del testo, in pratica mediante un riassunto incrociato di tutti gli articoli di ricerca precedentemente selezionati, inserendo nel testo anche i collegamenti ipertestuali ai documenti originali. Gli esperti umani, che si sono limitati a scrivere l’introduzione,  nel lavoro di redazione eseguito da Beta Writer non sono  intervenuti: astenendosi assolutamente da qualsiasi intervento di modifica o correzione del testo.

Nel seminario di Maurizio Lana, le riflessioni più interessanti si sono concentrate sulla questione dell’autorialità imposta dall’ingresso dell’intelligenza artificiale nella produzione del “prodotto libro”. L’autore,  secondo tutti i criteri di classificazione,  è colui che concepisce e crea  un’opera letteraria, scientifica, artistica. Finora tutti i sistemi di catalogazione conosciuti presuppongono che la responsabilità autoriale sia a capo di una o più persone fisiche. La comparsa di un algoritmo come autore, ovviamente, getta scompiglio in tutto ciò.

Tra l’altro, l’ulteriore sviluppo delle tecnologie digitali in ambito editoriale, prevede, come hanno spiegato i responsabili della casa editrice Spring nel presentare il loro Lithium- Ion Batteries , soprattutto per quel che riguarda l’editoria accademica, nuove opportunità per esplorare la possibilità di generare contenuti scientifici con l’ausilio di algoritmi. In particolare, ai contenuti ancora interamente creati dagli umani, si affiancheranno sempre di più non solo testi creati esclusivamente dalle macchine, ma anche tutta una varietà di combinazioni di prodotti editoriali generati dal lavoro combinato tra uomo e algoritmi. Questo significa che la concettualizzazione dello status di autore si complicherà ulteriormente con il prossimo l’arrivo di prodotti editoriali frutto di un’autorialità ibrida con confini sempre più sfumati tra uomo e macchina.

Il Barthes di fine anni ’60 non avrebbe mai immaginato tali scenari e possibili epiloghi. Secondo la sua teoria, la “dittatura” dell’autore era un prodotto – sbagliato – della modernità e, paradossalmente, è proprio questa stessa modernità,  diventata nel frattempo tecnologicamente ipertrofica, che  oggi può causare davvero la “morte dell’autore”.  Forse Barthes sottovalutò, e non fu il solo, la comparsa del primo segnale di  Imitation game. Nel 1952 Chistopher Strachey, ispirato dal lavoro di A. M. Turing “Computing machinery and intelligence”, programmava un computer Manchester Mark 1 utilizzando un algoritmo combinatorio basato su 70 parole, creando così il primo generatore di testi: “Lettere d’amore”. Il computer permetteva un’esplosione combinatoria dei risultati: con sole 70 parole di base si potevano ottenere fino  300 miliardi di lettere diverse! Era un primo segnale della potenza della tecnica che anticipava il futuro dell’intelligenza artificiale.

Pubblicato in algoritmo, futuro del libro, Intelligenza artificiale | Contrassegnato , , , , , , , | Lascia un commento