L’algoritmo nel libro

È in arrivo un nuovo paradigma. Il testo, frantumata la “prigione” del formato libro,  fluttua nell’ecosistema digitale. Si tratta però di una “fluttuazione” straniante che sottende la nostalgia del testo di ritrovare una nuova forma da dove ricominciare a fare quello che ha sempre fatto: tessere narrazioni, costruire mondi, generare metafore. Insomma, tutto ciò che è stato nel lungo tempo  precedente: l’era del libro a stampa. Ma, se la ri-troverà, quale potrà essere la “nuova forma” dalla quale ripartire per la propria missione affabulatoria?

Dopo la promessa – finora – mancata dell’ipertesto e dopo il tentativo (ancora in corso) dell’ebook  ma confinato nell’imitazione digitale – di per se rassicurante ma per questo sterile e macchinosa – del vecchio libro a stampa, ecco arrivare una nuova chance tecnologica per il testo “orfano di forma”: l’algoritmo. Confermando quanto sostenuto da Ray Kurzweil – futurologo assunto da Google per lo sviluppo dei sistemi  AI – e cioè che il progresso tecnologico procede sulla base della legge esponenziale dei “guadagni accelerati”, l’avanzata algoritmica – nell’industria, nei servizi ecc. – ha raggiunto  una tale pervasività da non risparmiare alcun settore produttivo compreso quello editoriale. La sfida, nel caso del pianeta libro, è sia  gestionale che creativa: dalla realizzazione di nuove piattaforme editoriali intelligenti integrate in Rete fino alla sostituzione della narrazione umana con testi (articoli, saggi, romanzi) generati da algoritmi.

Philip M.Parker – docente di management presso l’INSED –  è stato tra i primi ad immaginare l’algoritmo nel futuro del libro. Artefice già più di dieci anni fa di un singolare   brevetto: “metodo e apparato per la scrittura automatica e il marketing“, ha poi continuato a sviluppare il progetto fino alla messa a punto di una piattaforma editoriale definita “combinatoral publishing”:  non una creazione automatica di contenuti ma piuttosto un loro processo ri-combinatorio. Quella di Parker si può ormai definire come una vera e propria “macchina” per scrivere e pubblicare libri. Il processo inizia con la scelta di un argomento, subito dopo bot intelligenti scandagliano grandi database per il recupero delle informazioni necessarie, quindi tocca poi all’algoritmo selezionare i dati raccolti e scrivere e formattare il libro. A prodotto finito – in pratica una “compilation” –  si passa alla fase di pubblicazione e vendita.  Per ora l’algoritmo si limita ad una produzione “manualistica”, tuttavia Parker ha in serbo un ulteriore salto: la scrittura in automatico anche di romanzi rosa.

C’è chi, invece del remix di contenuti già elaborati, ha puntato su una narrazione artificiale estratta direttamente dai dati. Si tratta di una delle società leader nei sistemi di generazione automatica di contenuti giornalisti: Narrative Science” di Chicago. Per il suo software di intelligenza artificiale –  “Quill” –  ogni foglio di calcolo, ogni set di dati ecc. hanno  una storia da raccontare. L’algoritmo analizza  dati provenienti da fonti più disparate, capisce ciò che è importante per l’utente finale e automaticamente genera narrazioni scritte per qualsiasi pubblico, su scala illimitata.  Tuttavia, la via algoritmica al giornalismo, se può risultare efficacie in settori specifici come ad esempio quello finanziario dove  notizie brevi seguono uno schema abbastanza preciso con un linguaggio e un set obbligato di dati e cifre – in altri contesti non è esente da molte critiche. Anzitutto,  al robot- giornalista mancherebbero creatività, flessibilità e capacità d’analisi e poi come sottolineato in un articolo della CBS: “le narrazioni generate dal computer avrebbero la capacità di amplificare pregiudizi e ipotesi con maggiore velocità e su scala molto più ampia di qualsiasi cosa scritta da esseri umani”.

Orientato invece al “market research” è l’algoritmo di cui si avvale W.Frederick Zimmerman – tecnologo, avvocato ed ora anche editore – ideatore della piattaforma Nimble Books. Su questa piattaforma i sistemi AI lavorano soprattutto in funzione pre-pubblicazione, rastrellando in rete tutte le informazioni rilevanti per il progetto editoriale: l’originalità rispetto alle tendenze di mercato, l’adesione o meno dell’argomento con i contemporanei gusti del pubblico ecc. Insomma, per l’algoritmo di Zimmerman la priorità è comprendere – il più rapidamente possibile– quale potrebbe essere il “miglior libro potenziale del momento” da pubblicare prima che qualcun altro se ne accorga. È evidente, che il “core” di Nimble Books non è la scrittura automatica di un testo, ma la fase che la precede, ovvero quel processo in grado di fornire – dopo messo insieme tutti i pezzi giusti –  all’editore la soluzione di un difficilissimo puzzle:  veder finalmente apparire la sagoma di un best seller.

Aspetto interessante è che la soluzione scelta da Nimble Books propone un modello dove l’algoritmo non vuole sostituire tout court il fattore umano, ma opera a fianco ad esso integrandolo ed incrementandolo. È un’idea diversa di “salto paradigmatico” per la quale il progresso tecnologico – benché esponenziale – risulterebbe efficace e sicuro solo se basato sulla cooperazione tra intelligenza umana e intelligenza artificiale. Approccio particolarmente appropriato in ambito artistico (in questo caso letterario), dove il fattore umano “creativo” sembra davvero non sostituibile mentre appaiono vantaggiosamente replicabili tutte quelle attività editoriali  a carattere quantitativo inerenti alla pre- pubblicazione. E la potenza di calcolo degli algoritmi può risultare fondamentale proprio in quest’ultima fase:  non solo ricerche di mercato, ma anche informazioni – aggiornate – sugli status del copyright oppure indicazioni e calcoli sui rischi finanziari di un progetto editoriale, con la possibilità – relativamente a queste stime – di offrire un’opportunità in più a quegli autori esordienti meglio posizionati rispetto ai gusti emergenti del pubblico. Inoltre, piattaforme come Nimble Books – grazie alle loro caratteristiche “ibride” – potrebbero anche essere in grado di dare un contributo significativo al recupero di nuovi contenuti di qualità: fornendo  in pratica nuovi servizi di ricerca  – molto più elaborati e personalizzati dei normali “motori” – per categorie di lettori interessati a determinati argomenti.

Tra le informazioni più “ghiotte” in sede di pre-pubblicazione, c’è – ovviamente – poter  sapere in anticipo quali libri avranno successo. Un vero e proprio “sogno” per gli editori che  presto potrebbe tramutarsi in realtà. È quanto sostiene YeJin Choi – docente della Stony Brook University – che ha applicato un suo algoritmo alla “statistical stylometry”, vale a dire allo studio dello “stile linguistico”. Prendendo in esame 800 libri del progetto Gutenburg – prima biblioteca virtuale ad accesso libro creata su base volontaria – Choi ha mostrato la corrispondenza, con una precisione dell’84%,  tra lo stile di scrittura e il successo del libro. Lo studio – tra i primi nel suo genere – ha tra l’altro evidenziato interessanti tendenze e correlazioni, ad esempio che i testi dei libri di minor successo sono caratterizzati da una maggiore percentuale di verbi, avverbi e parole straniere, mentre quelli di successo fanno un uso più frequente di connettivi (congiunzioni, locuzioni ecc.) nel discorso.

Tuttavia, secondo alcuni – a cominciare dal futurologo Kevin Warwick – la vera grande sfida dell’algoritmo letterario è impadronirsi della narrazione vera, del romanzo. Per adesso, tra i tentativi in corso, c’è quello ideato da Darius Kazemi: invitare tutti i programmatori interessati a scrivere software che generino romanzi, e quindi pubblicarli. Il progetto si chiama NaNoGenMo (National Novel Generation Month). La sua particolarità è che a differenza di altri progetti più o meno simili, non mira a sostituire (imitando) l’autore umano, ma al contrario ha l’ambizione di creare uno stile nuovo che affascini in quanto artificialmente non-umano. Comunque, per ora, i programmatori, dovendo in qualche modo rimpolpare di parole i dialoghi delle loro scarne cyber-trame, hanno pensato ai big data di Twitter. La regola è quella dei contesti simili: ad esempio per un dialogo che riguarda il tema “cena” vengono utilizzati tweet che contengono la parola “cena”. E tra i programmi-romanzo che applicano questa soluzione, uno dei più ambiziosi è quello che tenta di riprodurre una inedita versione del romanzo della Austen “Orgoglio e Pregiudizio” dove ogni parola dei dialoghi è sostituita da altrettante parole ricavate da tweet che presentano  contesti “simili”.

In ogni caso, la grande sfida dei romanzieri-robot è a dir poco ardua. Vi si frappongono ostacoli che appaiono – alla prova dei fatti – ancora insormontabili. Tra i principali: la tendenza al caos delle storie generate dagli algoritmi una volta superata una certa lunghezza del testo, diciamo intorno alle 3 mila parole. A quel punto, la narrazione perde qualsiasi mordente e l’attenzione dell’eventuale lettore è destinata a dissolversi. Lo stesso Kazemi ha confessato che attualmente leggere un romanzo prodotto artificialmente rappresenta una sorta di “atto eroico” in quanto le trame risultano piatte, instabili e incoerenti rispetto alla tradizionale narrativa di produzione “umana”. Tuttavia, il tecno-ottimista Kevin Warwick è convinto che non è lontano il giorno nel quale romanzi artificiali saranno ammessi a concorsi letterari: probabilmente non vinceranno, ma sicuramente capiterà sempre più spesso che i giudici si troveranno tratti in inganno sull’identità (algoritmica o umana?) degli autori.

Forse, il testo “orfano” di una sua forma, dovrà alla fine accettare il multiforme ecosistema digitale come regola: non potrà essere più una, ma saranno praticamente infinite le forme che lo sviluppo dell’intelligenza algoritmica via via gli offrirà.

Questa voce è stata pubblicata in digitalizzazione, ebook, editoria digitale, futuro del libro, Intelligenza artificiale e contrassegnata con , , , , , , , , , , . Contrassegna il permalink.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *