Intelligenza artificiale? Riflettiamoci su: le lectio magistralis di Federico Cabitza e Luciano Floridi.

Lo scorso 14 ottobre, nell’ambito della terza edizione della Martini Lecture Bicocca, il Prof. Federico Cabitza – esperto di interazione uomo-macchina – e il Prof. Luciano Floridi – professore di Filosofia ed Etica a Oxford – hanno tenuto due lectio magistralis sul rapporto tra intelligenza artificiale ed etica. Interventi  poi raccolti in un libro recentemente pubblicato: Intelligenza Artificiale. L’uso delle nuove macchine. I due studiosi – con i loro interventi – offrono un importante contributo nella comprensione su cos’è e quali implicazioni  può avere l’intelligenza artificiale, ovvero l’ultima rivoluzionaria invenzione dell’intelletto umano.

Secondo l’ AI Index 2021 Annual Report della Stanford University, gli investimenti globali in intelligenza artificiale sono stati nel 2020 pari a quasi 70 miliardi di dollari con un incremento del 40% rispetto all’anno precedente. La sola Unione Europea prevede, per i prossimo decennio, una mobilitazione di investimenti di circa 20 miliardi di euro l’anno. Insomma, questa nuova tecnologia rappresenta un investimento strategico a livello globale e pare destinata – grazie al suo sviluppo esponenziale  –  a trasformare radicalmente, nei prossimi anni, le società umane.

Il filo conduttore di entrambi gli interventi è rintracciabile nello sforzo dei due studiosi di rispondere alle domande che poneva Carlo Maria Martini quando nel 2015 scriveva: sono così minacciose tutte le tecnologie del virtuale? L’intero cammino verso l’intelligenza artificiale finirà per svalutare il valore della persona, riducendola a pura meccanica? O, invece, saranno i valori dell’uomo a indurre la scienza ad aprire nuovi fronti grazie alle conquiste tecnologiche? Scenario questo molto incoraggiante purché l’intelligenza umana rimanga padrona dei processi.

Federico Cabitza, nel suo intervento, pone soprattutto con la questione etica: se è vero che l’intelligenza artificiale è una modalità del “fare umano” e se per questa ragione dietro le macchine non può esistere nessuna identità o volontà autonoma, allora il problema è “valutare” l’azione umana che è dietro le macchine. Azione umana nelle macchine che si esprime  attraverso gli algoritmi. Da qui “l’algoretica”, ossia lo studio dei problemi e dei risvolti etici connessi all’applicazione degli algoritmi. Una preoccupazione per l’etica  che nasce come conseguenza della costatazione che oggi la società si trova in uno stato di “algocrazia”, vale a dire in  una situazione nella quale il flusso dell’informazione è sotto il dominio degli algoritmi.

E per fare in modo, secondo Cabitza, che l’intelligenza umana rimanga padrona dei processi; allo strapotere dell’algoritmo, in quanto strumento di manipolazione e sfruttamento, bisogna contrapporre la forza dell’androritmo, ovvero tutto ciò che può essere considerato irriducibile alla conversione algoritmica della cose umane. Nell’azione di contrasto, gli approcci “algoretici”  possono essere due: quello di subordinare drasticamente le macchine alle ragioni umane oppure quello di provare a rendere in qualche modo “etici” gli stessi algoritmi.

O forse – incalza Cabitza – la soluzione può essere trovata addirittura fuori dal perimetro degli algoritmi,  in particolare nel mondo  “dell’ethical in design”, in altre parole negli stessi processi di progettazione dove la  dimensione valoriale dei tecnici e progettisti potrebbe  esprimere la differenza. Da  queste e altre riflessioni derivano anche  i tentativi di “normare”, in qualche modo, l’intelligenza artificiale. Iniziò, quasi per gioco, molti anni fa, il grande romanziere Isaac Asimov con le famose leggi della robotica. Oggi, in un contesto tecnologico molto più pressante, è l’esperto in “diritto robotico” Frank Pasquali a proporre nuove leggi: 1) i sistemi robotici devono essere complementare e non sostituire i professionisti 2) i sistemi robotici non devono contraffare l’umanità 3) i sistemi robotici devono sempre indicare l’identità dei loro creatori, controllori e proprietari e così via.

Comunque sia, a prescindere dagli esiti più o meno positivi degli “sforzi algoretici” e normativi, quello che alla fine pervade il discorso di Cabitza è un certo scetticismo. A partire proprio dalla base del discorso, è ciò dall’interazione tra intelligenza umana e intelligenza artificiale. È infatti su questo difficile rapporto e su i suoi futuri sviluppi che, secondo lo studioso, sembrano addensarsi nubi minacciose. Si tratta di un rapporto a rischio che potrebbe finire male rispetto alle grandi emergenze globali che sfidano l’umanità: la crisi climatica, il futuro del lavoro e il futuro del sistema dell’informazione. Lo sviluppo pervasivo dell’intelligenza artificiale, si chiede Cabitza, potrà essere la soluzione per questi grandi problemi o al contrario si trasformerà in un ulteriore fattore di aggravamento? Con l’aggiunta pessimistica riguardo anche il lungo periodo quando macchine sempre più intelligenti potrebbero, addirittura,  paradossalmente causare un effetto opposto ai loro scopi, vale a dire con il loro totalizzante “fare” determinare un progressivo depotenziamento delle capacità umane con conseguenze incalcolabili rispetto al nostro “umano” modo di essere.

 Anche il filosofo Luciano Floridi, nel rispondere al cardinale Martini, mette subito in chiaro che l’intelligenza artificiale non è da considerarsi come una “nuova forma di intelligenza”, ma “soltanto” coma una “nuova forma di capacità di agire”. L’intelligenza artificiale, secondo Floridi, è infatti una risorsa sostanzialmente “stupida” che però è capace di risolvere problemi complessi senza ricorrere all’intelligenza. Ma, come? In pratica, simulando un comportamento intelligente mediante il calcolo superveloce e la statistica. Gli attuali “sistemi informatici intelligenti” sono riusciti, in altre parole,  a centrare il risultato attraverso il solo “l’agire” senza bisogno di essere intelligenti per riuscire a farlo.

Insomma, le attuali tecnologie di intelligenza artificiale si sono sviluppate separando l’agere dall’intelligere. Mentre, i paralleli tentativi tecnologici di arrivare a una forma di intelligenza paragonabile a quella umana o addirittura superiore – finora – sono tutti naufragati: gli agenti intelligenti sviluppati da questa branca di ricerca tecno-cognitiva hanno – al momento – prodotto forme di intelligenza non superiori a quelle di un tostapane.

Tuttavia, anche nello sviluppo di questa intelligenza artificiale “stupida” Luciano Floridi individua dei rischi. Si tratta, infatti, di una tecnologia che per funzionare bene e ottenere i risultati attesi ha bisogno di trasformare l’ambiente in cui opera. Ad esempio, l’auto che si guida da sola necessita una trasformazione del contesto in cui opera: un “enveloping”, un “avvolgere” il mondo in modo da trasformarlo da un ambiente ostile e imprevedibile, difficilissimo da gestire, in un luogo amico nel quale, gli agenti artificiali,  con i loro semplici strumenti di calcolo e statistici  possono funzionare aggirando tutti i problemi di significato, pertinenza, comprensione, imprevedibilità ecc. tipici di un tradizionale contesto di guida umano.

Trasformare il mondo in un luogo “amico” per gli agenti artificiali potrebbe – inavvertitamente – portare gli esseri umani a diventare parte di questo meccanismo: mettendo, insomma, l’intelligere al servizio dell’agere. Un esempio del   genere  è il baratto in rete tra servizi gratuiti e dati personali. Per manipolare l’interfaccia umana che naviga nel web e personalizzare così le offerte, l’industria pubblicitaria ha bisogno di avere quante più informazioni possibili sugli individui on line e questo lo ottiene abbastanza facilmente con lo scambio.

Insomma, il rischio che stiamo correndo secondo Luciano Floridi, è che disegnando un modo digitale a misura degli agenti artificiali “stupidi” e non a misura dell’intelligenza umana, le nostre tecnologie e in particolare l’intelligenza artificiale potranno finire con il modellare i nostri ambienti fisici e concettuali costringendoci, o perlomeno, invitandoci ad adattarci a loro perché questo, alla fine, è presentato come il modo più semplice e o migliore o talvolta unico, per far funzionare le cose.

Questa voce è stata pubblicata in algoritmo, Intelligenza artificiale, tecnologie digitali e contrassegnata con , , , , , , , , , . Contrassegna il permalink.