Nexus
Yuval Noah Harari è uno scrittore piuttosto interessante, che vanta in ambito storico un sapere di ampiezza enciclopedica. Avevo letto, anni orsono, un suo libro straordinario, Sapiens, in grado di spalancare una finestra sul mondo del passato e del presente, come solo la ricchezza culturale riesce a fare; recentemente sono stato risucchiato dall’ultimo volume Nexus: Breve storia delle reti di informazione dall’età della pietra all’AI.
L’aggettivo “breve” sembrerebbe poco adatto alle cinquecento e più pagine del libro; tuttavia, risulta conveniente perché cinquemila anni sono difficilmente riducibili. Nella sostanza mi pare che Nexus sia un’estensione dell’altro, con l’attenzione posta di un aspetto particolare della storia culturale: l’informazione.
Harari, in Sapiens, era partito dall’ipotesi creativa che la facilità di scambiare informazioni – dalle più drammatiche ai semplici pettegolezzi – fosse utile a spiegare la straordinaria capacità dell’homo sapiens di organizzarsi e fare gruppo, così da superare in potenza qualsiasi altra specie animale e vegetale presente in natura, per quanto forte essa risultasse nei suoi singoli componenti. In Nexus l’autore passa a studiare, indirettamente, le relazioni interne ai gruppi umani, concentrandosi sul significato dell’informazione, intesa come narrazione intenzionale dei fatti, sul suo potere e sull’impatto sociale.
Qualsiasi gesto, anche involontario, comporta evidentemente un’informazione (su questo la psicoanalisi la sa lunga); però l’informazione intenzionale, a prescindere dai contenuti, sviluppa sempre due funzioni non contrapposte: avvicinare alla verità e stabilire un ordine, ovvero esercitare un potere. Di considerazione in considerazione, di tipologia in tipologia, di contenuto in contenuto, Harari arriva a parlare dell’intelligenza artificiale – centro di gravità dell’esposizione – che egli definisce aliena: il suo approfondimento è filosofico, politico-sociale e anche morale, ma non scende nei particolari tecnologici.
Debbo confidare, da vetusto studioso di fisica e ancora più vetusto esperto di hardware e software, che l’enfasi riservata all’intelligenza, artificiale o aliena, mi annoia un po’: come strumento di informazione l’AI risulta utile solo a chi già sa; chi non sa rimane ignorante. Bisogna aggiungere che dell’ignoranza e della maleducazione non si vergogna più nessuno; anzi, spesso esse vengono ostentate come elementi decorativi se non proprio oggetti di vanità, perché viviamo nella società dell’invidia – scriveva Sandro Gindro (cfr. L’oro della psicoanalisi) -; purtroppo, AI è uno strumento che si adatta a soddisfare questo peccato capitale.
Fornire una piccola idea tecnologica sull’intelligenza aliena mi pare utile: è stata sviluppata come conseguenza logica dei motori di ricerca. Tramite i motori di ricerca, lo studio di un argomento può essere approfondito direttamente da ogni essere umano, attraverso una navigazione in Internet; con questo nuovo strumento la navigazione viene affidata ad un algoritmo, che è una successione di operazioni progettate a tavolino e poi elaborate e standardizzate, al quale è stato insegnato a farlo in autonomia e a consegnare il risultato in forma scritta, corretta dal punto di vista grammaticale. La soluzione si presenta come un prodotto molto buono almeno formalmente, ma non è detto che sia valido: personalmente ho verificato molte imprecisioni e talvolta errori davvero grossolani. L’ho potuto verificare dove sapevo; dove non sapevo mi è stato impossibile: per questo si tratta di uno strumento utile per chi sa. Chi non sa può solo tentare di fare bella figura: però qualcosa impara se ha voglia di leggere e comprendere, altrimenti gli è del tutto inutile.
Il punto focale del lavoro di Harari verte sui danni: AI in quanto aliena potrebbe produrre disastri, perché non è direttamente sorvegliabile dal pensiero umano e la sua procedura non è controllabile e non si può correggere, a meno di regredire al “processo di apprendimento”. Gli umani “più ingenui” (che corrispondono al 95 percento della popolazione) possono essere tentati a seguire indicazioni di cui non capiscono il senso, per il semplice fatto che lo ha proposto AI; seguendo AI tutti possiamo diventare potenziali assassini.
Gli studiosi più ottimisti sorridono e spiegano che è sufficiente premere un interruttore per mettere a tacere la voce dell’intelligenza aliena. A me sembra incontrollabile, invece, la volontà e la megalomania dell’essere umano che potrebbe evitare di agire sul pulsante “spegni” nel momento in cui si rendesse conto di ottenere un vantaggio personale. Come esempio terribilmente banale, si può riferire che la caccia al terrorista assassino viene (forse) già implementata fornendo informazioni all’AI: in risposta si ottiene l’indicazione di un luogo, di un tempo e il suggerimento di sparare un missile. L’addetto al controllo del missile lo lancia: un terrorista (forse) muore e, insieme con lui, cinquanta persone che passano lì per caso. C’è qualcosa da obiettare?
Harari ha illustrato esempi ancora più banali perché erano facilmente controllabili, però l’omino megalomane preferì voltarsi dall’altra parte; sono fatti realmente accaduti e la responsabilità va attribuita ai proprietari dei social coinvolti e ai loro tecnici: si tratta delle drammatiche violenze contro la popolazione Rohingya in Myanmar nel 2016 (alimentata tramite la compiacenza di Facebook) o del risibile esempio di un motoscafo capace di vincere una gara di velocità senza partecipare.
Sostiene il saggista, che la pericolosità sociale della AI dipenda dalla qualità delle informazioni e dalla possibilità di controllarle; le stesse argomentazioni differenziano le democrazie dalle dittature: le prime “inseguono” la verità e prevedono alcuni sistemi di verifica per confermarla; le seconde evitano accuratamente i riscontri perché più interessate a scansare il dissenso ed esercitare un controllo sulla popolazione. Le democrazie sono più interessate a condividere le informazioni, valutare e correggere le notizie ingannevoli attraverso le reti pubbliche. L’impianto dell’intelligenza aliena – in quanto non controllabile – sarebbe, perciò, tirannico per principio.
Lo scritto di Harari viene criticato per l’inclinazione al catastrofismo nel mondo presente e soprattutto in quello del futuro: «Per migliaia di anni profeti, poeti e politici hanno usato il linguaggio per manipolare e rimodellare la società. Ora i computer stanno imparando a farlo. E non avranno bisogno di inviare robot assassini a spararci. Potrebbero manipolare esseri umani per fargli premere il grilletto» e in realtà già lo fanno nell’ambito militare. Invece i critici anti-catastrofisti hanno i telescopi puntati verso il futuro ed ignorano – o fingono di ignorare – il presente: guerre, carestie, esodi di proporzioni bibliche vengono ridotti a semplici fatti di cronaca se non peggio.
Mi trovo in sintonia con Harari piuttosto che con gli anti-catastrofisti, anche se sottolineo la sua incongruenza nel descrivere un’intelligenza aliena democratica e dittatoriale nello stesso tempo e l’assenza di una valutazione di carattere energetico.
In Nexus la parte dedicata al racconto e all’analisi degli eventi storici è “limitata” a 200 pagine, nelle quali si passa rapidamente dalle tavolette d’argilla assire all’epidemia di colera in Europa nel XIX secolo, al pogrom degli ebrei in Romania nel 1941, al genocidio dei Rohingya in Myanmar in modo abbastanza vertiginoso come una Teoria del Tutto. Alla seconda parte del libro è dedicata l’analisi dei rischi dell’intelligenza artificiale, che si differenzia dalla stampa e dalle tecnologie precedenti perché è in grado di prendere decisioni e generare idee da sola, anche quelle che gli esseri umani difficilmente sceglierebbero.