Federico
Faggin: usare, non essere usati… “L’intelligenza artificiale sta alla mente come
l’energia nucleare sta al corpo perché ha stessa capacità istruttiva e
distruttiva verso gli aspetti mentali della società, di quella nucleare verso
gli aspetti fisici... Usarla senza etica è veramente giocare con il fuoco” son
parole scritte nel saggio: Oltre l’invisibile di Federico Faggin, il
fisico, inventore, imprenditore, diventato anche filosofo e scrittore, ormai
noto in tutto il mondo non solo come padre del Touchpad e Touchscreen, oltre ad
altre sue “creature” in ambito informatico. Che
stiamo vivendo un periodo storico davvero molto delicato è sotto gli occhi di
tutti non soltanto a livello globale, ma anche nella nostra piccola sfera
d’azione, tempestati da informazioni e sollecitazioni che ci giungono da
ovunque e dalle quali dobbiamo difenderci, soprattutto decodificando quelle
reali rispetto a quelle costruite “artificialmente”. L’inganno
dell’intelligenza artificiale è subdolo: può diventare una zavorra o un
propulsore della nostra evoluzione nella misura in cui noi capiamo i suoi
limiti e la usiamo nella maniera giusta; perché è necessario avere ben presente
che siamo noi ad averle dato la possibilità di elaborare risposte immettendo i
dati e non il contrario.
Verso la
fine degli anni Cinquanta nell’ambito dell’informatica ha iniziato a farsi
strada l’idea che i computer potessero essere usati non solo per semplici operazioni
matematiche, anche se in effetti la velocità con cui ci sollevavano da calcoli
complessi e noiosi era già un bel sostegno: in un secondo erano in grado di
fare mille moltiplicazioni di trentadue cifre. Dal
semplice ordinare le parole in modo sequenziale, si è passato a cercare di
avere risposte su cose più sofisticate: così è nata l’idea di insegnare al
computer a ragionare, molto meccanicamente, in modo da poter essere usato
secondo le regole immesse da noi, cioè regole meccaniche, non essendo noi
creatori in grado di “soffiare” al suo interno spirito divino. Il
concetto che il computer fosse in grado di realizzare un prodotto caratteristico
dell’intelligenza umana ha fatto sì che prendesse forma l’idea di chiamare
questa capacità, questo tipo di programmi, Intelligenza Artificiale, snaturando
il significato del sostantivo intelligenza. È
necessario chiarire che la nostra intelligenza va ben oltre la capacità di un
semplice ragionamento logico: noi siamo forniti di intuito e abbiamo un immenso
bagaglio di conoscenze a livello inconscio che, attraverso la creatività,
possiamo fare emergere. Il
computer no, il computer non ha inconscio, ovviamente, e possiede solo ciò che
il programmatore ha inserito, anche se adesso ha imparato a eseguire programmi
che fanno abbastanza paura… Sul termine
“intelligenza” c’è molto da discutere perché la parola in sé richiede la creatività
umana: siamo immersi in una realtà in movimento di cui percepiamo sfumature
perché siamo in grado di capire quello che sta succedendo attorno a noi e non
solo attraverso il ragionamento. Abbiamo
buonsenso (non sempre) e sappiamo quel che stiamo facendo (il più delle volte) affiancando
al ragionamento logico anche quello che viene dal cuore: abbiamo empatia. Desideriamo
confrontarci, lavorare insieme. Per il
computer tutto questo non esiste: possiamo definire il prodotto di questa
macchina, priva delle connotazioni attribuite a noi, “intelligenza”? Il computer
dà semplicemente una sequenza di simboli che sono programmati da algoritmi, da
regole che danno un prodotto asettico.
Chiamare “intelligenza”
ciò che non si avvicina nemmeno minimamente a quella umana è un problema grave,
perché tende a confondere chi non è perfettamente radicato nel proprio essere e
crede nella fandonia che in un prossimo futuro saremo ampiamente superati da
tale macchina. C’è da
dire che i computer di oggi realizzano cose che una persona media non riesce a
fare, una su tutte descrivere ciò che non sa; ma possiede tutte queste informazioni
perché lo abbiamo infarcito di tutti i dati che l’umanità ha creato dall’inizio
della nostra cultura umana a oggi. Infatti
sono stati usati tutti i testi di Wikipedia (milioni e milioni di parole dei
libri più importanti che siano mai stati scritti) per fare imparare al computer
le correlazioni tra i simboli, con processi molto difficili, molto costosi (due
o trecento milioni di dollari per un apprendimento del genere) e tempi molto
lunghi. Se poniamo
domande che non rientrano nelle informazioni conosciute da noi, verremo
esauditi con il risultato delle conoscenze acquisite dalle varie fonti, risulta
cioè l’opinione della media delle persone che conoscono l’argomento, in base a
un mero calcolo delle probabilità. Quando
conosciamo bene una materia, dominiamo il computer, per cui abbiamo un margine
di errore molto basso, altrimenti possono succedere fatti incresciosi: a volte
le risposte possono essere credibili, avvicinarsi ed essere simili a quelle che
daremmo noi, ma non esattamente con il giusto significato.
L’abuso
dei nomi è iniziato prima del termine Intelligenza Artificiale: è iniziato con Claude
Shannon che ha chiamato “informazione” la semplice probabilità, la funzione
della probabilità che un simbolo si manifesti in una serie di simboli; ad
esempio la probabilità che una lettera dell’alfabeto faccia seguito alle
lettere che ci sono già. Per noi
simbolo e significato hanno una coesione imprescindibile e usiamo i simboli per
rappresentare il significato: quando dico “Ti voglio bene” rispondiamo al bene
che sentiamo, all’amore che sentiamo, non diciamo “Ti voglio bene” perché c’è
un altro segnale che dice di dire “Ti voglio bene”. Il computer
se osserva un sorriso e se gli abbiamo detto che a quel sorriso bisogna
rispondere “Ti voglio bene” lo farà senza capire niente, perché non prova
niente: non ha sensazioni, non ha sentimenti, non ha cuore, non ha intuizione (che
è la parte alta del nostro intelletto); ha solo correlazioni tra simboli che
sono legate agli apprendimenti che noi gli abbiamo imposto modellando un numero
altissimo di parametri. GPT4 è
composto da 2 trilioni di parametri (di numeri) che incorporano le probabilità
dei simboli di quello che hanno imparato. Nel nostro
cervello ci sono 100 trilioni di parametri: cioè siamo infinitamente più ricchi
di parametri, acquisiti nella nostra vita, in confronto a quelli dei computer
pur evolutissimi. Ma i parametri
che possediamo non sono nulla in confronto alla Coscienza che controlla e
capisce il significato di questi parametri. Il
significato di questi parametri non esiste nel cervello: esiste in un campo di
realtà, un campo quantistico molto più profondo di quello che esiste nello
spazio/tempo.
“La
conoscenza che abbiamo del sapore assaggiando un pezzetto di cioccolato (diretta)
è diverso da quello che potremmo avere dalla lettura di un libro che ne
descrive il sapore (conoscenza indiretta). Chi legge il libro ma non ne ha mai
assaggiato una scheggia non può conoscere il sapore, anche se può ripetere
quello che ha letto, al punto di poter ingannare chi lo ascolta facendo credere
di aver vissuto quell’esperienza” sempre dal libro Oltre l’invisibile
di Federico Faggin. Questo è
il grande inganno della cosiddetta IA, perché capire la differenza tra
significato e simbolo è la base della nostra realtà comunicativa: per noi
l’informazione senza significato non è informazione, mentre per il computer
l’informazione non ha significato perché nei suoi meccanismi non esiste proprio
il concetto di significato. L’informazione
x il computer sono semplicemente dei Bit in memoria che l’Unità Centrale dice
che a questi Bit in memoria devono seguire altri Bit in memoria e nient’altro:
da un simbolo si passa a un altro simbolo senza passarne dal significato.
Quando
sentiamo una parola capiamo il significato del simbolo: a volte le parole sono
ambigue, per cui la risposta che vogliamo dare è legata al significato dentro
di noi di quello che vogliamo dire. Anche se
il computer sembra dire cose sensate il significato è semplicemente una
probabilità: quando entra in funzione l’algoritmo dell’apprendimento indica la
parola successiva che ha la più alta probabilità di essere quella giusta, data la
sequenza di parole. Non
avendo funzioni elaborative dei significati, in presenza di una programmazione
ottimale, che prevede una forte correlazione tra simboli e significati, il
computer potrà dare risposte sensate, ma potrebbe capitare che questo non
accada. L’essenziale
è non dare per scontato che l’IA sia superiore alla nostra intelligenza e
soprattutto mai fidarsi completamente, anche se ci viene presentata come
migliore di noi, cosa che non è assolutamente vera: noi siamo spinti a credere
a qualcosa di più intelligente dell’essere umano, ma non è così. Subentra
anche un altro fattore: l’IA è arrivata a un picco di sapere molto alto, ma
l’uomo è in evoluzione e nei suoi processi creativi può raggiungere un ampliamento
della sua conoscenza quasi illimitata. Immettendo
nel programma dati non compatibili con i precedenti si rischia di far
commettere al computer errori maggiori, perché non è in grado di metabolizzarli
elaborando creativamente il tutto. Mancano
le correlazioni coerenti perché non capisce: capire il significato ed
elaborarlo con i dati che sono già inseriti è un processo creativo che l’IA non
possiede.
Qual è
allora il vantaggio? Diventiamo
molto molto più produttivi ma non sostituibili. Se è alla produttività che
puntiamo, l’uso dell’IA ha un senso, sempre tenendo presente quanto l’uso eccessivo,
per un certo verso, tenda ad affievolire la spinta creativa insita in ognuno di
noi. [Elaborato
da una intervista a Federico Faggin sul web]