Tentacle Magazine / Intelligenza Artificiale / TM8

L’algoritmo dell’apocalisse

L'intelligenza artificiale spiegata da un filosofo

DI Francesca Fantini / luglio 2024

L’umanità è un argomento complesso. La si può tentare di capire da diversi punti di vista, indagando anche, per esempio, le tecnologie che produce, estensioni dell’ingegno e della capacità dei sapiens di trasformare l'ambiente circostante. L’ultima novità - l’intelligenza artificiale generativa - è un prodotto sofisticato che tuttavia solleva interrogativi filosofici, etici e poi anche pratici, a partire dal suo stesso nome: si può davvero definire intelligenza? Solo l’apocalisse, inteso nel suo primigenio significato che è “rivelazione”, può fare chiarezza.

Diceva McLuhan che ogni invenzione o tecnologia è un’estensione del nostro corpo, che impone nuovi rapporti o equilibri tra gli organi. Con l’avvento della ruota abbiamo esteso al di fuori di noi i nostri piedi, con i vestiti - o con le mura delle città - la nostra pelle. Con la tecnologia elettrica abbiamo esteso il nostro sistema nervoso centrale. L’intelligenza artificiale generativa è un tentativo di estendere al di fuori di noi la parte più intima, il pensiero, cioè di fatto l’essenza di noi stessi? Che impatto avrà questo sulla nostra società? 
Abbiamo approfondito il tema con il professore Eugenio Mazzarella, filosofo e poeta italiano, docente di Filosofia teoretica all'Università Federico II di Napoli.

- Professore, partiamo dalle basi, e cioè dal termine “intelligenza artificiale”. Che cosa significa per lei? Si può davvero parlare di una forma di intelligenza? 

Il termine intelligenza è il primo problema quando si affronta questo argomento. Un dilemma affascinante, ma che porta con sé un aspetto inquietante. 
All’intelligenza artificiale vediamo fare cose che noi non siamo in grado di fare: ci aiuta in tante attività, sbriga al posto nostro una serie di funzioni e in qualche caso minaccia di sostituirci. 
La prima regola è dunque interrogarci sul termine, per poterla maneggiare. 
Nel mio libro “Contro metaverso. Salvare la presenza”, parlo di truffa linguistica. In realtà fin dall’inizio, dai primi studi compiuti intorno agli anni ’50, l’intelligenza artificiale non è mai cambiata nella sua essenza: non è altro che un’enorme potenza di calcolo, molto più potente del nostro cervello. Ricordiamo DeepBlue, una sorta di computer che batté il campione del mondo di scacchi Garry Kasparov nel 1996: ecco il primo caso di algoritmo che sconfigge l’umano, ma in realtà l’intelligenza è un’altra cosa. Questa parola deriva dal latino intus legere, leggersi dentro, perché l’essere umano non è solo capacità di calcolo, ma capacità di guardarsi dentro. 
È il marketing che ha conferito l’enfasi di “intelligenza” a questa grande capacità di calcolo. Oggi infatti il marketing dell’IA ha piani di ricerca e sviluppo che muovono miliardi di investimenti, alla pari o poco meno del settore degli armamenti, e questo dice tutto: l’intelligenza artificiale è, in effetti, anche applicata ai sistemi d’arma.
Questa truffa linguistica è voluta, ci fa credere che raggiungeremo tutte quelle mete che non possiamo raggiungere con la nostra intelligenza naturale. E chi non vorrebbe essere in grado di fare di più, di essere di più? Il problema è se, mentre siamo spinti da questo sogno, non rischiamo di diventare meno di quello che siamo già.

- A questo proposito, quali sono secondo lei i possibili rischi - e quali invece i benefici - di una stretta integrazione tra IA e vita quotidiana?

Dipende dall’uso e dai fini a cui si applica l’intelligenza artificiale, poiché fini e uso sono ciò che ci mette in condizioni di valutare la tecnologia. 
Una delle prime invenzioni dell’umano, uno dei primi ritrovamenti è un utensile: una selce scheggiata, lavorata per ottenere una sorta di lama, che probabilmente serviva a ripulire le pelli, a tagliare il cibo per condividerlo, ma messa su un’asticella questa può diventare un’arma. Una doppia funzione di questa “tecnologia”, quindi: condividere o uccidere. 
Anche con l’IA non sfuggiamo al dilemma dell’uso: questo tipo di tecnologia può diventare uno strumento utile alla collettività oppure un’arma
Facciamo un passo indietro: una definizione di ordine aristotelico del concetto di “tecnica” è che questa sia di concezione antropologica strumentale. La tecnica esiste ai fini d’uso da parte dell’uomo. Oggi si enfatizza la tecnica, che però ci è da tempo sfuggita di mano: non sappiamo più come funzionano le cose, le utilizziamo e basta
Il processo della costruzione degli artefatti è diventato seriale a partire dalla catena di montaggio: non sappiamo più costruire un elemento nel suo intero, ne vediamo solo una piccola parte.
Questo principio si può riportare anche nell’ambiente tecnologico: per esempio, usiamo l’automobile, ma se capita un guasto al motore molto probabilmente non sapremo intervenire, come invece sapevamo fare decine di anni fa. Se qualcosa non funziona è necessario avere un sistema di “assistenza sociale”, un operatore che ci aiuti a gestire la nostra sudditanza agli oggetti tecnici, sia questo un meccanico o un esperto di sistemi digitali. 
L’intelligenza artificiale ha stressato talmente tanto il nostro rapporto con l’ambiente tecnologico che in realtà sorge il dubbio che siamo noi a controllare il processo tecnico: è più vero il contrario, ossia che è l’ambiente tecnico che detta le regole a cui noi umani dobbiamo conformarci
E se aggiungiamo il fatto che la grande potenza di calcolo dell’intelligenza artificiale può conoscere tutti i nostri movimenti - sapere cosa stiamo facendo sul web o dove stiamo viaggiando con l’auto - è chiaro che stiamo cedendo la sovranità della nostra libertà alla tecnologia.
Per quanto riguarda i benefici, il grande vantaggio dell’intelligenza artificiale è che funziona con lo stesso principio dell’elettricità: una tecnologia che abilita tante altre tecnologie. L’elettricità ha permesso lo sviluppo di una serie di apparecchi che funzionano elettricamente. E l’IA è ancora più pervasiva: renderà possibile molte più tecnologie di quante ne possiamo pensare, e una loro maggiore performatività

- Quale impatto prevede che l'IA avrà sul mercato del lavoro e sulla struttura sociale?

L’impatto è clamoroso. Porto avanti la tesi che l’IA è la terza soglia di crisi antropologica dell’epoca della tecnica contemporanea
La prima soglia è stata il nucleare: ha messo a repentaglio l’ambiente esterno. Ha reso possibile la distruzione potenziale del nostro mondo in quanto tale, anche se a fini di deterrenza, come vediamo oggi con la presenza di migliaia di testate nucleari, quando ne servirebbe una manciata per spazzare via l’umanità. Tuttavia, oggi l’IA può interagire con i sistemi d’arma anche in modo non intenzionale e potrebbe fare accadere eventi inaspettati.
La seconda soglia di crisi antropologica è stata la scoperta del DNA, che ha messo a repentaglio il nostro ambiente interno. Abbiamo reso manomettibile il corpo umano, persino nella sua progettazione. E poi abbiamo dovuto inventare istituti sociali di riflessione, gestione e contenimento di questa attività.
L’IA è la terza soglia di crisi antropologica ed è ancora più pericolosa perché mette le mani nel terzo ambiente dell’uomo, il più delicato: la testa. Il cervello, lo sappiamo, non è solo la massa grigia che sta nella scatola cranica. È un sistema di relazioni esteso in un ambiente psicofisico. Si parla proprio di mente estesa: costruisco me stesso, modello me stesso mentre modello il mondo esterno e mi relaziono con l’ambiente. Le cose al di fuori di noi ci danno degli input, delle possibilità operative che possiamo scegliere di cogliere oppure no. 
Se l’elemento che mi condiziona e mi dà opportunità - e modellandolo, io modello me stesso - è molto più forte di me, io a mia volta vengo modellato al livello fondativo della mia esperienza. È il caso dell’intelligenza artificiale, dove tuttavia chi ha la consolle decisionale sono pochi individui al mondo, una decina in tutto. Decidono loro come io devo immaginare le cose, governano loro l’ambiente virtuale. In questo senso siamo esposti all’espropriazione della nostra esperienza. Anche quelli che l’IA la costruiscono e la vendono hanno cominciato a dirlo, poiché hanno avuto alcuni incidenti. Si parla di “sparizione dell’umano”: non come entità fisica, ma come presenza a se stesso. Salvare la presenza significa salvare come si sta al mondo: presenti a se stessi, liberi di costruirsi attraverso rapporti naturali con l’ambiente esterno, o eterodiretti da un sistema socio-macchinico digitalizzato che ci dice come vivere, come pensare? 

- Come possiamo fare per superare i problemi sociali che ci pone l’uso dell’intelligenza artificiale?

Lo dico citando Umberto Eco: quando si parla di intelligenza artificiale vale la dicotomia tra apocalittici e integrati.
Nel lessico comune l’apocalisse indica un evento distruttivo, di grandi calamità che minacciano l’esistenza umana. Tuttavia, il significato primigenio di apocalisse è “rivelazione”: una capacità di disvelamento. Abbiamo bisogno di un approccio apocalittico all’IA: un approccio riflessivo per capire cosa stiamo maneggiando, affinché possiamo imparare a governarlo e ad essere all’altezza. Solo così possiamo forse scongiurare il contenuto apocalittico, inteso come estinzione dell’umano. 
Chiaramente, non è possibile evitare l’ambiente tecnologico al quale apparteniamo.
Il punto è porre un sistema di freni tale che esso regga i rischi. Il diritto, l’authority, la privacy, l’AGCOM, l’AI ACT sono tutti tentativi di regolazione della tecnologia e dell’IA sul piano dell’impatto sociale che queste avranno. 
L’IA deve aumentare la capacità di aiutare le persone e non quella di ucciderle, per esempio con sistemi d’arma “intelligenti”. Il problema è governare l’implementazione di questa tecnologia nella società, attraverso tutte le altre tecnologie sociali che abbiamo a disposizione. Noi non siamo solo la tecnologia strumentale di calcolo operativo, ma siamo anche tecnologia sociale: la filosofia, l’esercizio di riflessione che stiamo facendo in questo articolo, la sociologia, la morale, la religione con i suoi comandamenti che dettano ordini pratici alla società. Quando perdiamo l’orizzonte di controllo sociale che ci dà il legame comunitario gestito con queste tecnologie d’antan che sembrano poco alla moda, poi alla fine dobbiamo consegnare tutto alla sanzione penale. Per cui siamo costretti a fare il regolamento sull’IA, per esempio, per tutelare la nostra libertà. La libertà è stata una conquista tarda e molto importante nella storia dell’umanità, e dobbiamo cercare di non perderla

Iscriviti alla nostra newsletter Dimmi Di+

CHE ASPETTI?

CHI L’HA SCRITTO?

Francesca Fantini
Francesca Fantini

Nata da un felice connubio tra Italia del nord e del sud, possiede il gene prepotente della curiosità. Copywriter di professione, storyteller per vocazione, vegetariana per scelta, nel tempo libero fa esperimenti ai fornelli e acquista più libri di quanti potrà mai leggerne.

Hai detto newsletter?
Iscriviti a Dimmi Di+!