Hans Jonas e l’intelligenza artificiale
Con una decisione del 31 marzo scorso, l’Autorità italiana per la protezione dei dati personali ha vietato l’uso del Pogramma AI ChatGPT. Il divieto è stato successivamente revocato dopo che la società OpenAI, che offre ChatGPT dalla California, ha accettato di rispettare le condizioni per la protezione dei dati personali e dei bambini stabilite dal Garante. Pubblichiamo al riguardo la traduzione di un intervento scritto da Paul Nemitz, l’artefice del Regolamento generale sulla protezione dei dati dell’UE, che l’Autorità italiana per la protezione dei dati ha applicato a ChatGPT, per la testata ebraica tedesca “Jüdische Allgemeine”:
Hans Jonas e l’intelligenza artificiale
Quando, come nel dibattito odierno sull’intelligenza artificiale, le promesse di salvezza vengono accostate alle previsioni di apocalisse, occorre essere cauti. Era già successo con l’energia nucleare. E infatti, sia il fondatore di Microsoft Bill Gates che il fondatore di Tesla e ora padrone di Twitter Elon Musk hanno paragonato l’IA all’energia nucleare, con il suo presunto grande potenziale e i suoi enormi rischi. La cosiddetta intelligenza artificiale, che attualmente non è altro che statistica applicata combinata con meccanismi di autoapprendimento computerizzato, sta affascinando molti perché produce testi incredibilmente leggibili sotto forma di ChatGPT, partendo da domande o inizi di testo che sottoponiamo al programma. Al momento chiunque può provarlo. Questo sistema di OpenAI in California, originariamente fondato come no-profit, sta già producendo miliardi di entrate per Microsoft, che ha acquistato OpenAI per decine di miliardi. Un po’ più vicino a noi, possiamo vedere dal software di traduzione DeepL di Colonia i progressi che l’intelligenza artificiale ha fatto negli ultimi anni nella padronanza del linguaggio. È bene sapere che Deepl traduce meglio dei servizi di traduzione del gigante statunitense dell’intelligenza artificiale. Perché la traduzione, secondo Umberto Eco, è la lingua comune dell’Europa.
L’Europa non è rimasta indietro nell’IA né è alla mercé dell’IA americana. Possiamo fare tutto questo molto bene da soli. A differenza dell’America, però, abbiamo imparato a pensare a lungo termine e a valutare e contenere correttamente i rischi delle nuove tecnologie. Questo lo dobbiamo anche a Hans Jonas, il filosofo religioso ebreo che è dovuto fuggire dalla Germania in America e ha insegnato alla New School of Social Research di New York. Nel 1979 scrisse il libro “Il principio responsabilità”, che divenne il punto di riferimento del movimento antinucleare in Germania e raggiunse una tiratura di 250.000 copie.
Vale la pena di dare un’occhiata a questo libretto. Jonas ci sta dicendo: se abbiamo a che fare con tecnologie che hanno il potenziale di spazzare via l’umanità o di cambiare radicalmente ciò che significa essere umani sulla terra, allora abbiamo il dovere di prendere precauzioni per garantire che le peggiori conseguenze di quella tecnologia non possano mai verificarsi. Abbiamo questo dovere anche se non siamo sicuri che queste conseguenze si verificheranno mai. In particolare, dovremmo fare due cose: in primo luogo, investire nella comprensione della tecnologia e delle sue possibili conseguenze a lungo termine, per essere in grado di fare una valutazione d’impatto ragionevole. In secondo luogo, dobbiamo metterci oggi nella posizione, emotivamente e politicamente, di prendere le decisioni difficili necessarie per escludere con quasi certezza la possibilità che si verifichino conseguenze terribili, anche se non sappiamo con certezza che potrebbero verificarsi e quando.
Hans Jonas appartiene al ristretto gruppo di filosofi il cui lavoro ha effettivamente cambiato il mondo. Il suo principio di responsabilità è stato incorporato nel diritto europeo sotto forma di principio di precauzione. Questo principio, odiato dai neoliberisti di questo mondo, all’inizio era solo un principio di diritto ambientale. In seguito, la Corte di Giustizia dell’Unione Europea lo ha elevato a principio generale della legislazione.
In questo contesto è giusto che il Parlamento europeo e il Consiglio dei Ministri dell’UE, che riunisce i governi degli Stati membri, adottino congiuntamente una legge sull’IA. Questa legge, sotto forma di regolamento direttamente applicabile, divide l’IA in quattro classi di rischio. Le forme di IA vietate comprendono i cosiddetti sistemi di social scoring di tipo cinese. Le altre tre classi di rischio stabiliscono obblighi proporzionati per garantire che i diritti fondamentali, la democrazia e lo Stato di diritto continuino a funzionare bene nell’era dell’IA. Questo regolamento dell’UE aumenterà l’efficacia delle leggi esistenti sulla protezione dei consumatori o sulla protezione dei dati in relazione all’IA. Non verranno creati nuovi obblighi, ma solo quello che un ingegnere e un informatico ragionevole e responsabile farebbe comunque verrà elevato a obbligo legale. E fin dal grande studio di Eugen Kogon sull'”ora dell’ingegnere” del 1976 sappiamo che gli ingegneri, in quanto individui, vogliono agire in modo molto responsabile. Ma l’avidità di profitto del capitalismo predatorio (Helmut Schmidt) rende spesso molto difficile per gli individui agire in modo responsabile. Affinché gli individui non siano lasciati soli con le loro pesanti responsabilità, abbiamo bisogno di leggi come l’AI Act dell’UE. Perché non c’è dubbio che l’IA avrà un impatto enorme e che un giorno potrebbe addirittura superare gli esseri umani sotto ogni aspetto, sotto forma di IA generale. Il filosofo svedese Nick Bostrom, che insegna a Oxford, ha definito l’IA generale l’ultima invenzione dell’umanità. E Stuart Russel, autore del più importante testo di IA per le università, ha scritto della necessità di risolvere il problema del controllo che sorge quando un sistema tecnico diventa più intelligente dell’uomo sotto ogni aspetto.
Gershom Sholem, filosofo fuggito della Germania nazista in Palestina e cofondatore dell’Istituto Leo Baeck, convocato nel 1966 da Chaim Pekeris, professore di matematica all’Istituto Weizmann, dove era stato appena sviluppato un computer, diede il nome di “Golem Aleph” (Golem numero 1) a questo dispositivo che, secondo gli scienziati, avrebbe dovuto compiere miracoli. Il filosofo dedicò al computer “Golem Aleph” un grande discorso che è bene rileggere oggi, sostituendo “Golem” con “IA”. Si chiedeva: cosa hanno in comune il Golem di Praga e il Golem Aleph come concetto di base? Il golem può crescere? Può assumere forma umana? Può ricordare e parlare? Può il golem amare? Alla fine, ha augurato al golem di “svilupparsi pacificamente e non distruggere il mondo. Shalom”.
Questa è la mia opinione personale e non necessariamente quella della Commissione Europea.
Paul Nemitz
(L’autore ha scritto con Matthias Pfeffer “The Human Imperative, Power, Democracy and Freedom in the age of Artificial Intelligence”, Ethics Press, Cambridge, in uscita a giugno.
È fiduciario del Leo Baeck Institute di New York, dove sono conservati i disegni a mano di Hans Jonas dei suoi colleghi filosofi durante le riunioni)