La pericolosa banalità dell’Algoretica e dell’Antronomia. Ovvero la pretesa di sostituire il ‘computabile’ all”umano’

Mi scrive un amico segnalandomi un articolo di padre Paolo Benanti. Mi segnala in particolare una frase: “Dobbiamo stabilire un linguaggio che sappia tradurre il valore morale in qualcosa di computabile per la macchina. La percezione del valore etico è una capacità puramente umana. Lavorare valori numerici è invece abilità della macchina. L’algoretica nasce se siamo in grado di trasformare in qualcosa di computabile il valore morale.”

La pretesa di rendere i valori morali computabili da una macchina è insidiosa. Se si considera veramente il valore morale è computabile, si apre la strada all’espropriazione dell’etica.

Primo passaggio: i valori morali cessano di essere valori dell’essere umano e diventano patrimonio dell’esperto capace di trasformare l’etica in qualcosa di computabile. Ma computabile vuol dire: eseguibile da una macchina. Si apre così la strada -secondo passaggio- all’autonomia morale della macchina. Terzo passaggio: la macchina, che computa meglio dell’essere umano, sarà forse più morale dell’essere umano.

Ecco dunque apparire sulla scena la Moral Machine. Porta questo nome un progetto del MIT.  Ma, a proposito delle ‘macchine morali’, la descrizione più significativa mi pare si trovi nella conclusione del Book of Why di Judea Pearl. Qui il discorso è chiaramente sviluppato fino al terzo passaggio. (Per evitare fraintendimenti e sottolineare il pericoloso rilievo di questa posizione, trascrivo le frasi in inglese e aggiungo una mia traduzione).

“Once we have built a moral robot, many apocalyptic visions start to recede into irrelevance. There is no reason to refrain from building machines that are better able to distinguish good from evil than we are, better able to resist temptation, better able to assign guilt and credit. At this point, like chess and Go players, we may even start to learn from our own creation. We will be able to depend on our machines for a clear-eyed and causally sound sense of justice. We will be able to learn how our own free will software works and how it manages to hide its secrets from us. Such a thinking machine would be a wonderful companion for our species and would truly qualify as AI’s first and best gift to humanity”.

“Una volta che avremo costruito un robot morale, molte visioni apocalittiche inizieranno a recedere nell’irrilevanza. Non c’è motivo di astenersi dal costruire macchine che siano in grado di distinguere il bene dal male meglio di noi, meglio in grado di resistere alla tentazione, meglio in grado di assegnare colpe e meriti. A questo punto, come i giocatori di scacchi e di Go, potremmo anche iniziare a imparare dalla nostra stessa creazione. Saremo in grado dipendere dalle nostre macchine per un senso di giustizia lucido e causalmente sano. Saremo in grado di imparare come funziona il nostro software di libero arbitrio e come riesce a nasconderci i suoi segreti. Una tale macchina pensante sarebbe una meravigliosa compagna per la nostra specie e si qualificherebbe veramente come il primo e miglior regalo dell’IA all’umanità”.

Dovremmo dunque dipendere da macchine per concepire il senso della giustizia. Dovremmo considerare lo stesso umano libero arbitrio un software. Dovremmo considerare la ‘macchina pensante’ compagna meravigliosa per la nostra specie, dovremmo apprendere da lei chi siamo e come pensare rettamente. Macchina maestra di etica. Questo non lo sostiene un delirante fanatico, lo sostiene in un libro del 2018, Judea Pearl, stimatissimo computer scientist, vincitore del Turing Award nel 2011.

Luca Peyron è un pensatore meno presuntuoso di Benanti, e aveva scritto anche cose interessanti sul corpo umano nei tempi digitali, ma in fondo segue lo stesso percorso, o anzi partecipa alla stessa ricorsa proponendo l’antronomo.

“L’antronomo è colui o colei che in un processo di creazione di un prodotto o servizio legato alla trasformazione digitale e le tecnologie emergenti pone l’umano come norma”. Non competerà più all’essere umano conoscere il senso dell’umano. A dirci cosa è l’umano sarà d’ora in poi un Esperto Legittimato, iscritto ad una corporazione, dotato di patente attribuita dalla corporazione stessa.

L”umano come norma’ di Peyron ci appare così vicinissimo al ‘valore morale’ di Benanti. Tutto deve essere detto da Esperti.

AlgoreticoAntronomo. In entrambi i casi si tratta di due esemplari Disabling Professions. L’avvento in ogni ambito di caste di esperti riduce gli spazi di partecipazione sociale, impedisce l’esercizio di una cittadinanza attiva e deprime la stessa qualità del pensiero. Il membro di una casta di esperti è portato a subordinare il proprio pensiero alla difesa del ruolo e a colludere con gli appartenenti ad altre caste di esperti.

La presenza di esperti che parlano al posto loro depotenzia e deprime l’essere umano. Ciò è vero in modo speciale per quanto riguarda l’etica. Ogni essere umano possiede una propria etica. Magari può faticare a portarla alla luce.

Potrebbe servire un amorevole accompagnamento teso a far crescere la consapevolezza della propria etica. Ma cosa fanno questi ‘esperti’. Pearl pretende di sostituire alla morale della persona la morale della macchina. Benanti dice: la percezione del valore etico è una capacità puramente umana; ma si candida per trasferire questa capacità alla macchina. Peyron condivide l’approccio: l’umano è una categoria astratta, riducibile a norma, che l’esperto conosce meglio dell’essere umano stesso.

A ben guardare è la posizione del Grande Inquisitore di Dostoevskji. Non si contempla un cittadino in grado di attingere il libero arbitrio, capace di responsabilità. Si considerano necessarie narrazioni attraverso il quale educare il popolo. Ben venga quindi l’algoretica, pensiero espresso tramite un codice dominato dall’élite e fuori dalla portata dei cittadini.  (Parlo di questa posizione, nella versione fatta propria dal Vaticano, in quest’altro articolo. E in modo più approfondito parlo di questo nel mio libro Le Cinque Leggi Bronzee).

Gli Esperti concordano nel passaggio chiave. Passaggio di stato. Tutto deve essere codificato in forma digitale. Tutti i nostri umanissimi discorsi devono essere resi computabili. E alla fine ci viene detto che i nostri discorsi non sono più i discorsi che noi abbiamo pronunciato. Ai nostri discorsi è sostituita la loro versione computata.

Servirebbe a questo punto una seria riflessione sul Digital Twin. Il senso del pretenzioso assunto implicito nel concetto di gemello digitale è questo: attraverso la raccolta di dati può essere costruita la rappresentazione virtuale di ogni entità fisica, vivente o non vivente. All’essere è sostituito l’essere digitale. Al ‘cerca te stesso’ -la domanda chiave della filosofia- è sostituito il ‘cerca te stesso nel tuo digital twin‘. Alla vita nel mondo è sostituita la vita nel Metaverso. All’etica enunciata attraverso le lingue parlate dagli esseri umani è sostituita l’etica computata.

Voglio invece continuare a pensare che l’etica sia pensiero umano. Pensiero che non necessita nessuna computazione per essere efficace. Voglio continuare a pensare che più di ogni macchina sia buon compagno per l’uomo l’uomo stesso.

L’essere umano è sfidato dall’avvento del digitale. La sfida può essere accolta considerando che, al di là di vantaggi che la digitalizzazione può portare, il futuro dell’essere umano va cercato oltre i confini dettati dalla computazione, dalla codifica digitale, dall’avvento di macchine autonome. Il futuro va cercato oltre l’esempio costituito dal modo di funzionare delle macchine.

Ma Benanti e Peyron, peccando di sudditanza, si fanno adepti della digitalizzazione, ovvero della sua trasformazione  in ‘qualcosa di computabile’.

Condividi:

Altri Articoli Recenti

Torna a tutti gli Articoli