Luci ed ombre attorno alle intelligenze artificiali

di Francesco Varanini

Sono sempre turbato quando leggo affermazioni come queste: “Credo che saremo in grado di creare macchine capaci di distinguere il bene dal male, almeno con la stessa affidabilità degli esseri umani e, auspicabilmente, con una maggiore affidabilità”. “Una volta che avremo costruito un robot morale, molte visioni apocalittiche inizieranno a recedere nell’irrilevanza. Non c’è motivo di astenersi dal costruire macchine che siano in grado di distinguere il bene dal male meglio di noi, meglio in grado di resistere alla tentazione, meglio in grado di assegnare colpe e meriti”. “Diventeremo allora capaci di farci indicare dalle nostre macchine il senso della giustizia più cristallino e causalmente fondato”. L’opinione di un credulone o di un fanatico, direte. Ma no: così scrive Joshua Pearl, eminente computer scientist, vincitore del Premio Turing.

Opinioni che allignano solo in una certa cultura americana, lontana da noi, potrebbe commentare qualcun altro. Ma no: leggete cosa scrive un illustre computer scientist italiano: “C’è un aspetto che è specifico, unico dell’intelligenza artificiale: i sistemi di AI potranno essi stessi prendere decisioni su basi etiche. Distinguere il bene dal male. Questo è un settore di ricerca recente destinato a espandersi”.

Se non bastasse, ascoltate le parole di un noto ricercatore italiano impegnato nel campo della robotica: “La saggezza artificiale è la sfida del futuro”. Sto lavorando al progetto robot con una “vita interiore etica”. Spiega il ricercatore: servono robot dotati di saggezza perché può capitare a noi umani di lanciare missili dotati di testate nucleari. Non possiamo fidarci di noi stessi. Servono quindi “robot con una coscienza”, con una “vita interiore etica”.

Qualcuno, a questo punto, mi dirà: sono eccezioni. Rispondo che non lo sono. Rispondo che comunque si tratta di ricerche che ricevono ricchi finanziamenti. Ma rispondo sopratutto ricordando che i punti di vista di questi scienziati e tecnologi non sono poi così lontani dal punto di vista di loro colleghi che restano lontani, nelle loro ricerche, dal cercar di costruire ‘macchine morali’, e che magari anche credono impossibile sviluppare Intelligenze Artificiali Generali, Superintelligenze capaci di surclassare ciò che è possibile per noi umani.

Cosa accomuna i ricercatori ‘fondamentalisti’ e i ricercatori ‘moderati’? Ciò che accomuna è questo: tutti in fondo manifestano una ‘preferenza per la macchina’. Tutti in cuor loro, alla fin fine, pensano che senza macchine sempre più potenti e più autonome da noi umani, non potranno essere risolti problemi -ecologici, politici, sociali- causati da noi umani. E tutti soccombono al fascino della macchina: al gusto di creare, e di osservare poi funzionare, una macchina capace di autosupervisionarsi nel proprio sviluppo e di autogovernarsi.

Non è difficile dare risposte scientificamente e tecnicamente inattaccabili a queste pretese.

Basterebbe per esempio ricordare che la ‘saggezza’ o la ‘coscienza’ di un agente artificiale non hanno nulla a che fare con la saggezza e la coscienza umana. Ingegneri, filosofi e psicologi possono scrivere qualcosa in un codice digitale, possono magari anche istruire algoritmi ad autosorvegliare il proprio sviluppo. Ma tutto questo resterà chiuso dentro i confini dell’imitazione e della simulazione dell’umano. Chiuso dentro i confini della computazione: un calcolo formale eseguito trattando numeri tramite una macchina – dove sono esclusi a priori, ed ignorati, i numeri che la macchina non è in grado di trattare.

Qualcuno potrà ora cavillare su questa mia definizione di computazione. Penso di essere in grado di rispondere ai cavilli. Ma non è questo il punto: non è in gioco qui per davvero un ragionamento logico o scientifico. E’ in gioco il desiderio, il bisogno di affidarsi alla macchina.

Basta ricordare le parole del capostipite, Alan Turing: tutto il suo pensiero si appoggia in fondo su una speranza, che è anche un grido di dolore: “We may hope that machines will eventually compete with men in all purely intellectual fields”. Possiamo sperare. Posso sperare. I hope. Ho bisogno di sperare che le macchine possano prendere il posto degli umani. Privo di affetti, deluso da sé stesso e dagli umani, a cominciare dai suoi stessi genitori, spera nella macchina.

La cultura digitale è figlia di questa speranza. Non si tratta di scienza o di tecnica. Si tratta di un affidamento. Di un bisogno che radica in storie personali e in situazioni sociali. Un bisogno di affidamento, la ricerca di un sostituto.

Dunque come rispondere?

Si risponde con umanissimi passi claudicanti. Con pensieri ed azioni umane fondati, anziché sull’affidamento alla macchina, sul farsi carico delle proprie responsabilità.

Indico le tracce di possibili risposte di due attori sociali: il tecnico ed il cittadino.

Quale che sia la via sulla quale il tecnico è incamminato; la via è sempre aperta alla conversione. Il tecnico può, ad un certo punto, rendersi conto di ciò che sta facendo. Fermarsi. Interrogarsi. Cambiare strada.

Vi pare difficile? Vi pare utopistico pensarlo? Forse non se parla abbastanza, ma proprio questa è la strada intrapresa, nei mesi successivi al trionfo universale delle cosiddette Intelligenze Artificiali Generative, di cui GPT è il caso esemplare, da più d’uno dei padri di questa tecnologia. Mi limito qui a ricordare le parole scritte sul suo blog, giusto un anno fa il 12 agosto 2023, da Yoshua Bengio, insigne computer scientist, Premio Turing.

“Sto cambiando idea su qualcosa di molto personale: mi chiedo se il mio lavoro, nella sua traiettoria attuale – la corsa a colmare il divario tra l’Intelligenza Artificiale via via più avanzata e l’intelligenza umana – sia allineato con i miei valori”. “Ora credo di aver sbagliato e di essere stato miope”. “Riuscire ad accettare di aver sbagliato, per noi stessi e agli occhi degli altri, è difficile ma necessario”. “Come può essere? E come possiamo trovare un terreno comune da cui procedere insieme per garantire che l’intelligenza artificiale sia al servizio del futuro dell’umanità?”. “Ho un nipote di 20 mesi a cui voglio molto bene e che è molto presente nei miei pensieri e nelle mie emozioni. E intanto il futuro è pieno di incertezza, e non mi illudo di sapere come andrà a finire”.

Si tratta, per i tecnici, di ‘tornare a casa’. Tornare ad essere cittadini ed esseri umani.

Ma anche se i tecnici non ‘tornassero a casa’, possiamo confidare nei cittadini. In ognuno di noi.

Non servono esperti che ammoniscono, che indicano la strada, che stilano manifesti e lettere aperte, che costituiscono comitati etici, o che pretendono di insufflare l’etica negli algoritmi.

Serve una cittadinanza attiva che prende posizione. Ci siamo entusiasmati e abbiamo apprezzato la bellezza di tante innovazioni digitali. Ma non abbiamo potuto fare a meno di vedere, non di rado, miserie dietro gli splendori. Serve una educazione civica digitale. Apprenderemo così a non cedere alla facile tentazione: affidare ad ‘intelligenze artificiali’ responsabilità che ci paiono troppo gravose.

Nel libro Splendori e miserie delle intelligenze artificiali. Alla luce dell’umana esperienza, Guerini e Associati, 2024, cerco di indicare un possibile percorso.

 

Condividi:

Altri Articoli Recenti

2044 Un minuto nel futuro

Anno 2044. Mi è stato concesso di viverci per un minuto. Solo un minuto di futuro vissuto. Ben diverso da un minuto di futuro immaginato.

La libertà di non essere digitali

di Francesco Varanini Un mio articolo con il titolo La sostenibilità alla prova delle professioni disabilitanti è uscito il 21 giugno 2023 su FUTURAnetwork, rivista

Torna a tutti gli Articoli