Scienze e tecnologia

Intelligenza Artificiale e Morale

Ad oggi si può leggere di tutto sull’Intelligenza Artificiale: «Undici asteroidi potenzialmente pericolosi scoperti dall’Intelligenza Artificiale», oppure «Ecco il primo farmaco sviluppato dall’ AI», o ancora «Elezioni USA: un’AI aveva previsto tutto». L’ introduzione di una tecnologia tanto semplice a livello ideale, quanto complessa nella sua realizzazione, ha portato vantaggi in tutti i campi immaginabili. Per capirci, ogni volta che fate una ricerca su Google o che mettete un like su Instagram, un’AI si mette all’opera per memorizzare e costruire la vostra personalità. Non bisogna dunque stupirsi se arrivano notifiche del tipo: “Matteo! A 50m c’è una gelateria, sicuro di non voler far un salto? So quanto ti piace il gelato”. Anche senza essere laureati in Business Analytics, si può intuire che questo tipo di servizio giova una quantità cospicua di denaro nel mercato. Gli investitori investono, i consumatori consumano.

Ma di cosa stiamo parlando esattamente?  Un’intelligenza artificiale “pensa” o è come una qualsiasi macchina che elabora dati? Cerchiamo di fare chiarezza.

Intelligenza Artificiale: che cos’è e come si comporta

Secondo David Orban, imprenditore e professore al MIT (Massachusetts Institute of Technology), con Intelligence si intende: «la capacità della materia di organizzarsi in modo da tracciare il percorso da seguire per raggiungere un obiettivo, organizzando le risorse necessarie per raggiungerlo». Basta ora accostare la parola Artificial per indicare che il processo non è compiuto da un umano, bensì da una macchina. L’immagine di un cervello biologico, strettamente legato al concetto di mente e quindi di anima, è fortemente controintuitivo. Si deve invece pensare all’intelligenza come un sistema, un metodo applicato con il fine di raggiungere un risultato.

Il modo più efficace per addestrare un computer a costruirsi una intelligenza viene chiamato Supervised Learning. Questo processo consiste nel sottoporre la macchina ad un training test, durante il quale l’AI cerca di adattarsi, costruendo il percorso migliore per raggiungere lo scopo. Risulta qui fondamentale l’impiego dell’uomo, che corregge i suoi errori. In una seconda fase l’intelligenza artificiale subisce un set test, dove si verifica che abbia appreso un metodo e non puramente processato a memoria.

Facciamo un esempio: supponiamo di voler insegnare a Britney (nome della nostra AI) a distinguere i colori. In un primo momento le facciamo vedere i colori principali e le insegniamo i corrispettivi nomi (training test): azzurro, blu, viola, verde, rosso, ecc. Se dopo i primi test Britney riesce a riconoscere i colori autonomamente, la sottoponiamo ad un test finale. Le mostriamo colori che non ha mai visto, come verde acqua o lilla, e ci aspettiamo che lei associ ad ogni nuovo colore uno di quelli che ha già memorizzato (set test). Tuttavia, non vogliamo che lo faccia in modo univoco, bensì che lei ci dia in uscita: verde acqua (45% azzurro 65% verde), lilla (75% rosa 22% viola 3% bianco). In pratica, si dovrebbe comportare come un umano nel vedere un colore che non riconosce: “quel colore è molto simile al verde, però non è proprio verde”.

Paure nascoste

L’unità fondamentale dell’intelligenza artificiale viene chiamata nodo, il quale non è altro che il neurone del cervello robotico. Come per un cervello umano, un cervello artificiale è composto da milioni di nodi, con altrettanti collegamenti. Ogni nodo ha in sé una funzione matematica e clausole differenti che regolano il flusso di informazioni. Dovrebbe ora risultare intuitivo che per noi esseri umani è virtualmente impossibile stare al passo con questa miriade di calcoli al secondo. Per lo stesso motivo, anche seguire il percorso dell’informazione risulta essere complicato. Dunque, una volta che la barca viene lasciata andare, non sappiamo che rotta prenderà. Sappiamo solo o che arriverà alla destinazione appropriata o si perderà per strada.

Ma tutto ciò non è pericoloso? Non potrebbe accadere che, nel suo impeccabile e matematico ragionare, un’intelligenza artificiale arrivi alla semplice e lineare conclusione che, per esempio, l’intera stirpe umana vada eliminata? E’ a questo punto che dobbiamo chiederci: può un’ intelligenza artificiale possedere una morale che guidi le sue decisioni?

Morale: una questione di scelta

Quando si parla di morale, solitamente si ha la falsa impressione che questa sia immutabile. Tuttavia, sebbene nella storia della filosofia si sia parlato di una morale ideale che l’umanità avrebbe raggiunto nel corso del tempo, oggi è consuetudine accostare il concetto di moralità alla parola normale. Se fino al secolo scorso era “normale” che le persone di colore non potessero sedersi in fianco a bianchi, oggi tale atteggiamento viene considerato razzista. Inoltre, geograficamente parlando, la moralità si manifesta sotto forme diverse: in Italia è normale che le persone consumino alcolici, in Arabia Saudita è tutt’ora illegale.

Morale deontologica o consequenziale

La morale si può distinguere in due macro categorie principali: deontologica e consequenziale. La prima sostiene che la morale dipenda da un fattore intrinseco all’azione stessa (io non rubo perché in generale credo che sia sbagliato farlo), mentre la seconda crede che la morale stia nella conseguenza dell’azione (rubare può essere giusto se lo faccio a fin di bene).

In entrambi i casi, un’attività puramente computazionale nella quale un’AI cercasse di scoprire una morale ideale, sarebbe totalmente inutile. In primo luogo, non ci sarebbe modo di dimostrare che la morale scoperta dall’automa sia unica e veritiera, e in secondo luogo, l’impiego di tale morale potrebbe non trovare campo in una popolazione legata ai suoi principi e tradizioni. L’attività dell’intelligenza artificiale dovrebbe essere costantemente aggiornata e giudicata dagli uomini stessi. Solo in questo modo ne conseguirebbe un senso utilitaristico, non trascurabile dal momento in cui un progetto del genere potrebbe essere sovvenzionato solo da grandi imprenditori o compagnie, che non investirebbero mai in qualcosa che non fornisca loro un tornaconto economico.


Fonti

Singolarità – Con che velocità arriverà il futuro (MIT Professor David Orban 2015):
https://www.hoepli.it/libro/singolarit/9788820370459.html

Can artificial intelligence have morals? (Domane e risposte sul blog Quora 2017):
https://www.quora.com/Can-artificial-intelligence-have-morals

L’intelligenza artificiale sta cambiando l’uomo, così come la nostra morale (Fabiana Giacomotti – Articolo per Il Foglio 2018):
https://www.ilfoglio.it/tecnologia/2018/11/25/news/lintelligenza-artificiale-sta-cambiando-luomo-cosi-come-la-nostra-morale-225533/

La rinascita dell’etica delle virtù (Sergio Cremaschi – Professore Associato Facoltà di Lettere e Filosofia Dipartimento di Studi Umanistici 2002):
https://philarchive.org/archive/CRELRD-2

https://www.arateacultura.com

William Zeni

WebMaster - Redattore in Scienza e Tecnologia