Intelligenza artificiale ed etica, tra progresso ed evoluzione – 30-05-2018 – Altalex – avv. Bruno Fiammella
E’ evidente che ad ogni nuovo step di progresso tecnologico, l’interrogativo principale che accompagna l’uomo è quello di capire se la direzione percorsa dal “progresso” sia in linea con quella “evolutiva” della persona, e del genere umano. Progresso ed evoluzione infatti, non sempre sono in sintonia, potendosi realizzare il primo senza (purtroppo) ottenersi il secondo. Con effetti potenzialmente gravi: tutto ciò che è progresso, ma che non potrà condurre ad una evoluzione, qui prodest ?
Viviamo nell’era del digitale e della interconnessione ad alto impatto relazionale, e, proprio alcuni mesi fa, è stato pubblicato il libro bianco sull’intelligenza artificiale (I.A.), un progetto coordinato dall’Agenzia per l’Italia digitale.
Senza ombra di dubbio, la direzione che prenderà la ricerca in questo settore, impone la risoluzione preliminare di alcuni interrogativi di carattere interdisciplinare (giuridici, etici, morali, filosofici, tecnico informatici) cui non ci si può sottrarre. La comunità scientifica infatti, già da alcuni anni, si occupa delle problematiche inerenti le modalità relative allo studio del procedimento logico-decisionale che “guida” l’intelligenza artificiale verso l’adozione di una determinata “risposta”, la risoluzione di un problema, rispetto ad un quesito alla stessa posto.
E’ inevitabile che il sistema “intelligente”, costruito secondo la logica boleana di 0 ed 1(binaria), sia frutto di uno o più elaborati algoritmi matematici, capaci di analizzare grandi quantitativi di dati da elaborare e rielaborare sino al raggiungimento della risposta più adeguata, o della predizione migliore sull’esito di una disputa, o sul rapporto tra differenti variabili.
Oggi, accanto alla logica booleana si sono affiancati gli studi e le ricerche sulle reti neurali ed esistono modelli matematici capaci di simulare le reti neuronali biologiche umane. Nella ricerca finalizzata all’utilizzo dell’intelligenza artificiale, questi studi vengono inquadrati nell’alveo di quella che viene definita come logica fuzzy, altrimenti nota come logica sfumata o logica sfocata. La logica fuzzy è utilizzata nello studio dell’intelligenza artificiale, per introdurre dei valori di verità intermedi, una sorta di valori valutabili da un computer nell’intervallo tra 0 ed 1, con dei punteggi intermedi (ad esempio di 0,4 o 0,6 etc.). In questo modo si raggiunge l’obbiettivo di poter avere dalla I.A. delle risposte che non siano necessariamente bianche o nere, vere o false, ma anche parzialmente vere o false o più vicine al valore bianco piuttosto che a quello nero.
Le scelte decisionali della I.A., quindi, andranno ad orientarsi su variabili comprese in nuovi intervalli di valutazione. Il problema è che spesso le scelte decisionali compiute dal sistema di I.A. sono correlate ai valori assegnati al software dal programmatore stesso, dal costruttore o eventualmente imposti dallo Stato per esigenze di sicurezza nazionale (si pensi a parametri applicativi delle I.A. in ambito militare).
L’algoritmo sarà condizionato a monte, propri nella fase più delicata e la sua previsione potrebbe essere viziata (nel bene e nel male) da un preconcetto o pregiudizio, anche inconscio inconsapevole del programmatore, o peggio, da volute esigenze del costruttore e del finanziatore. La programmazione di questi valori e di questi intervalli, quindi, è inevitabile che “orienti” il comportamento decisionale della I.A. verso la soluzione da prendere, caso per caso. Sembra inconfutabile il fatto che il processo di scelta, nella fase della introduzione delle variabili e delle informazioni da parte del programmatore, possa subire un condizionamento, indiretto, inconsapevole ed occulto.
Occorre allora domandarsi per comprendere se la direzione percorsa sia quella del cammino evolutivo e non del solo progresso tecnologico, sulla base di quali criteri sono state fatte le scelte ed inserite le scale di valori. (Il bene vita è sempre una priorità da preservare? tra un adulto ed un bambino occorre sempre salvare prima quest’ultimo?)
E’ chiaro cioè, come anticipato dal garante della privacy, che occorre conoscere l’intero iter decisionale assunto dalla macchina, per poterne valutare la correttezza e la congruità dell’operato e del risultato finale raggiunto e dalla decisione dalla stessa presa. E questo vale sia nei processi amministrativi burocratici cui fa riferimento il Garante (relativi all’adozione o meno di un atto finale di un procedimento) sia nei processi correlati ad I.A. correlate ad esigenze di sicurezza ed ordine pubblico. Robot di sorveglianza o di intervento in contesti ad alto rischio di esplosione, incendio, cortocircuito elettrico et similis.
Un software studiato per il discernimento di un’azione da compiere di fronte ad un gesto improvviso come quello di chi introduce la mano nella giacca per estrarne il portafoglio, potrebbe essere identificato come un gesto potenzialmente pericoloso (essere scambiato con il gesto di chi estragga dalla fondina un’arma) soltanto perché la I.A si trova di fronte ad un individuo di una determinata etnia, oppure residente in un quartiere ad alta densità criminale. Sarebbe questo un buon software? Dipende: nel caso della sventata rapina, la risposta sarebbe positiva, nel caso del misunderstanding, la rispsota sarebbe negativa, anzi, sarebbe discriminatorio (il software o l’algoritmo) per aver fatto agire la I.A. applicando un calcolo probabilistico, basato su una realtà dei fatti non corrispondente al vero.
Questi alcuni degli interrogativi che la nostra comunità scientifica internazionale – deve risolvere, prima di applicare, o adottare, su larga scala, questi software o futuri robot. La scienza degli algoritmi predittivi è probabilmente una delle chiavi di volta per lo studio di questi modelli, perché non è possibile, come già egregiamente detto, che si corrano rischi di reazioni a catena (con effetti che non possiamo interrompere) nell’utilizzo di un robot o di un software intelligente. L’attuale stadio della programmazione consente di riconoscere l’esistenza di due forme di I.A.: quella debole e quella forte: ciò che le contraddistingue è il metodo di apprendimento. Si differenziano quindi dei modelli di apprendimento da individuarsi nel “machine learning” e nel “deep learning” Con il primo gli algoritmi matematici consentono al robot di apprendere in modo che possano poi svolgere un compito o una attività senza che siano preventivamente programmati, attraverso un apprendimento empirico dai propri stessi errori. Nel “deep learning” il modello di apprendimento cerca di simulare la struttura della mente dell’uomo. Affascinante ed inquietante al tempo stesso. Occorrono in questo secondo caso, oltre agli algoritmi dei modelli di reti neuronali tali da simulare i sistemi di Natural Language Processing, in realtà già in atto. Si potrebbe pensare che siamo lontani da questi processi di software intelligenti, i software di riconoscimento delle immagini e/o di auto lettura, i software che consentono al veicolo di frenare automaticamente di fronte ad un ostacolo umano (e non di fronte ad un prezzo di carta), o che consentono di distinguere un tronco d’albero da una foglia, sempre mentre si è alla guida, ne sono un valido esempio.
In questo scenario, allora, la visione antropocentrica è fondamentale. L’uomo, libero e pensante, prima di ogni cosa.
La necessità di applicare le tre leggi della robotica immaginate da Asimov diversi anni or sono, rappresenta oggi, una necessità. Certo, in questa ottica, osservando il libro bianco, appaiono più che necessarie quelle raccomandazioni finalizzate a studiare, sin da subito, i rischi di un eccessivo uso di questi modelli: si pensi ai rischi della accountablity (chi risponderà per il rifiuto di un atto amministrativo erroneamente rifiutato da una I.A., o del mancato rilascio di una concessione edilizia o di un prestito finanziario?) o del grave rischio dell’unemployement?
Inoltre, se il nostro lavoro lo faranno le macchine, avremo una società libera o più schiava? Il lavoro rende liberi oppure abbiamo bisogno di liberarci dal lavoro? Ed in questo caso quale sarà la fonte di guadagno?
Inquietanti le risposte fornite dal Robot Sophia al pubblico dei presenti al Web summit di Lisbona del 2017, evento durante il quale il robot ha ipotizzato la possibilità inevitabile in un futuro prossimo in cui le I.A sostituiscano l’uomo nella maggior parte dei lavori. Secondo Raymond Kurzweil, a breve si verificherà la rivoluzione della cosiddetta “Gnr” (genetica, nanotecnologica e robotica) causata da una inevitabile interazione tra la struttura biologica umana e quella tecnologica dettata dall’attuale grado di sviluppo della scienza medica ed ingegneristica.
Il cammino della conoscenza dell’uomo deve orientare queste scelte a monte, e non più a valle, dopo la scoperta empirica di un effetto dannoso, prodottosi a causa della errata predizione. Anche in questo, come in altre cose della vita, occorrerà seminare bene se si vorranno raccogliere dei frutti buoni e non acerbi. Nell’era dell’atomica si temeva il giro di una chiave, ma si sono comunque sperimentati – drasticamente – gli effetti della potenza del nucleare se utilizzato per finalità distruttive; nell’era del digitale e della robotica si dovrà intervenire nella fase della progettazione, in quanto non si potrà sempre “sperimentare”, se non con meccanismi di salvaguardia (a circuito chiuso) che evitino la creazione di una inarrestabile catena di incontrovertibili errori.
E’ del 2017 la notizia che due robot, durante un esperimento condotto sugli studi dell’intelligenza artificiale, hanno iniziato a dialogare tra di loro in un linguaggio non conosciuto all’uomo. L’esperimento fu sospeso e si scoprì che dalla lingua inglese, i due robot, avevano iniziato a dialogare in maniera differente – in un linguaggio non comprensibile all’uomo – per rendere più semplice la comunicazione fra loro. L’esperimento è inquietante nello scenario futurista. Le due I.A. hanno compreso da sole che c’era una terza via, più praticabile rispetto a quella creata dal loro stesso programmatore.
Le implicazioni di questi “errori” negli applicativi di natura militare potrebbero essere devastanti. E’ evidente che la filosofia giuridica, l’etica e la nostra concezione di uomo e di umanità debbano rientrare nei parametri di programmazione di queste macchine. Razza, cultura, estrazione sociale di appartenenza rivelano che non tutti la pensiamo allo stesso modo, condividendo gli stessi valori. Si pensi alla pena di morte, all’eutanasia o all’uso del dna o agli esperimenti su cavie, e ad altre importanti questioni intorno alle quali il consenso sociale internazionale, è inevitabilmente diviso.
La ricchezza della diversità delle opinioni e delle culture, quando genera confronto per la crescita, è un valore aggiunto, ma quando rischia di essere compresso da una scelta autoritaria o dittatoriale o “freddamente” matematica (a noi la matematica piace, sia chiaro), impone delle riflessioni e delle scelte adeguatamente ponderate. In questa materia il progresso non può avere fretta perché il rischio non è solo quello della mancata evoluzione, ma della “involuzione” verso uno smarrimento della identità dell’uomo in quanto tale. Per progredire ed evolversi, ripartendo dall’uomo, l’amore per la nostra tradizione, per ciò che noi siamo, è indispensabile.

0 Comment