03 Set Responsabilità dell’intelligenza artificiale, come macchina dell’apprendimento, nell’interazione con l’utente
L’incessante incedere degli sviluppi tecnologici degli ultimi decenni ha condizionato più volte l’efficacia delle norme giuridiche mettendone in discussione tanto l’idoneità che la portata. La diffusione su larga scala della rete Internet ha rimodulato l’evoluzione di affari e cultura ed ha introdotto una nuova criticità nel rapporto con il mondo reale.
L’automazione è da tempo presente in gradi proporzioni nel settore industriale. L’uso dei robot risulta, infatti, pienamente integrato in tutti i processi produttivi dall’assemblaggio, alle catene di montaggio ed alla lavorazione dei materiali. In tali processi, tuttavia, fra il robot industriale ed i lavoratori vi è una netta separazione per essere i primi confinati in uno spazi strutturati ed isolati con specifiche barriere di protezione fisiche.
L’avvento dell’industria 4.0 ha incentivato ed esaltato l’uso di robot anche in ambienti comuni per integrare, ad esempio, l’uomo nella vita domestica o nell’assistenza della persona ovvero per rendere più agevole i trasporti con l’impiego di veicoli autonomi o teleoperati. Tale sviluppo esprime una vasta eco anche nel settore sanitario e della cura della salute, laddove si evidenziano i maggiori sforzi dell’evoluzione tecnologica per l’impiego di robot chirurgici, capsule mediche intelligenti, sistemi di monitoraggio di parametri fisiologici, protesi bioniche innestate direttamente nel sistema nervoso centrale o periferico.
Tuttavia, con l’immissione in ambienti comuni dei robot provvisti di caratteristiche intelligenti è stato accelerato il processo di obsolescenza del rapporto fra diritto e tecnica.
Le macchine intelligenti – dotate di crescenti gradi di autonomia ed esecutori di algoritmi sempre più sofisticati – operano oggi in ambienti liberi e non strutturati, assumono decisioni ed espandono le capacità di risoluzione dei problemi elaborando dati dalla rete ed informazioni ricevute dai sensori che li corredano. La stretta connessione con la rete rende, pertanto, vulnerabili tali sistemi ad illecite influenze esterne ed espone il produttore dei dati o della rete ovvero il programmatore o il produttore alla responsabilità per aver influenzato o non impedito il processo decisionale della macchina.
Appare evidente la necessità, da una parte, di stabilire se il sistema normativo esistente sia ancora dotato di elasticità così da evitare di elaborare e introdurre nuovi principi e regole volte a chiarire i termini della responsabilità dei vari attori coinvolti e, dall’altra, di stabilire ed imputare la responsabilità del risarcimento dei danni causati dal robot per le azioni e omissioni assunte con una modalità ad interazione dannosa.
Sino a qualche anno fa in assenza di tali particolari attitudini da parte dei robot la risposta sarebbe stata agevole: era ritenuto responsabile o responsabili, alternativamente o cumulativamente, coloro che hanno scritto il programma, il produttore o il fornitore.
La nuova realtà impone, senza dubbio alcuno, una verifica critica sulle questioni della responsabilità civile legata all’uso dell’intelligenza artificiale, nonché sull’idoneità ed attualità delle norme esistenti da applicare alle nuove tecnologie e ciò, anche al fine, di stabilire quale sia o meno l’intervento a cui potrebbe essere chiamato il legislatore, per preservare il rispetto del principio di certezza del diritto e di tutela dei diritti fondamentali dell’uomo.
La crescente diffusione di robot e di intelligenza artificiale solleva una serie di questioni delicate sotto il profilo della governance. L’attuale società dell’algoritmo apre, certamente, un nuovo scenario sul versante specifico dell’intelligenza artificiale e, fatte alcune premesse sulle abilità attuali e sui livelli di complessità delle loro condotte, impone di stabilire in concreto l’esistenza dei limiti delle vigenti norme in tema di responsabilità – sia civile che penale – per i danni arrecati e scaturiti dal loro utilizzo nell’interazione con l’essere umano.
L’avvento delle macchine intelligenti porta a rivedere i canoni normativi, ma anche etici, ed apre all’interrogativo sulle corrette modalità di definizione e portata degli algoritmi. Questioni delicate sorgono, da un punto di vista etico e sociale. anche in relazione ai possibili impatti sul mercato del lavoro e sui sistemi di protezione sociale, suggerendo la necessità di monitorare il fenomeno e valutare l’opportunità di introdurre meccanismi di ridistribuzione dei benefici dell’automatizzazione e di incentivi per la formazione e lo sviluppo di competenze digitali. Parimenti, risulta rilevante il desiderio di assicurare la protezione dei dati attraverso funzionalità di privacy by design, ovvero tutelando la privacy fin dalla progettazione del robot e dell’intelligenza artificiale.
Per articolare tale disamina occorre, innanzitutto, dare un volto a questi nuovi fenomeni, quali appunto l’intelligenza artificiale ed i robot, al fine di evitare di farsi forviare dall’uso improprio dei diversi lessemi, poiché ritengo che detti sistemi non siano affatto fungibili.
Innanzitutto, per superare un primo contrasto definitorio basta fare riferimento alle prime descrizioni reperibili su Wikipedia laddove un robot è «una qualsiasi macchina (più o meno antropomorfa) in grado di svolgere più o meno indipendentemente un lavoro al posto dell’uomo» [1], la robotica è «la disciplina dell’ingegneria che studia e sviluppa metodi che permettono a un robot di eseguire dei compiti specifici riproducendo in modo automatico il lavoro umano» [2], mentre l’intelligenza artificiale è «una disciplina appartenente all’informatica che studia i fondamenti teorici, le metodologie e le tecniche che consentono la progettazione di sistemi hardware e sistemi di programmi software capaci di fornire all’elaboratore elettronico prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana» [3].
Ed ancora, l’Oxford Dictionary of Philosophy definisce letteralmente l’intelligenza artificiale come ”the science of making machines that can do of thing that humans can do“[4].
Secondo Alan Turing – noto matematico e crittografo – una macchina è ritenuta intelligente qualora sia in grado di formulare idee aventi significato e non prive di senso; una macchina capace di pensare e di collegare, nonché di esprimere idee [5]. Nella sua idea una macchina si può dichiarare intelligente se ha un comportamento che, visto da un umano, è giudicato simile a quello di un altro umano.
Il teorico di intelligenza artificiale Roger Schank stabilisce che una forma di intelligenza artificiale è indentificata nella capacità di comunicare la propria coscienza, dall’esistenza di un apprezzabile grado di creatività, dall’intesa come capacità di assumere decisioni alternative, qualora il piano di azione iniziale fallisca o sia irrealizzabile [6].
Infine, la tesi degli informatici Stuart Russell e Peter Norvig individua il discrimen su aspetti diversi dal funzionamento delle macchine, identificando quattro possibili approcci al concetto di intelligenza artificiale: un sistema che pensi come un umano, un sistema che agisca come un umano, un sistema che pensi razionalmente ed un sistema che agisca razionalmente [7].
Da ultimo, si ricorda anche la prima ricognizione offerta dalla nostra dottrina la quale ha ritenuto di assumere il connotato dell’autonomia quale carattere distintivo fra robot ed i sistemi di intelligenza artificiale per essere, i primi, caratterizzati dalla ripetizione dei compiti ed attività che vengono svolti in sostituzione dell’essere umano e, per i secondi, in virtù delle doti di specifica abilità al ragionamento ed all’adattamento programmato [8].
L’evidente incertezza sul piano definitorio in merito all’esatto rapporto tra l’intelligenza artificiale e robotica ha indotto buona parte dei commentatori a ritenere per prudenza che le problematiche giuridiche afferenti i sistemi di intelligenza artificiale siano medesime a quello del settore della robotica. Ciò nonostante, a tenore di chi scrive, tale processo di applicazione analogica dev’essere affrontato con attenzione e costante verifica, poiché è certo che il campo della robotica non esaurisce quello dell’intelligenza artificiale e che, soprattutto, esistono forme di robotica non riconducibili all’alveo dell’intelligenza artificiale.
Il potenziamento e l’affinamento della tecnologia ha determinato, dunque, il superamento dei confini tradizionali posti a perimetro dell’umanità con l’effetto di aver imposto al diritto di compiere un balzo in avanti per intervenire e tutelare i cambiamenti richiesti dalla società [9].
In questo liquido scenario, si colloca la risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica che, da una parte, hanno ridotto per alcuni aspetti il divario tra intelligenza artificiale e robot e, dall’altra, hanno evidenziato come sia ormai divenuta indifferibile l’esigenza di regolamentare l’uso dei robot nelle attività industriali come nella vita privata [10].
La riflessione prende spunto dai considerando presenti nella suddetta risoluzione fra le quali si evidenziano:
- l’umanità si trova ora sulla soglia di un’era nella quale robot, bot, androidi e altre manifestazioni dell’intelligenza artificiale sembrano sul punto di avviare una nuova rivoluzione industriale, suscettibile di toccare tutti gli strati sociali, rendendo imprescindibile che la legislazione ne consideri le implicazioni e le conseguenze legali ed etiche, senza ostacolare l’innovazione;
- negli ultimi duecento anni il tasso di occupazione è aumentato costantemente grazie agli sviluppi tecnologici. Lo sviluppo della robotica e dell’intelligenza artificiale è potenzialmente in grado di trasformare le abitudini di vita e lavorative, innalzare i livelli di efficienza, di risparmio e di sicurezza e migliorare il livello dei servizi, nel breve e medio termine. La robotica e l’intelligenza artificiale promettono di portare benefici in termini di efficienza e di risparmio economico non solo in ambito manifatturiero e commerciale, ma anche in settori quali i trasporti, l’assistenza medica l’istruzione e l’agricoltura, consentendo di evitare di esporre esseri umani a condizioni pericolose;
- i cambiamenti economici e le conseguenze per l’occupazione derivanti dalla robotica e dall’apprendimento automatico devono essere parimenti valutati. Nonostante i vantaggi innegabili apportati dalla robotica, essa può comportare una trasformazione del mercato del lavoro e rendere necessaria, di conseguenza, una riflessione sul futuro dell’istruzione, dell’occupazione e delle politiche sociali;
- l’uso diffuso di robot potrebbe non portare automaticamente alla sostituzione di posti di lavoro, ma le mansioni meno qualificate nei settori ad alta intensità di manodopera potrebbero essere maggiormente esposte all’automazione;
- l’automazione richiede che i governi investano nell’istruzione e in altre riforme al fine di migliorare la ridistribuzione delle tipologie di competenze di cui avranno bisogno i lavoratori di domani;
- lo sviluppo della robotica e dell’intelligenza artificiale eserciterà sicuramente un’influenza sul mondo del lavoro, il che potrebbe dare luogo a nuove preoccupazioni in materia di responsabilità ed eliminarne altre;
- occorre chiarire la responsabilità giuridica per quanto concerne sia il modello di impresa sia le caratteristiche dei lavoratori, in caso di emergenza o qualora sorgessero problemi;
- è possibile che a lungo termine l’intelligenza artificiale superi la capacità intellettuale umana.
Dalle suddette indicazioni emerge la sensibilità del legislatore europeo nel voler affrontare, a livello sovranazionale, le diverse implicazioni giuridiche portate dalle innovazioni tecnologiche con particolare attenzione al focus della responsabilità civile per i possibili danni causati dai robot e dall’intelligenza artificiale nell’interazione con l’uomo.
Tuttavia, tale processo normativo – non privo di ostacoli – dev’essere attuato senza compromettere in tali settori il corso della ricerca, dell’innovazione e dello sviluppo che si manifesta con il passaggio da robot eterodiretti ai robot in grado di autodeterminarsi per essere dotati di personalità elettronica ed autopoietici [11] o dotati di algoritmi neurali, all’evoluzione dell’IoT da Internet of Things a Intelligent of Things, ai Big Data ed ai Cloud.
Appare evidente che tale spasmodico progresso evolutivo chiama il diritto a coniare nuove forme di tutela e di regolazione per fare fronte alle moderne questioni in tema di responsabilità giuridica degli attori in capo: imprese, produttori ed utilizzatori, ma anche dei lavoratori a cui sono richieste nuove competenze e capacità [12]. Il paradigma basato sul dolo e sulla colpa appare non più sufficiente ed occorre elaborare nuovi modelli ed una possibile soluzione potrebbe essere quella di considerare i robot per i gradi di libertà tecnica, per le funzioni che svolgono e per il diverso livello di autonomia con il quale agiscono.
Siamo, tuttavia, ancora lontani dal poter ritenere i robot responsabili ex se per gli atti o le omissioni che possono causare danni a terzi. Non a caso le vigenti norme in materia di responsabilità civile stabiliscono che la causa dell’evento deve essere fatta risalire ad uno specifico agente umano quale ad esempio il fabbricante, l’operatore, il proprietario ovvero l’utilizzatore, laddove tale agente avrebbe potuto prevedere ed evitare il comportamento dannoso del robot. Ed ancora, gli agenti potrebbero essere considerati oggettivamente responsabili per gli atti o le omissione di un robot [13].
Ciò posto, si deve evidenziare il concreto interesse del Parlamento europeo di mutare l’attuale assetto normativo, espresso nella risoluzione in esame, laddove formula alcune proposte e suggerimenti per la redazione della successiva normazione da parte della Commissione. Bisognerà, prima di tutto, creare «una definizione generalmente accettata di robot e di intelligenza artificiale» [14] posto che – a fronte dello sviluppo dei livelli di autonomia e di facoltà cognitive – i robot risulteranno sempre più qualificati come agenti e non già come strumenti, con l’effetto di poter arrecare azioni nocive tanto da rendersi non rimandabile un intervento organico sulla responsabilità civile e penale [15].
Nell’attesa di tale evoluzione, ritenuta l’assenza nel quadro normativo europeo di specifiche disposizioni per quanto riguarda il regime di responsabilità dei robot e più in generale delle intelligenze artificiali in senso stretto, giova evidenziare come la soft law in esame offra – comunque – un ulteriore ed interessate chiave di lettura nel rapporto fra l’agire umano e le molteplici forme di intelligenza artificiale.
La visione antropocentrica della Risoluzione europea indica chiaramente che la tecnologia robotica deve integrare le capacità umane e non sostituirle tanto che richiama – ad ideale regolamento della condotta dei «robot con capacità di autonomia e di autoapprendimento integrate» oltre che l’attività dei progettisti, dei fabbricanti e gli utilizzatori – le famose tre leggi della robotica di Asimov [16]:
- Un robot non può recare danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano subisca un danno.
- Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
- Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.
Nella visione di macchine autonome e per definire eventuali contrasti derivanti dall’applicazione delle tre leggi, Asimov pose a corredo un’ulteriore legge – la cosiddetta legge zero – secondo la quale «Un robot non può recare danno all’umanità, né può permettere che, a causa del proprio mancato intervento, l’umanità riceva danno».
Con tale richiamo, si assiste al tentativo del legislatore europeo di implementare nel funzionamento dei robot una generale regola di condotta che stabilisca il limite di un’azione o di un’omissione – semmai da codificare in sede di programmazione – che riassume l’imperativo del neminem ledere, idoneo a determinare l’esonero della responsabilità dell’agente umano rispetto ad un intelligenza artificiale capace di attuare comportamenti e conseguenze che risultano dannose o pericolose.
Note redazionali
[1] https://it.wikipedia.org/wiki/robot.
[2] https://it.wikipedia.org/wiki/robotica.
[3] https://it.wikipedia.org/wiki/intelligenza_artificiale.
[4] S. BLACKBURN, The Oxford Dictionary of Philosophy, Oxford, 2016, 33.
[5] A. TURING, Computing machinery and intelligence, in Mind, 1959, 49, 433.
[6] R.C. SCHANK, What Is AI, Anyway, in AI Magazine, Winter 1987, 8 (4), 59 ss.
[7] S. RUSSEL e P NORVIG, Artificial Intelligence: A Modern Approach, New Jersey, 2010.
[8] A. SANTOSUOSSO, C. BOSCARATO, F. CAROLEO, Robot e diritto: una prima ricognizione, in La nuova giurisprudenza civile commentata, 2012, 494 ss. C. SALAZAR, Umano, troppo umano … o no? Robot, androidi e cyborg nel “mondo del diritto” (prime notazioni), in BioLaw Journal – Rivista di BioDiritto, 2014, 1, 259.
[9] S. RODOTÀ, La vita e le regole. Tra diritto e non diritto, Milano, 2006, 87.
[10] Parlamento europeo, Risoluzione del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)).
[11] H.R. MATURANA e F.J. VARELA, Autopoiesi e cognizione. La realizzazione del vivente, Venezia, Marsilio, 1985.
[12] Considerando AB della risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica.
[13] Considerando AD, ibidem.
[14] Considerando C, ibidem.
[15] Considerando Z, ibidem.
[16] Considerando T, ibidem.