segreteria@contegiacomini.net

Inviaci una mail

+39 010 83 15 280

Chiamaci per una consulenza

Facebook

Search

GOVERNARE IL FUTURO: il quadro giuridico civilistico in grado di prevedere l’evoluzione dell’intelligenza artificiale e della robotica. La Risoluzione 16 febbraio 2017 del Parlamento Europeo

Conte & Giacomini Avvocati > Eventi e Congressi  > GOVERNARE IL FUTURO: il quadro giuridico civilistico in grado di prevedere l’evoluzione dell’intelligenza artificiale e della robotica. La Risoluzione 16 febbraio 2017 del Parlamento Europeo

GOVERNARE IL FUTURO: il quadro giuridico civilistico in grado di prevedere l’evoluzione dell’intelligenza artificiale e della robotica. La Risoluzione 16 febbraio 2017 del Parlamento Europeo

Locandina Giacomini (002)-001

La specificità del problema che caratterizza il nostro tempo non sta tanto nelle straordinarie trasformazioni tecnologiche e scientifiche che si manifestano nei loro molteplici effetti, ma nella velocità e pervasività della loro diffusione e ricadute che l’essere umano medio (e non solo) fatica a metabolizzare nell’arco della propria esistenza.

Altre epoche di grandi innovazioni sono state vissute ed affrontate non senza traumi nella storia moderna. La prima rivoluzione industriale ed il Luddismo ( Ned Ludd, un giovane inglese, forse mai esistito realmente, che nel 1779 avrebbe distrutto un telaio) ci rimandano ai timori ed alle ansie, non tutti infondati, che molti processi innovativi generano.

E in tanti pensiamo che il progresso scientifico e tecnologico non possa né debba essere fermato ma, piuttosto, occorra governarlo a misura dell’uomo che dovrebbe servire.

Pensiamo anche che, d’altronde, come l’esperienza ci tramanda e induce a ritenere, esso migliora la qualità materiale della vita, anche dei soggetti più deboli.

Nel mondo sviluppato, pur sempre più disuguale nella distribuzione della ricchezza (così come Thomas Picketty nel suo bellissimo saggio del 2014 sulle diseguaglianze, “Capital in the twenty first century”, ci ha dimostrato e così come i dati statistici, nazionali e non, ci confermano), resta il fatto che il concetto materiale di povertà assoluta è ben lontano da quello di non molti decenni orsono descritto da Dickens, Hugo, Verga o Ermanno Olmi

Resta, ovviamente, la percezione della povertà “relativa” e della distribuzione del benessere che, in un modello a forbice, da un lato concentra,allontana ed estremizza la grande ricchezza  nelle mani di pochissimi individui nel mentre dall’altro omologa tutti gli altri in una massa pressoché indistinta ove si insinua l’ incertezza, la frustrazione e l’ ansia del futuro (la guerra tra i “poveri”), anche per coloro che, in termini assoluti, potrebbero definirsi come appartenenti ad una fascia reddituale e patrimoniale medio/alta.

Anche le precedenti innovazioni fecero le loro vittime, ma di tale dolorosissimo percorso “selettivo”, se ne vedeva la fine. Oggi la natura e velocità delle innovazioni non consente di governarne gli effetti con le stesse metodologie del passato.

Riconvertire persone adulte a nuovi mestieri tecnologicamente assai/troppo diversi, è più complesso e in molti casi impossibile o quasi ( trasformare un contadino in un operaio non era altrettanto difficile), il rischio che in pochi anni una generazione divenga lavorativamente obsoleta si proietta nel lungo periodo ed infatti molti lavori del prossimo futuro semplicemente oggi non esistono.

Anche lavori intellettuali non basici sono/saranno sostituibili dal’IA.

Sul piano strettamente numerico i posti di lavoro nuovi non saranno prevedibilmente sostitutivi, se non in parte, dei posti di lavoro “rottamati”.

Tutto ciò, naturalmente, senza entrare in questa sede nell’interessantissimo ed estremo scenario di un sistema socio-economico futuro nel quale il dualismo capitale/lavoro, venendo meno il lavoro umano, semplicemente non esista sostanzialmente più (salvo eccezioni) e dove pertanto la produzione di ricchezza/pil dipenda quasi esclusivamente dal lavoro delle macchine/robot con tutte le ricadute che ne derivano in relazione alla redistribuzione di tale ricchezza e quindi ai sistemi fiscali, pensionistici e di welfare, oggi strettamente parametrati  al lavoro umano e all’età lavorativa della popolazione adulta.

In questa oggettiva premessa, un ruolo assolutamente inedito deve essere assegnato alla formazione di base ad ogni livello ed a quella permanente, affinché l’incalzante e costante evoluzione dei sistemi produttivi nei beni e nei servizi possa essere gestita senza rilevantissimi e continui traumi individuali e sociali. Il recente piano Macròn sull’istruzione/formazione in Francia può rappresentare un utile modello su cui ragionare anche al fine di riattivare, su base meritocratica, quell’ “ascensore sociale” che sembra essersi fermato.

Anche ai giuristi spettano dunque, in tutti i campi, compiti nuovi di previsione,regolamentazione e mediazione sostenibile .

Ed infatti anche del diritto l’uomo è autore e destinatario finale e ad esso spetta dunque una funzione non solo tecnica.

Il diritto non è neutrale.

La fantascienza è adesso.

Come vedremo la Risoluzione del Parlamento Europeo del 2017, su cui ragioneremo, cita le leggi di Asimov, nato nel 1920 e considerato con Robert A. Heinlein e Arthur C.Clarke uno dei tre grandi autori di fantascienza della sua epoca. Una delle opere più note “Io Robot”, appartiene al Ciclo dei Robot, cui si è ispirato l’omonimo,notissimo film del 2004, interpretato da Will Smith. A lui è stato intitolato uno dei crateri del pianeta Marte.

Ma, a partire dai memorabili “ 2001 Odissea nello spazio” e “Blade Runner” del 1982 (e il suo recente sequel), il cinema ha dato a questo tema contributi importanti.

Ultimatum sulla terra,Corto Circuito, Ghost in the shell, L’uomo bicentenario,la trilogia di Matrix, A.I., Guida galattica per gli autostoppisti, Wall-E, The Machine, Transcendence, Ex Machina e, perché no, la saga di Guerre stellari ( ma anche film recenti di altra natura nei quali il robot/automa costituisce espediente narrativo, da Hugo Cabret di Scorsese a The best offer di Tornatore) sono tutte opere cinematografiche di valore (talvolta straordinario) che ci accompagnano nel viaggio verso e con l’intelligenza artificiale generando speranze e timori che la ragione ci deve indurre a valutare e quantificare solo dopo la conoscenza e comprensione del tema che le provoca (così come dovrebbe accadere in tutti i campi).

Come non citare,infine, il film muto del 1927 (Asimov aveva 7 anni) Metropolis di Friz Lang, ambientato in una megalopoli del 2026, che oltre a essere tra le opere più simboliche del cinema espressionista, è riconosciuto come il capostipite della cinematografia di fantascienza moderna.

In Metropolis, il Prof.Rotwang realizza un uomo-macchina di sembianze androidi e dotato di una forma di intelligenza artificiale programmata che, seppur priva di capacità cognitive e di autoapprendimento, è capace di confondere gli esseri umani rispetto alla sua reale natura.

Ed ancora, prima di affrontare il tema giuridico ed al fine di contestualizzarlo, non può ignorarsi che uno dei più grandi e multiformi geni umani del Rinascimento, Leonardo da Vinci,come scoperto grazie al Codice Atlantico e ad alcuni taccuini tascabili, ebbe a intersecare i suoi studi di anatomia con le macchine e gli automi di cui l’”Automa Cavaliere” robotico è primigenia espressione, certo datata, ma dalla quale ha tratto ispirazione anche la NASA per la realizzazione dei suoi moderni robot meccanici di prima generazione.

Si consideri,peraltro, che la storia dei robot macchina è ancora più antica a partire dal mondo ellenistico a.c. e dalla Macchina di Anticitera (risalente a circa 150/100 anni a.c.) che rappresenta il più risalente calcolatore meccanico conosciuto.

E così alle più diverse latitudini, richiamando l’incontro tra il re Mu del regno di Zhou e un ingegnere meccanico Yan Shi, nella Cina del III secolo a.c., che descrive l’ira,prima, e lo stupore ammirato,poi,del re di fronte alle performances molto “umane” di un robot di sembianze umanoidi.

Del pari nell’antico mondo islamico si hanno notizie di animali ed esseri umani artificiali fin dall’VIII secolo (il libro delle pietre di Jabir ibn Hayyan) e nell’XI secolo (il Trattato di ingegneria meccanica interamente dedicato alla costruzione di automi complessi).

Sugli automi dal XIII al XIX secolo, progettati e realizzati in molte parti del mondo, vi sarebbe materia bastante per una lunga conferenza tematica. Basti qui ricordare il suonatore di flauto del francese J.Vaucanson, gli automi di Pierre Jaquet-Droz (anch’egli francese) , dello svizzero H.Maillardet, del belga John Joseph Merlin, del mitico prestigiatore Houdinì e, a partire dalla fine dell’800, la produzione in Parigi di un gran numero di automi meccanici con sembianze di animali ed umani.

Ovviamente in questo excursus culturale che si colloca a monte del quadro giuridico cui ci avviciniamo,è la scienza , nelle sue molteplici articolazioni e sinergie, che deve fornirci l’ultimo miglio di supporto.

Tutti conosciamo Alan Turing ed il decodificatore Enigma che contribuì non poco alla sconfitta nazista nella seconda guerra mondiale. Egli era un fisico e matematico di straordinario talento e la sua macchina rappresenta una prima sintesi con l’intelligenza artificiale e primo computer del nostro tempo moderno. Tale l’opinione di una moltitudine di scienziati tra cui l’italiano Piergiogio Odifreddi che di Turing e del suo lavoro eclettico e stravagante ha parlato e scritto.

Ma in questa breve e incompletissima “carrellata” come non ricordare, per chi desideri approfondire, : Warren McCulloch, Walter Pitts, Manuel Blum, Marvin Minsky, Bernard Baars, Giulio Tononi, Nick Srnicek, Alex Williams, Eric Kandel ?

Da questo pur minimo panel di autorevoli nomi mi preme soprattutto sia rilevato il numero enorme di competenze sinergiche che il tema comporta. Neuroscienze computazionali, neurofisiologia,studio delle reti neurali, matematica, informatica, cibernetica, genetica, chimica, biologia,psicologia, psichiatria,logica, filosofia, sociologia,politica, etica…….e, quasi tutto da inventare, il diritto.

Ancora un passaggio preliminare credo sia utile rispetto al tema centrale di questa conversazione: cosa si intende oggi(e possa ragionevolmente ipotizzarsi nel futuro) per robot, specie se intelligente, e quali relazioni/similitudini siano configurabili tra esso e l’uomo con riferimento alla possibile/inevitabile imputazione di responsabilità, doveri e ……diritti (?)

Potrebbe partirsi, in questo ragionamento, dal Leviatano di Thomas Hobbes, pubblicato nel 1651, e dalla sua concezione meccanicistica e deterministica della realtà.

Secondo Hobbes noi possiamo conoscere unicamente corpi fisici, le cui variazioni sono determinate da movimenti. L’anima non sarebbe altro che il riflesso interno all’uomo degli eventi esterni che con lui interferiscono.

La sola differenza che lo distingue dagli altri esseri viventi sarebbe, in sostanza, solo la capacità di ipotizzare eventi futuri sulla base delle esperienze passate individuali e genetiche. La conoscenza umana, sempre relativizzata all’esperienza così intesa, non può mai assurgere a valore assoluto (non esistono verità innate al di fuori dell’esperienza o assolute) ed è dunque sempre condizionata,meramente probabile e passibile di errore.

Il nostro ragionamento segue regole formali simili alle deduzioni geometriche e matematiche.

Se così fosse davvero, non ne conseguirebbe necessariamente che l’intelligenza umana sarebbe del tutto replicabile, anzi, certamente migliorabile dall’intelligenza artificiale così come sta evolvendo nel nostro tempo?

Ovviamente quello di Hobbes non è il solo modo di vedere le cose.

Gli approcci sono diversissimi sul piano filosofico, etico o, a maggior ragione, religioso. Ma non è questo il nostro tema oggi, tenuto anche conto del fatto che nessuno di tali approcci mi pare modifichi di molto quello di carattere tecnico-giuridico legato rigorosamente agli effetti concreti che l’azione di una certa  macchina “intelligente” può provocare nel mondo reale.

In questo ambito è pertanto fondamentale individuare innanzitutto l’oggetto dell’analisi  e distinguere tra diversissime tipologie di robot in quanto essi, ad esempio ed allo stato delle conoscenze scientifiche, possano definirsi:

  • Oggetti meramente meccanici
  • Macchine programmate di natura esclusivamente esecutiva, automatiche o teleoperate
  • Macchine dotate di intelligenza artificiale “immessa” e, quindi, autonome o semiautonome
  • Macchine dotate di intelligenza artificiale “immessa” ma anche capaci di apprendimento autonomo ed elaborazione dei dati appresi (magari in cloud con altre macchine del medesimo tipo), c.d. Robot cognitivi
  • Macchine integrate a componenti umane e/o con proiezione verso forme di autocoscienza (terreno quasi inesplorato, a quanto ne sappiamo),c.d. Robot cognitivi ibridi ( dirò qualcosa sul punto nella parte conclusiva)

Diverso problema è poi posto, in taluni casi, non tanto e non solo dalle “capacità” del Robot, ma piuttosto dalle particolari funzioni svolte e magari dalle sue stesse sembianze esterne  per gli effetti emotivi/emozionali che la  sempre più perfetta immagine antropomorfa può provocare nell’essere umano che interagisce con esso ( si pensi ai replicanti di Blade runner, meno fantascientifici di quanto sia dato immaginare).

Come ben noto, su tutto ciò nel mondo scientifico si lavora, alcuni paesi sono più avanti (USA,Cina, Giappone,Corea del Sud, Danimarca, UK, Austria, ove a” Vienna Biennale 2017” il core era dedicato al nostro futuro con riferimento ai traguardi dell’AI) ma l’Italia non è certamente il fanalino di coda nella ricerca come nella produzione.

Da Pisa, ove si è recentemente tenuto il Festival della Robotica nel segno del messaggio “non abbiate paura”, a Genova ove opera l’assoluta eccellenza di IIT diretto dal Prof. Cingolani.

Si pensi ad esempio, sullo stato dell’arte in Italia, al documento del Comitato Nazionale di bioetica sul tema “Sviluppo della robotica e della roboetica”

Facciamo in modo che, nell’interesse di tutti, il mondo del diritto non resti indietro in questo percorso ma entri a far parte dell’interazione multidisciplinare che deve accompagnare/guidare modi e tempi di questo storico passaggio della evoluzione umana, anticipando e regolando il cambiamento epocale che ancora deve venire e di cui oggi vediamo solo i primi segnali.

E ciò anche al fine di evitare che la Rule of Law, come scrivono Brown-Sward in “Right, Regulation, and the technological of Law (Oxford University Press,2008), sia semplicemente rimpiazzata da quella della tecnologia in sé.

L’Europa, dimensione di scala minima

Come mi pare agevole comprendere, stiamo parlando di uno di quegli ambiti nei quali l’approccio di dimensione almeno Europea si presenta come necessario.

Non è il solo,ovviamente.

La politica estera e di difesa comune,la politica di immigrazione,l’unione bancaria, l’armonizzazione fiscale, il welfare ed altro, non sono realisticamente immaginabili come “effettive” e “proporzionate” al livello dei singoli Stati membri.

Neppure la Germania da sola potrebbe competere in un mondo dominato da colossi geopolitici/economici, tra l’altro di natura federale (USA, Cina e Russia lo sono),oltre che da corporations globali di dimensioni e potere superiore a quello di molti Stati nazionali, anche europei.

Vi sono oggi alcune politiche che, addirittura, non possono essere efficacemente perseguite neppure a livello continentale: il dumping fiscale (e non solo) e le sue molteplici ricadute ne sono esempio concreto. E, comunque, anche per affrontare queste politiche con misure protezionistiche (dazi,aiuti all’export, sanzioni ecc.), a parte la loro efficacia di lungo periodo, occorre una certa forza.

Difficile per un agnello spaventare il leone simulando ruggiti……

La ricerca scientifica è certamente una di queste aree, soprattutto quella avanzata che richiede sinergie e risorse, umane ed economiche, incredibilmente rilevanti. E ciò per non dire dell’assurdità di un sistema europeo dove ciascun Paese sviluppasse il proprio lavoro in “splendido isolamento” con inefficienze e moltiplicazione di costi davvero irragionevoli.

Inutile lamentarsi delle deplorevoli gelosie informative tra i “servizi” europei per il contrasto al terrorismo se poi, in altri settori strategici, per loro natura transnazionali, si seguissero le medesime politiche illusoriamente protezionistiche e/o autarchiche.

Quanto poi alla governance legale delle nuove tecnologie che la ricerca scientifica rende disponibili, anche in questo caso è intuitivo che la sola governance possibile è di natura/dimensione almeno europea.

Ben consapevoli del fatto che neppure un tale livello sarebbe sufficiente a garantire l’effettività del quadro giuridico delineato ma,come cercherò di comunicare, potrebbe almeno permettere all’Europa di esprimere una sua linea di condotta a livello internazionale capace di forza negoziale rispetto ad altri modelli.

E’ infatti inevitabile che la robotica intelligente (e non solo) abbia ricadute globali crescenti che daranno luogo a convenzioni internazionali universalmente accettate i cui contenuti emergeranno da visioni diverse e dove prevarranno quelle la cui forza contrattuale sarà sufficiente a farsi ascoltare/imporsi con peso proporzionato agli interessi in gioco.

La Risoluzione del Parlamento europeo

Anche da considerazioni di questo tipo nasce la Risoluzione del Parlamento europeo del 2017 recante “raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica” e l’intelligenza artificiale.

Di questa Risoluzione parleremo ora al fine di affrontare, successivamente, taluni dei quesiti giuridici innovativi che,con riferimento alla rivoluzione scientifica e tecnologica in itinere, il nostro ordinamento nazionale sembra poter contenere e regolare solo in parte.

La base giuridica dell’atto è l’art. 225 del TFUE il quale prevede che il Parlamento europeo, a maggioranza dei suoi membri, possa chiedere alla Commissione di elaborare e presentare proposte adeguate su questioni per le quali si ritiene necessario un intervento normativo al livello dell’Unione ai fini dell’attuazione dei  Trattati . Si richiama poi anche la Direttiva 85/374 CEE sul ravvicinamento delle legislazioni e normative nazionali in materia di responsabilità per danno da prodotti difettosi ( si vedrà tra poco quanto questo richiamo appaia, allo stato, formalmente corretto ma grandemente incapace di contenere taluni dei  temi che il testo parlamentare pone all’attenzione dei giuristi della Commissione, e non solo).

E’ anche esteticamente bello ricordare che l’incipit della parte introduttiva evoca la creatura mostruosa del Dott. Victor Frankenstein di Mary Shelley, Pigmalione, il Golem di Praga e il robot di Capek (cui risale il termine), tra gli ispiratori della  “possibilità di costruire macchine intelligenti, spesso androidi con caratteristiche umane” .

Da qui si parte per sottolineare che l’intelligenza artificiale ha avviato una nuova rivoluzione industriale capace di toccare tutti gli strati sociali rendendo assolutamente imprescindibile una nuova legislazione che ne consideri implicazioni e conseguenze legali “considerando che l’andamento attuale,che tende a sviluppare macchine autonome e intelligenti, in grado di apprendere e prendere decisioni in modo indipendente, genera nel lungo periodo non solo vantaggi economici ma anche una serie di preoccupazioni circa gli effetti diretti e indiretti sulla società nel suo complesso”  (punto G).

La garanzia del rispetto dei principi di non discriminazione, il giusto processo, la trasparenza,la  comprensibilità e tracciabilità dei processi decisionali ( si pensi alla finanza regolata da algoritmi e alla tecnologia blockchain la cui diffusione nei più diversi ambiti potrà avere ricadute rilevantissime), gli effetti sul mercato del lavoro con gli inevitabili riflessi sui sistemi di istruzione e di welfare. Le politiche/ normative fiscali legate anche al rischio di sempre maggior concentrazione della ricchezza con crescente riduzione della c.d. middle class sul cui sviluppo e consolidamento, voglio sottolinearlo, si è basata l’idea stessa di democrazia così come sviluppata, specie in occidente, nei decenni del secolo scorso successivi alla seconda guerra mondiale.

Tutto ciò potrebbe dare luogo a nuove forme di responsabilità giuridica ed  eliminarne altre con riferimento agli attuali modelli di impresa e di PA.

Modalità di programmazione non infiltrabili che garantiscano sicurezza e standard etico (quale?) devono essere attuati fin dal principio ponendo progettisti e programmatori (prima ancora dei produttori, commercializzatori, manutentori ed utenti) di fronte a prevedibili ipotesi di responsabilità futura che dovranno essere da loro consapevolmente accettate non solo con riferimento alla qualità del prodotto robot  ma anche in ragione di ogni sua possibile azione.

La privacy, ancora, il cui attuale quadro giuridico è fondato sul Regolamento UE 2016/679 che, come noto, entra in vigore il 25 maggio prossimo e che dovrà confrontarsi anche col fatto che molte “macchine” sono in grado di assorbire dati dall’ambiente con cui interagiscono nonché di comunicare tra loro e con” big data”, al di fuori dell’intervento umano.

Nell’ambito della AI orientata alla assistenza e sanità possono poi ipotizzarsi situazioni relativamente nuove di forte impatto, ad esempio, in materia di garanzia del servizio essenziale di manutenzione full time, anche rispetto al pagamento o meno del servizio medesimo, e al fatto che il diritto di proprietà intellettuale debba prevalere o no rispetto all’intervento di un’Autority che possa, in determinati casi, accedere al “codice sorgente” della macchina cognitiva allo scopo di poter proteggere l’utente da disservizi, malfunzionamenti o mancati aggiornamenti.

Il punto P della Risoluzione rappresenta, a mio avviso, un limes davvero assoluto in materia:

considerando che è possibile che a lungo termine l’intelligenza artificiale superi la capacità intellettuale umana

Non sono un esperto in termini scientifici e, data l’autorevolezza della fonte e la nota prudenza che la ispira, debbo limitarmi a prenderne atto: lo stato del diritto è in grado di contenere quasi tutto ciò che sta a monte di questo confine, non ciò che si colloca a valle.

Ed infatti la Risoluzione sembra ispirarsi a nuovi inquadramenti normativi già adottati in USA, Giappone, Cina e Corea del Sud nel mentre gli Stati europei hanno iniziato (solo) a “riflettere” su futuri strumenti legislativi capaci di confrontarsi con questa evoluzione, a rischio, come osservavo precedentemente, che l’Europa possa perdere il controllo della normativa di governance in materia e sia quindi costretta a “adottare e subire norme stabilite da altri”.  

Il primo aspetto cui il Parlamento UE dedica attenzione, partendo dalla citazione delle leggi(3+1) di Asimov, è quello di un codice etico/licenza che copra l’intero percorso del “prodotto” e riguardi quindi ingegneri robotici, comitati di etica della ricerca,  progettisti e, alla fine della catena, gli stessi utenti finali.

Statuendo, subito dopo, che “….. è opportuno, dato lo stadio della robotica e dell’intelligenza artificiale,iniziare con le questioni di responsabilità civile

Di conseguenza:

  • La capacità dei robot autonomi e cognitivi di svolgere funzioni tipicamente umane (apprendere dall’esperienza, decidere in modo quasi indipendente) impone una rivisitazione della nozione di responsabilità giuridica derivante dall’azione dannosa di un robot di tale tipologia,
  • Più i robot sono autonomi meno possono considerarsi meri strumenti in mano ad attori umani (dal progettista/programmatore all’utente finale). Si pone poi, comunque, la necessità/eventualità di chiarire e attribuire le responsabilità a ciascuno di detti attori umani,
  • L’autonomia dei robot pone la questione della loro natura ed interroga sulla necessità di “creare una nuova categoria con caratteristiche specifiche e implicazioni proprie
  • Nell’attuale quadro giuridico i robot non potrebbero essere considerati responsabili in proprio per atti od omissioni che provochino danni e che pertanto occorre ragionare fin da subito su ipotesi di responsabilità oggettiva per gli attori umani che, altrimenti, sarebbero soggettivamente incolpevoli per tali tipologie di condotte “autonome” del robot,
  • L’attuale quadro normativo in materia di responsabilità da prodotto è il solo esistente e potrebbe risultare inadeguato, specie nei casi in cui il robot possa prendere decisioni autonome,
  • La stessa responsabilità contrattuale va rivista con riferimento ai casi in cui il robot possa scegliere la controparte, negoziare i termini contrattuali,concludere il contratto o meno,
  • Quanto alla responsabilità extracontrattuale (Direttiva 85/374/CEE) non copre i casi in cui il robot cognitivo sia dotato di capacità di apprendimento dall’ambiente con cui interagisce o dalle informazioni acquisite in cloud tramite i suoi “simili”, tali da provocare un qualche grado di imprevedibilità nelle sue azioni,
  • Il caso in cui, come vedremo, il programmatore sia costretto a prevedere e debba pertanto impostare nel robot (anche non autonomamente cognitivo) l’ipotesi in cui quest’ultimo si trovi di fronte ad un evento in relazione al quale sia necessariamente chiamato a  scegliere tra due vite umane, sacrificandone una (il tema, come vedremo tra poco, è già attuale).Quale responsabilità,civile e non solo,può configurarsi in capo al programmatore e, prima ancora, in capo all’autore del codice etico a monte?

In queste premesse occorre innanzitutto introdurre un sistema (europeo/globale) di registrazione dei robot avanzati dotandoli di una vera e propria “carta di identità” e affidando la gestione di questa “anagrafe” a una apposita Agenzia che certifichi  standard capaci di garantire la libera circolazione di questo specialissimo prodotto.

Il principio base da preservare dovrebbe essere comunque quello di assicurare che in ogni possibile condizione l’uomo mantenga il controllo sulle macchine intelligenti.

Lo sviluppo della robotica impone poi l’evoluzione della connettività universale con accesso alla banda 5G e ciò sempre più richiede che il sistema giuridico garantisca la neutralità della rete.

La crescita dei servizi di cloud non deve essere scoraggiata ma dovrà prevedibilmente accompagnarsi ad un controllo pubblico che assicuri trasparenza, privacy ecc. e eviti, nel contempo, il formarsi di monopoli od oligopoli che possano essere indotti ad abusare della loro posizione dominante.

Dicevamo dei principi etici che, nel nostro caso più che mai, non sono evocativi di affermazioni astratte ma debbono dar luogo a specifici/concreti obblighi giuridicamente garantiti ed impegnare tutti i soggetti umani che si collochino nella filiera di “gestazione”, nascita e vita del robot.

Specifico alert è dedicato ai robot che rappresentino una minaccia alla riservatezza in ragione del loro posizionamento in spazi protetti e privati e della loro capacità di assorbire e trasmettere i dati acquisiti autonomamente.

Il profilo etico è oggetto dell’ allegato su cui torneremo quanto meno relativamente ai punti che ritengo essenziali.

La estrema rilevanza ed evoluzione permanente e veloce del settore impone, come detto, l’istituzione di una Agenzia per la robotica e l’intelligenza artificiale, dotata di risorse economiche e umane interdisciplinari (esperti tecnici ed etici) con potere normativo secondario capace di accompagnare uno sviluppo scientifico esponenziale altrimenti destinato ad eludere un assetto legislativo di natura rigida e quindi rapidamente obsolescente. L’atto primario (europeo) di natura legislativa (Regolamento o Direttiva, così come il Parlamento suggerisce) dovrebbe dunque limitarsi a definire solo i principi fondamentali conferendo, in tale rigoroso ambito,il potere di  regolazione del day by day all’Agenzia, magari soggetta a controllo “politico” del Parlamento UE e giurisdizionale della Corte di Giustizia.

Quanto alla proprietà intellettuale,osserva il Parlamento come il quadro esistente ben possa adattarsi a questo ambito.

Adeguamenti appaiono invece necessari con riferimento al rispetto della vita privata ed alla protezione dei dati personali garantiti dagli art. 7 e 8 della Carta e 16 del TFUE. E ciò con particolare attenzione all’uso di fotocamere e sensori fin dalla fase della progettazione evidenziando la “responsabilità dei progettisti di robot e di intelligenza artificiale di sviluppare prodotti sicuri “, funzionali agli scopi previsti e che non vadano oltre tali scopi.

Una nuova formazione in materia di sicurezza e protezione si impone dunque su un confine molto sottile col quale il giurista deve misurarsi: da un lato la necessità di non frenare i processi innovativi  anche in termini di interoperabilità e quindi di armonizzazione internazionale delle norme tecniche ( Comitato ISO/TC 299 Robotics) ed evitare la frammentazione del mercato interno europeo, dall’altro la garanzia della sicurezza, anche sul lavoro, e dei diritti degli utenti.

Ciò comporta, tra l’altro, l’attuazione di test sperimentali in condizioni reali che dovranno essere caratterizzati da criteri tecnici e legali uniformi in tutta l’Unione.

In concreto, tale ultimo profilo, si presenta attualissimo in taluni ambiti destinati a rapida diffusione:

  • Veicoli autonomi ( non solo per il trasporto su strada)
  • Droni (RPAS, pilotaggio remoto, e UAV, veicoli aerei senza equipaggio)
  • Robot impiegati per l’assistenza
  • Robot medici, cui rinvia il Regolamento 2017/745 UE sui dispositivi medici.

A titolo esemplificativo valga brevemente soffermarsi sul punto relativo ai veicoli stradali autonomi, cui l’opinione pubblica presta particolare attenzione. Si consideri che il dibattito legale è già molto sviluppato negli USA, anche a cagione di taluni incidenti, spesso mortali, che hanno coinvolto vetture senza pilota umano, e che i riflessi di tale dibattito sono ben presenti in Europa.

In materia , il Parlamento UE espressamente individua come profili sui quali si rende indispensabile un approccio legale innovativo siano quelli concernenti la responsabilità civile ed il regime assicurativo, la sicurezza stradale,le ricadute ambientali (efficienza energetica, fonti di energia rinnovabili),l’accesso e condivisione di dati,i riflessi sulle infrastrutture stradali, le ricadute occupazionali e le normative lavoristiche (trasporti commerciali), i sistemi di geolocalizzazione.

Ma non solo.

Immaginate che un veicolo autonomo venga a trovarsi in una situazione emergenziale che renda inevitabile l’incidente ( nella realtà l’ipotesi non è affatto rara).

Immaginate che,in tale emergenza, il veicolo autonomo sia “costretto” a scegliere, con sterzata a destra o a sinistra, tra l’investire, ad esempio, un pedone anziano od un bambino, od ancora, scegliendo di buttarsi oltre una scarpata, di mettere a rischio la vita del proprio passeggero……

Agevole intendere che se una tale scelta emergenziale di fronte ad un evento imprevisto ed imprevedibile viene operata nell’immediato da un conducente umano, il quadro giuridico esistente è perfettamente idoneo a regolare ogni ipotesi di condotta (responsabilità civile, profili assicurativi, eventuali ricadute penali ed esimenti).

Ma che dire ove la scelta emergenziale sia stata posta in essere dal veicolo autonomo sulla base della sua programmazione rispetto ad un evento di tale tipo?

Si potrà dire, utilizzando le categorie umane/naturalistiche che la scelta di sopprimere una vita umana sia stata davvero emergenziale in presenza del fatto che, evidentemente, una tale scelta era stata programmata ab origine?

E chi (progettista, programmatore,Comitato etico) decide quale vita deve essere sacrificata e secondo quale gerarchia di valori?

Quale responsabilità ricade in capo a chi abbia operato tale scelta programmata con coscienza, volontà e previsione dell’evento?

Ogni esperto di diritto, specie penale, ben intende a quali conseguenze estreme potrebbe arrivarsi e quanto difficilmente le attuali categorie legali diano risposte chiare ed esaurienti a problematiche, concretissime, di questo tipo.

Con buona pace di chi sostenesse che non si ponga il problema delle nuove frontiere del diritto e tenuto conto, tra l’altro, che stiamo parlando, in questo caso, di macchine autonome ma programmate e non certo di macchine intelligenti,capaci di autoapprendimento e di condotte non prevedibili dall’uomo che le ha create.

Quanto al tema della responsabilità civile per i danni causati dai robot, la Risoluzione ne sottolinea la natura fondamentale e traccia le linee guida ai punti da 49 a 59.

In sintesi, mi preme sottolineare i seguenti profili:

  • L’attività congiunta umano-robotica dovrà basarsi su due relazioni interdipendenti essenziali: prevedibilità e direzionalità per determinare quali informazioni è opportuno che gli umani e i robot condividano
  • Il nuovo quadro legislativo, sulla base dell’art. 114 TFUE, deve avere un respiro di almeno 15 anni e deve essere accompagnato da linee guida tecniche e codici di condotta/ etici
  • Nessuna limitazione quantitativa e tipologica al risarcimento dei danni causati dai robot potrà essere introdotta
  • L’approccio potrà essere basato sul criterio della responsabilità oggettiva che richiede solo la prova del danno avvenuto e l’individuazione del nesso di causalità con l’azione del robot
  • Ove poi venga scelto il criterio della gestione dei rischi tale approccio non dovrà concentrarsi sul chi (umano) abbia agito con negligenza a livello individuale ma piuttosto sulla persona che, in determinate circostanze, è in grado di minimizzare i rischi e affrontarne l’impatto negativo
  • La responsabilità di ciascuno sarà proporzionale al livello effettivo di informazioni/formazione fornita al robot. Tali competenze non vanno confuse con quelle che possano dipendere da autoapprendimento ma “almeno nella fase attuale, la responsabilità deve essere imputata a un essere umano e non a un robot
  • Il tema della responsabilità per i danni causati da robot sempre più autonomi dovrà essere prevedibilmente affrontato attraverso un regime di assicurazione obbligatorio( a carico di produttori e proprietari) per tipologie omogenee di robot che tenga conto “di tutte le potenziali responsabilità lungo la catena”
  • Il settore assicurativo è sollecitato a elaborare specifiche tipologie di prodotti in questo comparto
  • Occorre istituire un fondo rischi per le ipotesi in cui il danno causato dal robot non sia assicurato
  • Una qualunque limitazione di responsabilità può essere invocata solo da chi abbia contribuito alla costituzione di un tale fondo
  • Il fondo potrà avere carattere generale (per tutti i robot definibili come autonomi e intelligenti) o particolare (per categorie specifiche di robot) con validità a partire dall’immissione sul mercato e per tutta la durata della vita di un robot e fino alla sua distruzione certificata
  • Ciascun robot dovrà avere una carta di identità che lo colleghi alla sua assicurazione ed al suo fondo anche per permettere a chi interagisce con esso di avere ogni informazione utile sui contenuti della responsabilità e della risarcibilità degli eventuali danni che possano derivare da tale interazione
  • “ l’istituzione di uno status giuridico specifico per i robot nel lungo termine,in modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualunque danno da loro causato nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome o che interagiscono in modo indipendente con terzi

Avevo fatto cenno al profilo etico ed al risalto che ad esso la Risoluzione dedica quale fattore integrativo del quadro giuridico.

Ebbene, nell’allegato, si raccomanda che il tema etico sia tailor made per i ricercatori e gli ingegneri robotici, per i Comitati Etici di Ricerca, per i progettisti, per gli stessi utenti.

Quanto ai progettisti mi preme sottolineare i punti ove si chiede che sia garantita la ricostruibilità e tracciabilità del “processo decisionale”, la trasparenza della programmazione e la prevedibilità dei comportamenti dei robot, l’analisi della prevedibilità di un sistema umano-robotico con esame dell’incertezza di interpretazione e azione e degli eventuali errori robotici o umani, l’identificazione del robot come tale all’atto di interagire con esseri umani.

 Ciò detto,la normativa UE in vigore, che può riguardare il tema qui in esame, è certamente idonea a contenere numerose fattispecie presenti e future ma, altrettanto certamente, non lo è in molti casi che già l’esistente ci permette di ipotizzare concretamente.

Penso alla Direttiva Macchine 2006/42/CE, al Regolamento 2008/765/CE sulla marcatura, alla Comunicazione della Commissione del 20/7/11 sull’applicazione della Direttiva Macchine, alla Direttiva 1/95/CE e alla Decisione 768/2008/CE che, col Regolamento 2008/765/CE, trattano della sicurezza e commercializzazione dei prodotti definendo talune nozioni fondamentali quali quelle di produttore,distributore,importatore,norme armonizzate,immissione nel mercato e valutazione di conformità.

Ed ancora la Direttiva 99/44/CE sulla vendita e la garanzia dei beni di consumo.

In parole semplici, fino a quale punto e a quali condizioni è possibile definire un robot come res/prodotto ricollegando utilmente e pertinentemente a tale nozione ogni possibile conseguenza che sia dato immaginare ne derivi nella realtà da una sua azione?

E’ ora giunto il momento di porsi quantomeno talune domande con riferimento al quadro civilistico ed alla sua capacità di regolazione del fenomeno che stiamo tratteggiando, specie con riferimento allo sviluppo esponenziale della robotica intelligente capace di autoapprendimento ed elaborazione autonoma dei dati acquisiti

Robot: cose, persone o….altro?

L’avvento dell’Intelligenza Artificiale sulla quotidianità suscita infatti ed inevitabilmente una serie di quesiti, anche da un punto di vista civilistico, su cui vale la pena soffermarsi.

Si pensi, ad esempio, alle implicazioni dei recentissimi sinistri occorsi con riferimento ai veicoli senza conducente (casi Google, Tesla ed Uber) che, come già accennato, sappiamo aver cagionato ingenti danni a persone e cose (l’ultimo quello occorso negli USA ad un taxi Uber nella notte tra il 10 e l’11 marzo 2018 ha comportato il decesso di una donna).

Sotto il profilo giuridico, infatti, la domanda principale dalla quale discendono necessariamente tutte le altre è: come deve essere considerato giuridicamente un robot intelligente?

La ripartizione classica prevista dal diritto civile di matrice romanistica (e non solo) è quella fra  cose, persone fisiche e  persone giuridiche.

Sappiamo che, sotto il profilo giuridico, i robot non intelligenti cui siamo abituati (ad. es. i robot presenti nelle catene di montaggio) sono considerate delle res (cose) e, pertanto, soggiacciono alla normativa in materia dettata, in Italia, dal codice civile.

Con il sempre maggiore sviluppo tecnologico e la crescita qualitativa e quantitativa dei robot dotati di IA, tuttavia, emerge con sempre maggiore evidenza la assoluta differenza intercorrente tra robot intelligenti e non.

Tali inevitabili differenze potrebbero (e aggiungo, a mio avviso, avranno) rilevanti ripercussioni sotto il profilo giuridico, al punto che potrebbe essere necessario valutare se ripensare i tipici schemi romanistici che permangono nel diritto vigente, e non solo sul piano civilistico ma anche penalistico ed amministrativo.

Nella presente sede, tuttavia, ci soffermeremo – per ragioni tempistiche – sulle problematiche emergenti nell’ambito del diritto civile.

Ed infatti, a fronte della rivoluzione (già sensibilmente in atto) che porterà verso frontiere sempre più avanzate l’Intelligenza Artificiale, non ci si può non domandare se le odierne categorie civilistiche siano in grado di ricomprendere la tipologia di robot intelligenti/ “senzienti” dotati di un’autonomia nell’apprendimento ed elaborazione dei dati tale da arrivare, in un futuro non troppo remoto, ad autodeterminarsi.

La domanda base da porsi in tale scenario, pertanto, è: i robot intelligenti in quale categoria potrebbero/dovrebbero essere fatti rientrare?

  1. Il Robot come res?

La prima e più naturale categoria in cui viene in mente di classificare i robot, ancorché, dotati di Intelligenza Artificiale è, ovviamente, quella delle res (cose), categoria nella quale, come rilevato in premessa, sono certamente ricompresi i robot non intelligenti con cui tutti, ormai, siamo abituati a convivere.

Ed, invero, anche laddove i robot intelligenti fossero in grado di apprendere (già lo sono) e (in futuro) di autodeterminarsi (alla stregua delle persone fisiche), ricondurli in tale categoria, al pari dei loro antenati “meno” intelligenti, parrebbe la scelta apparentemente più logica.

D’altronde, è noto come la categoria delle res non ricomprenda/abbia ricompreso esclusivamente cose inanimate.

Sappiamo, infatti, come già fin dall’epoca dell’Antica Roma (ma anche più recentemente) la categoria delle res fosse destinata addirittura a determinate persone fisiche (gli schiavi erano vere e proprie res tanto che potevano essere oggetto di proprietà, compravendita etc…).

Nell’attuale sistema civilistico, inoltre,come noto, sono ricompresi nella categoria delle cose anche esseri viventi, gli animali,peraltro ormai riconosciuti e qualificati espressamente come “senzienti” (v. il TFUE) ed ai quali vengono attribuiti, in quanto tali, taluni diritti che certamente non competono alle res ; resta il fatto che se, ad esempio, un cane acquistato a titolo oneroso da un allevamento presenta dei vizi, a tale controversia dovranno applicarsi le norme del codice civile in materia di vizi nell’ambito della vendita.

Considerato che anche i robot intelligenti, (quantomeno in un primo momento ed in assenza di una specifica normativa) potranno essere oggetto di proprietà, alienazione, donazione, locazione e di tutti i negozi giuridici di cui sono oggetto le cose nel nostro ordinamento, ad una prima lettura, si potrebbe ben ritenere che anche la “nuova razza” di robot (così come quella “vecchia”) possa essere fatta rientrare nell’alveo delle res.

Collocare, pertanto, anche i robot “intelligenti” nella categoria delle res – con la conseguente applicazione di tutti gli istituti giuridici e di tutte le normative che disciplinano tali beni – potrebbe apparire una scelta comoda.

Tale soluzione, tuttavia, non è certo esente da criticità.

Ed, invero, una delle principali (e numerosissime) problematiche che potrebbe sorgere riconoscendo i robot “intelligenti” come res, sarebbe quella inerente la responsabilità per danni causati dai robot intelligenti.

In particolare, qualificandoli come cose, in via preliminare, sarebbe necessario individuare, di volta in volta, chi sono i soggetti (persona fisica o giuridica) che dovrebbero essere chiamati a rispondere per il danno cagionato dal robot “intelligente” (il proprietario e/o l’utilizzatore e/o il produttore e/o il programmatore e/o il venditore e/o il manutentore etc…)?

Una volta individuato il soggetto responsabile del danno, poi, si dovrebbe individuare, a seconda del caso, la natura della responsabilità imputabile a tale soggetto (contrattuale o extracontrattuale?).

Con riferimento alla responsabilità contrattuale, in caso di inquadramento nelle res, la prima domanda che ci si dovrebbe porre è se sia possibile addebitare una responsabilità ex contractu in relazione a un danno cagionato da una “cosa” e, in caso affermativo, quale tipologia di negozio sia ravvisabile. A parere di chi scrive, si potrebbe astrattamente ipotizzare, in capo ai sopra individuati soggetti (persona fisica o giuridica), una sorta di “obbligo di protezione”( art.1173 c.c.) nei confronti della collettività, la cui violazione comporterebbe, come noto, una responsabilità di natura contrattuale secondo la giurisprudenza prevalente.

Tuttavia, a tal fine, sarebbe necessario un intervento legislativo o quantomeno giurisprudenziale al fine di far nascere e consolidare un tale obbligo.

Quanto alla responsabilità extracontrattuale, invece, potrebbero sorgere delle problematiche in merito a quale tipologia di responsabilità extracontrattuale applicare: l’art. 2050 c.c. inerente la responsabilità per l’esercizio di attività pericolose, l’art. 2051 c.c. inerente i danni cagionati da cose in custodia, l’art. 2052 c.c. circa i danni cagionati da animali (qualora si volessero equiparare i robot intelligenti agli animali) o, ancora, l’art. 2054 c.c. sulla circolazione dei veicoli, o, in via residuale, l’art. 2043 c.c. (neminem ledere)?Il tutto coi relativi,rilevanti riflessi sull’onere della prova.

Anche in tale caso, sarebbe necessario un intervento legislativo/giurisprudenziale che qualifichi in che tipologia di responsabilità extracontrattuale far rientrare i robot intelligenti.

Sarebbe opportuno, poi, chiedersi chi risponda nel caso in cui il soggetto responsabile (persona fisica o giuridica) non sia individuabile fisicamente ovvero non possa giuridicamente rispondere.

Si pensi, ad esempio, all’ipotesi in cui si rientri in un’ipotesi di caso fortuito e, quindi, il soggetto astrattamente responsabile sia esonerato da responsabilità.

Quando tali “creature” ed i soggetti chiamati astrattamente a rispondere per loro, possono invocare il caso fortuito? In altri termini, quando si potrà dire che il comportamento di un robot “intelligente” sia talmente imprevedibile da integrare gli estremi del c.d. caso fortuito ed escludere totalmente la responsabilità del soggetto responsabile (proprietario, utilizzatore, produttore, venditore, programmatore, manutentore etc…)?

La relativa identificazione del caso fortuito potrebbe essere lasciata alla giurisprudenza, così come è accaduto in altri ambiti. Tuttavia, anche ove fosse ravvisato il caso fortuito, ci si dovrebbe chiedere se qualcuno dovrebbe comunque rispondere del danno patito dal soggetto leso e, in caso affermativo, chi ne debba rispondere (ipotizziamo un fondo comune che, tuttavia, analogamente a quello previsto da quello “vittime della strada”, potrebbe non assicurare una tutela reale ed effettiva del soggetto danneggiato).

Ma, ancora, immaginiamo il caso in cui un veicolo a motore senza conducente (che necessariamente sarà programmato affinché causi il minor danno possibile a persone e cose) il quale, in caso di emergenza (l’ipotesi è quella, purtroppo molto concreta, del pedone che attraversa la strada improvvisamente e fuori dalle strisce), si trovi costretto a dover decidere se continuare la sua strada travolgendo il pedone o dover svoltare improvvisamente colpendo ipoteticamente altre persone/cose. In tale caso, chi sarebbe responsabile dei danni eventualmente cagionati? Quale sarebbe la scelta che il robot “intelligente” dovrebbe prendere? Secondo quali criteri? Vi sarebbe una responsabilità (civile/penale) del programmatore che ha deciso quale scelta far compiere alla macchina o no?

Ed, ancora, quando i robot “intelligenti” saranno in grado di autodeterminarsi, in tutto o in parte, si potrà ancora sostenere che vi sia un soggetto responsabile diverso dal robot stesso?

Ma non è finita qui, considerato che, secondo i più recenti progetti, i robot “intelligenti” verranno messi in cloud affinché un robot apprenda non solo dalla propria esperienza ma anche dall’esperienza acquisita, di volta in volta, dai vari robot (del medesimo tipo) connessi alla rete, chi risponderebbe di eventuali violazioni in materia di privacy? L’utilizzatore del robot ricevente i dati sarebbe responsabile nei confronti del titolare delle informazioni riservate ancorché nel paese di ricevimento la medesima condotta non costituisca una violazione della privacy? Neppure il Regolamento UE di imminente entrata in vigore sembra ricomprendere questa fattispecie.

Questi sono solo alcuni esempi delle criticità che potrebbero emergere, ma riteniamo possano far comprendere che ricondurre, tout court, i robot “intelligenti” alla categoria civilistica delle res, potrebbe costituire un’eccessiva semplificazione giuridica, considerata l’evidente e sempre maggiore autonomia sia operativa sia decisionale dei medesimi.

Alla luce di ciò, pertanto, il nuovo interrogativo che necessita di una risposta è il seguente: se la categoria delle cose non è abbastanza ampia da ricomprendere quella dei robot, in quale categoria esistente dovrà essere contemplato?

  1. Persone fisiche? Una provocazione

Fermo quanto sopra, la sopracitata, ormai sempre maggiore, capacità di autodeterminazione ed interazione con l’ambiente circostante potrebbe far propendere provocatoriamente ad inquadrare i robot “intelligenti” nella categoria delle persone fisiche.

Se, effettivamente, i robot “intelligenti” fossero considerati alla stregua delle persone fisiche, si potrebbe applicare agli stessi la normativa civilistica destinata a disciplinare tale categoria.

Anche in tale contesto, tuttavia, ci si chiede se determinati istituti del diritto civile previsti per le persone fisiche potrebbero attagliarsi realmente all’IA.

In primo luogo, si pensi agli istituti della capacità giuridica, ossia l’idoneità di un soggetto a essere titolare di diritti e doveri, e della capacità di agire, ossia l’idoneità di un soggetto a porre validamente in essere atti idonei a incidere sulle situazioni giuridiche di cui è titolare, senza che sia necessaria l’interposizione di altri soggetti (un tutore?).

Tali capacità dovrebbero essere riconosciute ai robot “intelligenti”?

In secondo luogo, i diritti della personalità espressamente riservati alle persone fisiche, quali il diritto alla vita ed alla integrità fisica, il diritto al nome, all’immagine, all’onore ed alla reputazione etc…, dovrebbero essere previsti in capo ai robot “intelligenti”?

Potrebbe, inoltre, un robot essere titolare di un diritto reale? Contrarre matrimonio? Disporre e ricevere per testamento e per donazione? Essere parte di un contratto? Prestare la propria attività come lavoratore subordinato o autonomo? Essere responsabile per le proprie azioni/omissioni? Oppure dovrebbe, comunque, rimanere una responsabilità in capo al produttore, venditore, utilizzatore, programmatore?

In ambito processuale, poi, potrebbe essere parte in un processo per far valere tali diritti o essere condannato o, ancora, prestare giuramento o rendere testimonianza?

È evidente che gli interrogativi posti assumeranno reale rilevanza ed attualità solo nel momento in cui si considererà un robot “intelligente” capace di apprendere attraverso l’esperienza e l’interazione, di prendere decisioni in modo del tutto indipendente, di essere autosufficiente attraverso sensori o con lo scambio di dati con l’ambiente esterno, adeguando in base ad esso il proprio comportamento: in breve, quando si avrà un robot totalmente autonomo, circostanza ancora di là da venire.

Ad oggi,dunque, non pare proprio che gli attuali robot “intelligenti” possano essere in alcun modo parificati, sotto il profilo giuridico, alle persone fisiche. Tuttavia, considerata la rapidità dell’evoluzione tecnologica, non si può astrattamente escludere che, in un futuro neppure troppo lontano, detti robot possano essere equiparati giuridicamente alle persone fisiche (quantomeno sotto taluni profili), così come potrebbero esserlo gli animali a cui si riconoscono sempre maggiori diritti.

Esaminate le criticità connesse alla collocazione dei robot “intelligenti” nell’ambito della categoria delle res ed esclusa, allo stato, la possibilità di inserire tali robot nella categoria delle persone fisiche, si ritiene utile valutare la loro riconducibilità nell’alveo delle persone giuridiche, circostanza che – se non altro psicologicamente – potrebbe essere più facilmente accettabile dalla percezione umana.

  1. Persone giuridiche?

La collocazione dei robot “intelligenti” nella categoria delle persone giuridiche, invero, consentirebbe di collocare, in capo ai robot, una serie di diritti (oltre che doveri) che, allo stato, sono già riconosciuti, ad esempio, alle società. Si pensi alla capacità di essere titolare di un patrimonio o alla possibilità di essere soggetto agente nella perpetrazione di un reato (v. D.Lgs.231/01)

In tal senso, nulla di nuovo.

Anche effettuare tale scelta, tuttavia, potrebbe creare delle problematiche.

Qualora, infatti, fosse ricondotto in detta categoria, al pari di una società, un robot “intelligente” sarebbe un soggetto di diritto con capacità giuridica e potrebbe, per esempio, stipulare contratti, avere un proprio patrimonio, maturare debiti e crediti, avanzare pretese o doversi difendere dai creditori.

In tali premesse, tuttavia, si ricadrebbe, seppur in parte, nel caso sopra visto delle persone fisiche, con tutte le relative “complicazioni”, sia sotto il profilo del diritto sostanziale che processuale (una fra tutte, si pensi alla possibilità del robot di essere condannato a una qualche sanzione anche di natura penale).

Nemmeno l’attuale quadro normativo delle persone giuridiche, pertanto, sebbene apparentemente più accettabile rispetto a quello delle persone fisiche, appare compatibile con i robot “intelligenti”.

  1. Conclusioni: i robot intelligenti possono essere davvero ricompresi in una delle categorie del diritto civile oggi esistenti?

Alla luce di tutto quanto sopra detto, sebbene la categoria che, allo stato, si attaglierebbe meglio ai robot “intelligenti” sia quella delle res, riteniamo tuttavia che, in breve tempo, tale categoria potrebbe risultare  troppo “stretta” o, comunque, non idonea a ricomprendere tutte le possibili implicazioni giuridiche che lo sviluppo dei robot “intelligenti” necessariamente creerà.

Si ritiene, infatti, che nei prossimi anni (così come espressamente prefigura la Risoluzione del Parlamento UE) sarà necessario immaginare un ulteriore scenario di una portata tale da comportare la necessità di istituire un quartum genus (“personalità elettronica”?) con caratteristiche tali da ricomprendere le singole specificità dell’Intelligenza Artificiale e, ciò, anche al fine di trovarsi “coperti” (e, di conseguenza, tutelati) di fronte ad un fenomeno che, al pari e più delle rivoluzioni industriali ad oggi vissute, cambierà radicalmente il nostro approccio, in ogni campo.

Non è dunque un caso che il Parlamento europeo, con la Risoluzione del 16.02.2017, abbia invitato la Commissione europea a voler prendere atto dello sviluppo tecnologico esponenziale della robotica e dell’Intelligenza Artificiale ed a formulare una proposta di Direttiva europea in materia, prevedendo un sistema di norme ad hoc che sia implementabile, in maniera omogenea, da tutti gli Stati membri.

 

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

 

Occorre essere nel contempo realisti ma capaci di ……osare

Commissione UE “Digital day”  10 aprile 2018 Bruxelles

I robot cognitivi ibridi fanno parte di un futuro possibile?

“ non abbiate paura”