In tempi di Big Data Analysis e Machine Learning, le sfide dell’intelligenza artificiale sono al centro del dibattito giuridico ed economico, e l’Unione europea sembra pronta ad alzare l’asticella delle best practices internazionali. Dopo le due Comunicazioni (25 aprile e 7 dicembre 2018) con cui la Commissione ha delineato obiettivi e framework dello sviluppo dell’IA, ora è arrivato il primo draft del Codice etico curato dall’Artificial Intelligence Expert Group. Intitolato “Ethics Guidelines for Trustworthy AI”, il documento non ambisce alla cristallizzazione del fenomeno, ma anzi rappresenta un momento di apertura al confronto con gli stakeholders sul concetto di IA “trustworthy” (affidabile). E proprio l’affidabilità è considerata dagli esperti come un prerequisito fondamentale per sviluppare e utilizzare i sistemi di intelligenza artificiale (IA Systems): affidabilità nella tecnologia alla base dei sistemi, nelle regole che li disciplinano e nei “business and public models” che ne governano l’orizzonte applicativo.
La forza dirompente e trasformativa dell’IA, si legge nel documento, è un fattore chiave per assicurare il benessere della collettività e per affrontare problematiche come la salute del pianeta e i cambiamenti climatici, nell’ottica di uno sviluppo sostenibile della società. Le potenzialità dell’intelligenza artificiale sono del resto trasversali, e toccano non solo settori come i trasporti, la medicina personalizzata, la robotica, l’educazione e la sicurezza cibernetica, ma anche il decision making dei cittadini nelle piccole e grandi scelte della vita quotidiana. Tuttavia, fenomeni come la Data Collection e il Machine Learning, pur necessari per il progresso dell’IA, nascondono potenziali insidie e pericoli per la sicurezza delle persone e dei dati che le riguardano. Pertanto, la stella polare del Codice etico, al fine di massimizzare i benefici e ridurre i pericoli, è rappresentata da uno “human-centric approach” che porti allo sviluppo di una intelligenza artificiale affidabile.
Tale approccio si compone essenzialmente di due elementi: da un lato, il rispetto di diritti fondamentali, principi e valori comuni europei, capaci di dotare l’uso dell’IA di una finalità etica, e cioè il miglioramento del benessere individuale e collettivo; dall’altro, la sicurezza tecnologica, tale da evitare ogni tipo di inconveniente nell’utilizzo degli IA Systems.
A tal fine, i tre capitoli di cui si compone il Codice etico tracciano un percorso che, da un livello di maggiore astrazione (i principi cardine), giunge gradualmente a un livello di più spiccata praticità (l’adattamento dell’IA a usi specifici).
In particolare, i concetti di “human-centric AI” e di “ethic purpose” costituiscono il punto di partenza e di approdo dell’intero discorso, e si legano, oltre che ai diritti fondamentali, anche ad alcuni principi comuni. Tra questi è possibile ricordare la “beneficence” (l’IA deve migliorare il benessere individuale e collettivo attraverso una migliore distribuzione delle opportunità economiche, sociali e politiche), la “non maleficence” (con una particolare attenzione alle categorie più deboli, come bambini e anziani), l’ “autonomy of human beings” (intesa come libertà di auto-determinazione, non vincolabile dalle macchine), la “justice” (cioè la correttezza degli IA Systems) e l’ “explicability” (cioè la trasparenza).
Tali principi devono tradursi poi in uno schema realizzativo votato a quel che si potrebbe definire come trustworthy-by-design: l’implementazione dei requisiti di affidabilità deve cioè avvenire fin dallo stadio iniziale della creazione del sistema. In tal senso, il Codice etico suggerisce alcuni metodi applicativi capaci di trasferire i suddetti principi nel concreto funzionamento delle macchine. Di particolare importanza risulta innanzitutto la “data governance”, con riferimento alla qualità e all’integrità dei dati raccolti, onde evitare alterazioni del sistema. L’IA, d’altra parte, deve fornire un’esperienza user-centrica, lasciando all’uomo, e non agli algoritmi, l’ultima parola, e ponendo il benessere dell’utente al centro dell’esperienza. Si tratta di un tema particolarmente delicato in esperienze come l’e-commerce o i social network, cui deve peraltro legarsi una spiccata attenzione verso la privacy dell’utente, in relazione sia ai dati da lui forniti, sia ai dati che il sistema capta autonomamente (come, per esempio, la risposta dell’utente a una specifica raccomandazione dell’algoritmo).
Il funzionamento degli algoritmi deve inoltre essere sicuro, affidabile e capace di rimediare a errori o incongruenze, e l’intero sistema deve essere realizzato con l’obiettivo di minimizzare l’asimmetria informativa normalmente connaturata al B2C.
I metodi proposti dal Codice etico, tuttavia, non sono rigidi e definitivi. La creazione di un’IA affidabile è un processo in continua evoluzione, la cui meta è una piena coerenza tra principi teorici e sviluppo concreto.
Nel ribadire che, per incrementare il benessere umano, l’IA deve basarsi su un “ethical purpose” e assicurare una “technical robustness”, il documento esorta infine gli stakeholders a fornire osservazioni in vista della versione definitiva del Codice, che sarà pubblicata a marzo e servirà come modello per costruire una “human-centric AI” agganciata ai valori fondamentali europei.
© Graziadei Studio Legale