Documento senza titolo
White Paper on Artificial Intelligence: l’AI verso una “trustworthiness-by-design”? Alcuni spunti sullo human-centric e risk-based approach della Commissione europea


21/02/2020

L’Artificial Intelligence si sta sviluppando velocemente e si appresta a cambiare le nostre vite. E’ con questa affermazione che si apre il White Paper “On Articial Intelligence – A European approach to excellence and trust” (Comunicazione della Commissione UE (2020)65 del 19.02.2020).

Fin dal titolo il documento mette in chiaro due punti cardine, gli obiettivi cui l’agire europeo in tema di AI dovrà necessariamente ispirarsi: la ricerca dell’eccellenza (normativa, tecnologica, socio-ambientale) e la creazione della fiducia nei sistemi di intelligenza artificiale, un prerequisito necessario perché essa sviluppi il suo pieno potenziale nell’applicazione quotidiana.



Innanzitutto, una definizione. Il Libro Bianco, richiamando quella già fornita dalla Comunicazione UE (2018)237, conferma che l’AI consiste in «systems that display intelligent behaviour by analysing their environment and taking actions – with some degree of autonomy – to achieve specific goals».

Da tale conferma emerge l’unitarietà e la coerenza dell’approccio europeo all’AI: il riconoscimento di una (parziale) autonomia tecnologica e decisionale dei sistemi di AI deve rientrare sempre e comunque nell’ambito del controllo e della finalizzazione a obiettivi specifici individuati dall’essere umano.        
           
Questa human-centric AI poggia le sue fondamenta sulla data governance e sulla user-centric experience, ed è volta dunque – grazie alle sue capacità predittive – a risolvere problemi umani in ambiti quali la tutela della salute, dell’educazione, della sicurezza e dell’ambiente.



A fronte di ciò, l’AI apre tuttavia la strada a nuovi rischi, fra cui quelli di privacy e discriminazione, legati essenzialmente alla potenziale scarsa trasparenza del decision-making basato sull’elaborazione dei dati.          

Accertata la fondamentale importanza dell’AI nella data economy (e non solo), il «solid european approach» voluto dalla Commissione UE contempera dunque la diffusione della nuova tecnologia e la mitigazione dei rischi ad essa legati.   

L’obiettivo di fondo è quindi delineare un framework normativo a trecentosessanta gradi, che insista su tutta la filiera dell’intelligenza artificiale e che sia capace al contempo di attrarre investimenti e competenze, di facilitare l’adozione dell’AI da parte di PMI e settore pubblico, di assicurare l’accesso a dati e infrastrutture e, soprattutto, di creare un ecosistema affidabile per il consumatore finale.  

Una simile scelta mira in definitiva ad assicurare all’Unione europea la leadership (anche sotto il profilo etico) nel campo dell’intelligenza artificiale: in altre parole, contando sul proprio posizionamento in termini di start-up innovative, centri di ricerca, industria, servizi, infrastrutture, dati, l’UE ambisce a diventare non una semplice fruitrice di AI, ma il punto di riferimento per la creazione di innovativi sistemi di intelligenza artificiale.          

Fattori abilitanti di una simile crescita non possono che essere, e il documento lo sottolinea, l’attrazione di importanti investimenti (si parla di 20 miliardi di Euro annui), il potenziamento delle competenze, il rafforzamento delle sinergie fra i poli di ricerca dislocati sul territorio europeo e la già fiducia dei cittadini nei sistemi di AI. Al concetto di fiducia, anzi, è dato ampio spazio fin dalla progettazione dei sistemi di AI, tanto che si potrebbe parlare di “trustworthiness-by-design”.       

Il regulatory framework necessario a raggiungere gli obiettivi è non a caso definito «an ecosystem of trust»: tale fiducia risulta necessaria, lato cittadini, a superare l’asimmetria informativa legata al decision-making algoritmico e, lato imprese, ad operare in un quadro regolatorio dai confini certi.                        
Il nuovo ecosistema dovrà reggere quindi su sicurezza tecnologica, la privacy e la data governance, la trasparenza, il benessere sociale ed ambientale, l’equità, la responsabilità.

Il Libro Bianco, comunque, non si ferma ad affermazioni di principio, ma va oltre, ponendosi due domande essenziali per governare il (invece di essere governati dal) nuovo scenario tecnologico: la normativa esistente è pronta ad affrontare i rischi legati all’AI? e quali sono le fondamenta della normativa del futuro?         

In relazione alla prima domanda, il paper evidenzia che i principali rischi derivanti dall’utilizzo di sistemi AI riguardano i diritti fondamentali e la sicurezza di prodotti e servizi. Certo, molte norme europee sono già a prova di AI quanto ai principi (si pensi al GDPR o alle direttive sui diritti dei consumatori), ma quanto all’enforcement si può affermare lo stesso? 
           
Alcuni esempi, quali le incertezze sulle responsabilità di ciascun operatore lungo la catena del valore o la sicurezza di funzionalità apportate dall’AI a prodotti/servizi successivamente al loro arrivo sul mercato, sembrano richiedere accorgimenti specifici.

In relazione alla seconda domanda, cioè alla normativa futura, il rapporto fra dati e algoritmi che sottende ai sistemi di AI richiede un «risk-based approach» finalizzato a identificare le applicazioni in grado di comportare un high risk. Questo rischio elevato, innanzitutto, va valutato principalmente in relazione alla sicurezza, ai diritti fondamentali e ai diritti dei consumatori. In secondo luogo, è necessario chiarire quando un sistema di AI può comportare un high risk: in questo senso, la Commissione identifica due parametri complementari, e cioè da un lato l’analisi del settore specifico in cui l’AI è usata e dall’altro la specifica tipologia di utilizzo dell’AI.          

Una volta delineato l’ambito oggettivo del «risk-based approach», è poi necessario stabilire non solo quali debbano essere i requisiti applicabili alle high risk AI application, ma anche quali siano i soggetti chiamati a farsene carico e quale sia l’ambito territoriale.        
           
Sul primo punto (quali requisiti?), la Commissione enuclea una serie di key requirements, fra i quali: training data (i dati set utilizzati per “allenare” l’AI devono essere conformi alla normativa UE); data and record-keeping (regole relative alla conservazione dei dati); information provision (obbligo di una corretta informazione sui sistemi AI); robustness and accuracy (sicurezza dei sistemi e prevenzione dei rischi) e human oversight (coinvolgimento dell’uomo per un’IA affidabile). Senza entrare nel dettaglio di ciascuno di questi elementi, è possibile sottolineare che il comune denominatore è un approccio basato su sicurezza, trasparenza e centralità della persona.      

Sul secondo punto (a chi si applicano?), data la pluralità di operatori coinvolti nella filiera dei sistemi di AI, il paper sottolinea che ciascun requisito dovrebbe riguardare l’attività dell’operatore o degli operatori meglio posizionati per fronteggiare lo specifico rischio, senza peraltro che questo escluda la responsabilità del produttore nei confronti del consumatore. Si prevede inoltre che anche gli sviluppatori di sistemi AI che non comportino rischi elevati possono adottare il medesimo framework su base volontaria.   

Sul terzo punto (quale ambito territoriale?), il documento opta per una scelta simile a quella del GDPR, cioè l’applicabilità della regolazione a tutti i soggetti che forniscono prodotti o servizi AI-based in Europa, a prescindere dalla loro collocazione geografica.                   
E’ utile notare che, assieme al White Paper, la Commissione UE ha lanciato una consultazione pubblica che intende raccogliere proposte concrete per integrare l’approccio europeo all’intelligenza artificiale, sottolineando in definitiva che «AI is a strategic technology that offerts many benefits for citizens, companies and society as a whole, provided it is human-centric, ethical, sustainable and respects fundamental rights and values».


© Graziadei Studio Legale 

Ulteriori informazioni: link al sito della Commissione UE, White Paper IA scaricabile in pdf

 

Disclaimer & Privacy
P.IVA 07340781009