La Commissione europea, con la Comunicazione dell’8 aprile 2019, COM(2019)168 final, intitolata “Building trust in human-centric artificial intelligence”, ha indicato i requisiti fondamentali che tutte le applicazioni di intelligenza artificiale dovrebbero rispettare per essere considerate affidabili.
“Al centro si trova l’uomo. È l’uomo che domanda, questo è l’approccio europeo”: sono le parole del Commissario europeo per l’economia e la società digitali, Maryia Gabriel, sulla Comunicazione. Infatti, come può desumersi dallo stesso titolo, alla base del documento vi è il concetto di intelligenza artificiale “antropocentrica”, cioè di un’IA che ponga al centro l’uomo, il suo benessere e i suoi valori.
In particolare, i principi individuati nella Comunicazione provengono dal gruppo di esperti ad alto livello sull’IA istituito dalla Commissione europea con il precipuo fine di elaborare orientamenti etici basati sul quadro normativo esistente, che dovrebbero essere applicati da tutti gli sviluppatori, fornitori e utenti dell’IA.
I requisiti fondamentali sono sette: intervento e sorveglianza umani, robustezza tecnica e sicurezza, riservatezza e governance dei dati, trasparenza, non discriminazione ed equità, benessere sociale e ambientale, accountability.
Tra questi, il principio della riservatezza e della governance dei dati riveste un’importanza particolare. Infatti, le registrazioni digitali del comportamento umano possono consentire ai sistemi di IA di dedurre non solo le preferenze, l’età e il genere dei singoli, ma anche il loro orientamento sessuale e il loro credo religioso o politico. Secondo la Commissione, è necessario che le persone abbiano fiducia nel trattamento dei dati personali e, a tal fine, occorre garantire loro il pieno controllo dei dati e assicurare che le informazioni che le riguardano non saranno utilizzate per discriminarle o arrecare loro danno.
Inoltre, la qualità e l’integrità dei dati – materia prima per molte applicazioni di IA – sono fondamentali per assicurare la correttezza delle prestazioni dei sistemi di IA. Infatti, quando si raccolgono dati, questi possono riflettere condizionamenti di tipo sociale o contenere inesattezze, errori e vizi materiali. Questo aspetto deve essere risolto prima di utilizzare una qualsiasi set di dati per addestrare un sistema di IA.
Nella Comunicazione, la Commissione dichiara altresì di voler portare l’approccio antropocentrico dell’Unione europea sulla scena internazionale, rafforzando la cooperazione con i partner che condividono gli stessi principi e valutando in che misura si possa giungere a una convergenza con i progetti di orientamenti etici di Paesi terzi (ad esempio Giappone, Canada, Singapore).
La Commissione avvierà presto una fase pilota che servirà a raccogliere un feedback strutturato dagli stakeholder sui sette requisiti fondamentali. All’inizio del 2020, sulla base della valutazione del feedback ricevuto, il gruppo di esperti ad alto livello sull’IA riesaminerà e aggiornerà gli orientamenti. Analizzata l’esperienza acquisita, la Commissione valuterà i risultati e proporrà eventuali passi successivi.