Seleziona una pagina
25.08.2021

Regolamento UE sull’Intelligenza Artificiale: questioni aperte

Finalità del trattamento, responsabilità e principi costituzionali. Luci e ombre della proposta della Commissione

La commissione ha adottato un approccio “statico” basato sul rischio, ma l’augurio è che nella continuazione del percorso legislativo si lasci spazio allo sviluppo delle progettualità e si torni a porre l’attenzione sui valori europei.

Tra il 1940 e il 1942 lo scrittore Isaac Asimov teorizzava nei suoi libri le Tre leggi della robotica. Allora si trattava di fantascienza. Oggi, 80 anni più tardi, la Commissione Europea ha pubblicato – questa volta per davvero – una prima proposta di Regolamento sull’Intelligenza Artificiale.

La pubblicazione, che delinea a tutti gli effetti una base legislativa, risale al 21 aprile scorso, e da allora sono stati molti i giuristi che hanno evidenziato peculiarità e criticità di una proposta attesa da più fronti e che per certi versi dovrà tenere in considerazione anche temi etici.

Ecco cosa prevede e quali sono le criticità principali.

Donna allo specchio

Un approccio basato sul rischio

La proposta di Regolamento sull’Intelligenza Artificiale emanata dalla Commissione Europea prevede un’impostazione basata sulla valutazione del rischio (risk-based approach) già stato utilizzato nel regolamento GDPR. Ma se in quest’ultimo la valutazione del livello di rischio è lasciata al titolare del trattamento dei dati, nel caso del software AI la Commissione ha preferito una visione statica e top-down dei livelli di rischio, che sono quindi determinati a priori dalla commissione, così come le rispettive conseguenze.

I livelli di rischio individuati sono 3:

  • determinano un rischio inaccettabile (proibiti)
  • rischio alto (consentiti ma oggetto di obblighi e requisiti)
  • rischio basso

La predeterminazione dei livelli di rischio, tuttavia, è anche uno dei punti su cui si concentrano i dubbi dei giuristi. Secondo l’Avv. Giusella Finocchiaro, Professoressa di Internet Law e Diritto Privato all’Università di Bologna e Responsabile area giuridico-normativa Osservatorio Digital B2b, la staticità dei livelli di rischio limiterà infatti gli inevitabili adattamenti successivi del Regolamento.*

Le questioni giuridiche aperte

Nel suo intervento al convegno B2b: digitalmente lontani, fisicamente vicini tenutosi lo scorso 15 giugno, Finocchiaro delinea inoltre due aree della proposta in cui si possono individuare vuoti giuridici.

Il primo punto riguarda i dati analizzati dai sistemi AI. La proposta di Regolamento impone l’obbligo di controllo umano e prescrive criteri di qualità dei i dati utilizzati per allenare i sistemi AI ad alto rischio, ma permane una certa difficoltà a definire le finalità del trattamento: nei sistemi AI, infatti, non sempre può conoscere a priori quali saranno gli utilizzi effettivi dei dati, che possono comunque mutare. Gran parte dell’interesse nei sistemi di Artificial Intelligence, inoltre, riguarda dati non personali.

La seconda criticità individuata dalla Finocchiaro riguarda la responsabilità delle elaborazioni effettuate dai sistemi di AI, che dovrà essere necessariamente attribuita a un soggetto che possa rispondere degli eventuali danni causati. La proposta infatti non affronta direttamente questo tema ma impone una distribuzione della responsabilità – con adempimenti differenziati – sui soggetti coinvolti, quali l’autore del programma, l’utente il produttore o il venditore.

Finocchiaro conclude il suo intervento augurandosi una continuazione del percorso legislativo che non precluda lo sviluppo delle progettualità AI: «Anche se il legislatore non ha dato istruzioni precise, esiste un ambito di autonomia molto ampio nel quale si possono sviluppare soluzioni AI. Il percorso non è concluso: l’augurio è che non si dettino norme troppo specifiche e strettamente legate allo sviluppo odierno, poiché queste potrebbero costituire un freno nei prossimi anni. La normativa e dovrà lasciare ai privati e al mercato la possibilità di svilupparsi».

Un regolamento poco umano?

Assieme alle questioni normative, in un recente articolo pubblicato su Agenda Digitale a firma di Giovanni De Gregorio, Federica Paolucci e Oreste Pollicino* i tre giuristi notano, all’interno della proposta di Regolamento, la mancanza di riferimenti ai più basilari principi costituzionali, quali quelli di uguaglianza e non discriminazione. Se, infatti, all’interno dell’explanatory memorandum in apertura della proposta è presente l’esplicito riferimento agli european-values, i principi costituzionali non trovano spazio né applicazione all’interno del testo, che utilizza solo una volta i termini “umano” e “dignità”. Quale il motivo di questa mancanza?

Conclude l’articolo: «La scelta di fondo sembra essere quella di voler sposare il sistema del rischio per frenare l’espansione incontrollata del settore, senza però sforzarsi di rendere concreta la spinta costituzionalistica che viene promessa negli intenti della proposta. Tuttavia, il riferimento ai valori europei sembra incoraggiare a guardare all’approccio risk-based della proposta come orientato non solo al mercato interno ma anche alla tutela dei diritti fondamentali».

* Intervento al Convegno degli Osservatori B2b: digitalmente lontani, fisicamente vicini, 15 giugno 2021
** Agenda Digitale, L’intelligenza artificiale made in Ue è davvero “umano-centrica”? I conflitti della proposta

Competence center

Potrebbero interessarti