New Technology

AI e responsabilità civile, i Garanti della Privacy UE chiedono più chiarezza

Un anno fa, nell’aprile del 2021, la Commissione Europea ha proposto l’adozione dell’Artificial Intelligence Act (AI Act). Il regolamento, attualmente al vaglio delle istituzioni UE, è volto a promuovere sistemi tecnologici sicuri, trasparenti, etici, imparziali e sotto il controllo umano, oltre che a categorizzare i sistemi di AI – dal rischio minimo a quello più elevato – prevedendo per ciascuna categoria diversi livelli di limitazioni.

Cosa prevede l’AI Act

La regolamentazione dell’AI applica il principio di proporzionalità attraverso misure di equilibrio e controllo progressive, in base ai diversi livelli di rischio. Mentre i rischi inaccettabili saranno vietati, i sistemi di AI ad alto rischio saranno soggetti a obblighi rigorosi prima di poter essere immessi sul mercato. Le misure comprenderanno una specifica valutazione del rischio e un monitoraggio continuo della qualità delle serie di dati, nonché un’adeguata supervisione umana. Anche i sistemi a rischio limitato saranno soggetti a precisi obblighi di trasparenza. I sistemi giudicati a rischio minimo, invece, saranno soggetti a codici di condotta volontari, nonché a sandbox normativi, così da agevolare l’innovazione responsabile.

I dubbi dei Garanti della privacy

Di recente, il Comitato europeo per la protezione dei dati personali (Edpb) ha inviato alla Commissione Europea una lettera contenente alcune raccomandazioni riguardo all’Artificial Intelligence Act (AI Act). Seppure esprimendo apprezzamento per l’iniziativa che mira ad adeguare le norme in materia di responsabilità civile nell’era digitale e alla luce dell’impiego dell’intelligenza artificiale, i Garanti europei hanno sottolineato, però, la necessità di chiarire i ruoli di produttori e fornitori di questi sistemi.

La lettera evidenzia inoltre l’opportunità di assicurare agli utenti la trasparenza riguardo all’impiego di sistemi di AI attraverso idonee informazioni sui meccanismi di elaborazione dei dati.

I Garanti ricordano infatti che, poiché non sempre risulta possibile illustrare in modo chiaro ed esaustivo il funzionamento di sistemi di AI, “vi è la necessità di progettare questi sistemi in modo conforme ai principi di protezione dati, verificando costantemente la qualità dei dati e dei processi di elaborazione”.

Per il Comitato europeo per la protezione dei dati personali è essenziale la valutazione preliminare della qualità dei dati utilizzati dagli algoritmi. “Per creare un ambiente tecnologico affidabile e limitare gli effetti negativi di decisioni errate – scrivono i Garanti – la misurabilità del grado di equità e causalità delle decisioni algoritmiche dovrebbe costituire un pilastro delle nuove regole”. Secondo il Comitato europeo per la protezione dei dati personali, infine, la nuova normativa sulla responsabilità civile dovrà essere efficace come legislazione a sé stante e non ricalcare semplicemente gli obblighi previsti dal futuro AI Act.

Barbara Tangari

Continua

Barbara Tangari

Iscritta all’Albo speciale degli Avvocati abilitati innanzi alle giurisdizioni superiori. Il suo obiettivo è guidare e consigliare i propri clienti, per riporre al sicuro le proprie idee di business che potranno un giorno diventare idee di capitali.
Potrebbe interessarti anche...
Close
Back to top button
Non sei ancora iscritto alla newsletter di Starthink Magazine?
Iscriviti per ricevere le ultime novità!
Non sei ancora iscritto alla newsletter di Starthink Magazine?
Iscriviti per ricevere le ultime novità!