L’Evoluzione del Regolamento Europeo sull’Intelligenza Artificiale: un percorso non ancora concluso ma sulla buona strada

Dopo la votazione di pochi giorni fa (2 febbraio 2024) è ragionevole ipotizzare che il Parlamento europeo possa procedere senza ulteriori blocchi o reticenze interne alla conclusione del lungo iter normativo che contraddistingue la  generazione delle norme europee.

Le principali riserve politiche erano espresse da alcuni Stati membri, tra cui Francia e Germania, nel timore che le regole potessero limitare la rapidità del processo d’innovazione condannando le aziende europee a perdere in competitività rispetto a quello del resto del mondo.

 

Principi Fondamentali e Obiettivi

L’AI Act si fonda su un approccio basato sul rischio, stabilendo regole più severe per le applicazioni di IA considerate ad alto rischio. Questo include l’introduzione di un sistema di governance rafforzato a livello UE, un elenco ampliato di divieti, e requisiti rigorosi per la valutazione dell’impatto sui diritti fondamentali. L’obiettivo è garantire che i sistemi di IA siano sicuri, trasparenti, tracciabili, e non discriminatori.

 

Uso e Regolamentazione dell’IA

Il testo prevede un elenco di usi vietati dell’IA, come il punteggio sociale, e stabilisce regole per usi ad alto rischio in settori critici come istruzione, sanità, e lavoro. Inoltre, introduce requisiti di trasparenza per strumenti come deepfake e chatbot AI. Per facilitare e al contempo rendere più sicura innovazione, propone l’istituzione di sandbox permettendo lo sviluppo e il test di applicazioni rischiose in ambienti controllati.

É previsto un regime più rigoroso per i modelli addestrati con grandi quantità di dati e di complessità, capacità e prestazioni avanzate.

 

Governance e Supervisione

L’atto prevede la creazione di un Ufficio per l’IA e un gruppo scientifico di esperti indipendenti per supervisionare l’implementazione e l’applicazione delle regole. Un comitato per l’IA, composto da rappresentanti degli Stati membri, e un forum consultivo per gli stakeholders che saranno coinvolti nella promozione di buone pratiche.

 

Conclusioni e Prospettive Future

L’AI Act, anche se non ha completato il proprio iter approvativo, se confermato nei contenuti, segna un importante passo avanti nella regolamentazione dell’IA, cercando di bilanciare l’innovazione tecnologica con la protezione dei diritti fondamentali e la sicurezza. Con la conclusione del processo legislativo e l’approvazione formale del testo definitivo, l’Unione Europea si posiziona come punto di riferimento nella definizione di standard normativi per l’IA, con implicazioni significative per lo sviluppo tecnologico e l’innovazione a livello globale. La collaborazione tra gli Stati membri, le istituzioni UE, e le parti interessate sarà cruciale per assicurare che l’IA sia sviluppata e utilizzata in modo responsabile etico e non discriminante.

 

Giovanni Brancalion Spadon

Giovanni Brancalion Spadon

Nato a Venezia, ha studiato presso l’Università di Bologna e presso l’UCLA California, è iscritto all’Albo Avvocati di Venezia dal 2004. Dopo la laurea ha conseguito un master in Diritto delle Nuove Tecnologie, uno in Diritto Ambientale e uno in Diritto d’Autore e dello spettacolo e si è specializzato in Blockchain Technologies presso il Massachusetts Institute of Technology (MIT) di Boston. Docente presso la Business School dell’Università Ca’Foscari di Venezia, collabora con istituti di formazione per le materie connesse al diritto delle nuove tecnologie, alla privacy e alla blockchain e relative applicazioni, all’amministrazione digitale; è consulente di P.A. per la digitalizzazione e l'adeguamento GDPR. Socio fondatore di Porto4, è dedicato principalmente ai programmi 4ANALYSIS - analisi strategica d'Impresa, 4 GDPR  e 4FORMAZIONE - per la diffusione della cultura legale nelle imprese. Da oltre 15 anni opera nel diritto delle nuove tecnologie, industriale, d’autore e societario. E’ interessato ai processi d’innovazione in ogni ambito, appassionato d’arte contemporanea e insegna teatro.