Un traguardo importante, il primo regolamento del genere al mondo, che rappresenta un passo fondamentale per regolamentare questo settore in rapida evoluzione, garantendo un approccio equilibrato che promuova l'innovazione e tuteli i cittadini europei.
Cosa prevede l'AI Act
Il regolamento definisce una nozione di sistema di intelligenza artificiale ("AIS" o "AI System") per distinguere gli AIS dai sistemi software più semplici. La legge mira a fornire agli sviluppatori e agli operatori di IA requisiti e obblighi chiari per quanto riguarda gli usi specifici dell'IA rivolgendosi a un'ampia gamma di attori: tutti gli utilizzatori, i distributori, gli importatori, i produttori e i fornitori di sistemi di AI che hanno un legame con l'UE. Inoltre, il regolamento mira a ridurre gli oneri amministrativi e finanziari per le imprese, in particolare le piccole e medie imprese (PMI).
Un' Europa per sviluppo etico e responsabile dell'intelligenza artificiale
Il regolamento è strutturato in sei capitoli e 25 articoli, coprendo vari aspetti dell'AI, dalla ricerca allo sviluppo, dall'adozione all'applicazione. L'obiettivo principale del Regolamento è quello di promuovere lo sviluppo e l'utilizzo dell'intelligenza artificiale in modo sicuro, responsabile ed etico. Per raggiungere questo obiettivo, la legge si basa su quattro pilastri fondamentali:
Un sistema di classificazione basato sul rischio
L'IA è suddivisa in quattro categorie di rischio, in base al potenziale impatto sui diritti e sulla sicurezza delle persone. In particolare:
- Rischio inaccettabile: si riferisce all'IA che può manipolare il comportamento umano per eludere l'autonomia degli utenti (per esempio, i giocattoli che usano l'assistenza vocale per incoraggiare comportamenti pericolosi nei minori) o sistemi di sorveglianza diffusa. Questi usi saranno vietati.
- Rischio elevato: a questo livello, l'IA utilizzata per scopi che possono avere un impatto significativo sulla sicurezza o sui diritti fondamentali dovrà seguire requisiti normativi rigorosi prima della loro messa sul mercato. Ciò include IA utilizzata nell'ambito giudiziario, nei biometrici di riconoscimento, nell'istruzione e nella sicurezza delle persone. Per i sistemi ad alto rischio riguardanti settori come salute, trasporti, istruzione, occupazione, servizi pubblici, è prevista una valutazione d'impatto ex-ante.
- Rischio limitato: per l'IA con un rischio limitato, come i “chatbot”, si chiede trasparenza. Gli utenti dovrebbero essere in grado di sapere che stanno interagendo con un'IA affinché possano prendere decisioni informate.
- Rischio minimo: applicazioni di IA con rischio minimo, come i filtri di spam in email, sono libere da vincoli normativi oltre a quelli già in vigore.
Regole specifiche per ogni categoria di rischio
Per ogni categoria di rischio, il Regolamento stabilisce requisiti e obblighi specifici per gli sviluppatori e gli utilizzatori di sistemi di intelligenza artificiale.
- Divieto di sistemi ad alto rischio: alcuni sistemi di intelligenza artificiale considerati ad alto rischio, come quelli che utilizzano la manipolazione cognitiva del comportamento o il riconoscimento facciale per la sorveglianza di massa, sono vietati.
- Organismo di supervisione: la Commissione europea è responsabile della supervisione dell'attuazione del Regolamento e sarà supportata da un nuovo Ufficio europeo per l'intelligenza artificiale.
Incontra l'esperto
Prenota un incontro gratuito con l'autore Michele Lenoci, consulente per normativa, e-commerce e intelligenza artificiale
PRENOTA
Le conseguenze dell'AI Act su aziende e cittadini che usano l'intelligenza artificiale
Il Regolamento europeo sull'intelligenza artificiale avrà un impatto significativo su aziende e cittadini. Ecco alcune delle principali novità:
- Maggiore trasparenza: le aziende saranno obbligate a fornire informazioni chiare e accessibili sui sistemi di intelligenza artificiale che utilizzano, incluso il loro scopo, le loro capacità e i rischi potenziali.
- Maggiore controllo per i cittadini: i cittadini avranno il diritto di essere informati quando interagiscono con un sistema di intelligenza artificiale e di opporsi al suo utilizzo in determinati casi.
- Più responsabilità per le aziende: le aziende saranno responsabili per i danni causati dai sistemi di intelligenza artificiale che sviluppano o utilizzano.
Le autorità di ogni stato membro dovranno monitorare il mercato e garantire che vengano rispettati i regolamenti, avendo il potere di infliggere multe significative in caso di violazioni.
Quando sarà applicata la normativa europea?
La sua applicazione sarà graduale, con diverse fasi di conformità previste:
- Sei mesi per conformarsi alle norme sui sistemi di AI vietati.
- Dodici mesi per implementare la conformità ai requisiti GPAI (Global Partnership on Artificial Intelligence).
- Ventiquattro mesi per implementare la conformità globale con i sistemi di AI.
- Trentasei mesi per conformarsi alle norme sui sistemi di AI ad alto rischio.
La legge prevede esenzioni per i sistemi di IA utilizzati esclusivamente per scopi militari e di difesa, nonché per scopi di ricerca.
La proposta di regolamentazione fa parte di un più ampio pacchetto legislativo digitale della UE che comprende anche il Digital Services Act (DSA) e il Digital Markets Act (DMA), tutti volti a modernizzare il quadro normativo per il digitale, promuovere l'innovazione, stimolare la concorrenza leale e proteggere i consumatori e i cittadini nell'era digitale.