AI Act: ecco come l’UE tutela i cittadini e le novità

È ufficialmente in vigore la legge europea sull’uso dell’Intelligenza Artificiale, e Euronews Next esplora le implicazioni e le preparazioni delle aziende per conformarsi a questa normativa pionieristica.

La recente legislazione sull’Intelligenza Artificiale dell’Ue si applica a tutti i sistemi di IA, sia quelli già esistenti che quelli attualmente in sviluppo.

Riconosciuta da molti come un precedente mondiale, questa legge cerca di regolare l’IA in base ai rischi associati al suo utilizzo.

Sebbene approvata a marzo, la pubblicazione dell’atto nella Gazzetta ufficiale della Commissione europea nel mese di luglio ha avviato il processo per la sua piena attuazione. La data del primo agosto segna l’inizio di un percorso di scadenze che, nei prossimi mesi e anni, aiuterà le aziende a comprendere e a rispettare le nuove normative.

“Questa legge guiderà lo sviluppo di un’IA su cui gli europei possono contare, fornendo anche supporto a piccole e medie imprese e startup europee per lanciare innovazioni sul mercato”, ha affermato Ursula von der Leyen, presidente della Commissione europea, tramite i social media.

Valutazione delle aziende in base al rischio dall’AI Act

L’AI Act dell’Unione europea categoriza le aziende che utilizzano sistemi di intelligenza artificiale in base a quattro livelli di rischio, i quali determinano le relative scadenze di conformità.

I quattro livelli di rischio sono i seguenti:

  1. nessun rischio;
  2. rischio minimo;
  3. rischio elevato;
  4. sistemi di AI vietati.

A partire da febbraio 2025, l’Unione Europea vieta completamente alcune pratiche, come la manipolazione dei processi decisionali degli utenti e l’espansione dei database di riconoscimento facciale tramite scraping di dati da Internet.

I sistemi di IA classificati come ad alto rischio , inclusi quelli che gestiscono dati biometrici o sono impiegati in infrastrutture critiche e decisioni occupazionali, dovranno seguire normative più severe.

Le aziende in questa categoria dovranno fornire dettagli sui loro dati di addestramento e dimostrare la supervisione umana, tra i vari requisiti previsti.

Secondo Thomas Regnier, portavoce della Commissione europea, il 85% delle aziende di intelligenza artificiale si colloca nella categoria di “rischio minimo”, richiedendo regolamenti essenziali.

Tempi di adeguamento per le aziende

Heather Dawe, esperta di AI responsabile presso la società di consulenza UST, sta già collaborando con clienti internazionali per allineare l’uso dell’intelligenza artificiale alla nuova normativa.

I suoi clienti sono “d’accordo” con i requisiti della legge, riconoscendo l’importanza di una regolamentazione efficace.

Dawe stima che il processo di adeguamento possa richiedere tra i tre e sei mesi, a seconda delle dimensioni dell’azienda e del ruolo dell’IA all’interno dei loro processi operativi.

Le aziende potrebbero considerare l’idea di creare comitati interni per la governance dell’IA, composti da esperti legali, tecnologici e in sicurezza, per effettuare audit completi delle loro tecnologie e della conformità alla nuova legge.

In caso di violazioni alle scadenze stabilite dall’AI Act, le aziende potrebbero affrontare sanzioni che arrivano fino al 7% del loro fatturato annuo globale, avverte Regnier.

Preparazioni della Commissione

L’Ufficio AI della Commissione europea sarà responsabile del controllo dell’osservanza delle norme per i sistemi di intelligenza artificiale generali.

Sessanta membri dello staff interno della Commissione saranno trasferiti a questo ufficio e, nel prossimo anno, altri 80 candidati esterni saranno reclutati , come riferito da Regnier.

Un comitato per l’IA, che include rappresentanti di alto livello da tutti i 27 Stati membri dell’Ue, ha già avviato i lavori per l’attuazione della legge in una riunione di giugno, secondo un comunicato stampa .

Questo consiglio collaborerà con l’ufficio AI per assicurare una applicazione uniforme della normativa in tutto il territorio dell’Ue, ha aggiunto Regnier.

Oltre 700 aziende si sono impegnate a sottoscrivere un Patto per l’AI, promettendo di conformarsi in maniera tempestiva alla nuova legge.

Gli Stati membri dell’Ue hanno tempo fino al prossimo agosto per costituire autorità nazionali competenti per vigilare sull’applicazione delle norme nel proprio Paese.

La Commissione è anche intenzionata a incrementare gli investimenti nell’IA, pianificando un fondo di 1 miliardo di euro nel 2024 e fino a 20 miliardi di euro entro il 2030.

“Esiste l’idea che le azioni dell’Ue siano puramente normative e frenino l’innovazione, ma questo non è del tutto vero”, ha aggiunto Regnier. “La legislazione è progettata per incoraggiare le aziende a lanciare i loro sistemi, non per dissuaderle. Vogliamo che operino nell’Ue garantendo la protezione dei nostri cittadini e delle nostre imprese.”

Necessità di ulteriori chiarimenti

Risto Uuk, responsabile della ricerca europea presso il Future of Life Institute, ritiene che la Commissione debba fornire ulteriori chiarimenti riguardo ai livelli di rischio associati ad alcune tecnologie.

Ad esempio, l’impiego di un drone per ispezionare una rete idrica in cerca di riparazioni potrebbe non sembrare particolarmente rischioso, nonostante rientri nella categoria ad alto rischio della normativa.

“Attualmente, la formulazione della legge è piuttosto generica,” ha spiegato Uuk. “Pur essendo utile in termini generali, le aziende necessitano di chiarimenti specifici per valutare se un sistema rientri o meno nella categoria ad alto rischio.”

Uuk è fiducioso che, una volta avviata l’attuazione, la Commissione fornirà feedback più dettagliato.

Inoltre, secondo Uuk, la normativa potrebbe essere estesa, imponendo restrizioni e sanzioni più severe per le aziende tech leader che operano nell’UE con IA generativa (GenAI).

Le principali aziende di intelligenza artificiale, come OpenAI e DeepMind, sono classificate come “AI di uso generale” e rientrano nella categoria di rischio minimo.

Le aziende che sviluppano AI generali dovranno dimostrare la loro conformità alle leggi sul copyright, fornire sintesi sui dati di addestramento e garantire la sicurezza informatica.

Secondo l’organizzazione non governativa European Digital Rights, sono necessarie ulteriori revisioni per proteggere i diritti umani.

“Siamo preoccupati per le lacune significative nella legge finale riguardo all’uso della biometria, alle forze dell’ordine e alla sicurezza nazionale, e chiediamo ai legislatori di affrontare queste problematiche,” ha dichiarato un portavoce in una comunicazione a Euronews Next.

Foto crediti & articolo ispirato da: Euronews

Exit mobile version