Una commissione speciale del Parlamento europeo ha recentemente approvato la versione iniziale di un disegno di legge che mira a si propone di stabilire linee guida per lo sviluppo e l'utilizzo dei sistemi di intelligenza artificiale nel Continente Europeo.
L'approvazione di questa fase preliminare segna un significativo passo avanti nel perseguimento di normative volte a controllare il rapido avanzamento delle tecnologie di intelligenza artificiale. Queste leggi sono necessarie a causa della rapida evoluzione di queste tecnologie.
Vedi altro
Minaccia a Netflix: il servizio gratuito di Google fa concorrenza allo streaming
Google sviluppa uno strumento AI per aiutare i giornalisti in...
La nuova normativa, denominata “European Artificial Intelligence Act”, è una prima in Occidente, come nel La Cina e altri paesi asiatici hanno già regolamenti con cui aziende generatrici di intelligenza artificiale come OpenAI tuo ChatGPT, deve seguire.
La regolamentazione europea per l'intelligenza artificiale adotta un approccio basato sul potenziale di rischio di ciascun sistema di intelligenza artificiale. Maggiore è il pericolo che rappresentano, più rigorosamente saranno controllati.
Le regole stabiliscono anche requisiti specifici che devono essere seguiti dagli sviluppatori, noti come "modelli di base".
Le categorie di rischio delle intelligenze artificiali
La legge europea sull'intelligenza artificiale classifica anche le IA in base ai loro livelli di rischio. Sono: rischio minimo o nullo, rischio limitato, rischio elevato e rischio inaccettabile.
Anche l'intelligenza artificiale ad alto rischio può funzionare secondo la regolamentazione, ma gli strumenti classificati come a rischio inaccettabile non possono nemmeno funzionare in Europa. Le IA di rischio inaccettabili sono:
- Sistemi che utilizzano tecniche subliminali, manipolative o ingannevoli per distorcere il proprio comportamento;
- Intelligenze artificiali che sfruttano le vulnerabilità di individui o gruppi specifici;
- Sistemi di categorizzazione biometrici basati su attributi o caratteristiche sensibili;
- IA utilizzate per il punteggio sociale o la valutazione dell'affidabilità;
- sistemi di intelligenza artificiale utilizzati per le valutazioni del rischio che prevedono reati penali o amministrativi;
- Sistemi che creano o espandono database di riconoscimento facciale tramite scraping non mirato;
- Meccanismi che deducono emozioni nelle forze dell'ordine, nella gestione delle frontiere, sul posto di lavoro e nell'istruzione.
Per prevenire la proliferazione di intelligenze artificiali dannose, come ad alto rischio e rischio inaccettabile, la nuova legge europea sull'intelligenza artificiale costringerà gli sviluppatori a seguire gli standard predeterminato.
Uno degli aspetti di questo database è il test preventivo delle intelligenze artificiali, che deve avvenire in tutti i casi, pena la sanzione per lo sviluppatore che si rifiuta di effettuare i test.
"I fornitori di questi modelli di intelligenza artificiale saranno tenuti ad adottare misure per valutare e mitigare i rischi per i diritti fondamentali, salute, sicurezza, ambiente, democrazia e stato di diritto", ha affermato Ceyhun Pehlivan, avvocato europeo intervistato dall'emittente CNBC.
In una parola, esperti di Intelligenza Artificiale
Come non poteva essere altrimenti, la notizia che si sta creando una legge per regolamentare l'IA in Europa è caduta come una bomba tra gli specialisti del settore e alcune industrie tecnologiche.
In anticipo, vale la pena notare che la legge europea sull'intelligenza artificiale è ancora in fase di sviluppo e che la recente approvazione è solo preliminare. Anche così, alcuni attori importanti esprimono preoccupazione.
Secondo la Computer and Communications Industry Association of Europe, il campo di applicazione della nuova legge è stato esteso troppo, il che potrebbe indurla a "catturare IA innocue".
"È preoccupante vedere che grandi categorie di utili applicazioni di intelligenza artificiale - che comportano rischi molto limitati, se del caso - possono ora affrontare severi requisiti, o potrebbero addirittura essere banditi dall'Europa", ha dichiarato Boniface de Champris, policy manager dell'organizzazione, in una dichiarazione inviata alla CNBC. per e-mail.
Secondo Dessi Savova, responsabile della tecnologia presso il rinomato studio legale Clifford Chance, ha affermato che le leggi sul controllo dell'IA emergenti in Europa influenzeranno il mondo.
"La portata delle regole di intelligenza artificiale proposte in Europa raggiungerà gli sviluppatori di intelligenza artificiale in tutto il mondo", ha affermato.
“Tuttavia, la questione centrale è se la legge europea sull'intelligenza artificiale stabilirà uno standard per l'IA nel mondo. Questo perché la Cina, gli Stati Uniti e il Regno Unito, solo per citarne alcuni, stanno definendo le proprie politiche di intelligenza artificiale e approcci normativi", si interroga Savova.
“Ma, innegabilmente, seguiranno tutti da vicino i negoziati che si stanno svolgendo in Europa per adattare i propri approcci”, ha concluso.
Infine, Sarah Chander, Senior Policy Adviser presso European Digital Rights, ha sottolineato che le nuove leggi europee sull'IA richiederanno agli sviluppatori di dimostrare il loro "potere".
"Sebbene questi requisiti di trasparenza [contenuti nel disegno di legge] non sradichino le preoccupazioni relative alle infrastrutture e all'economia, con lo sviluppo di questi vasti Sistemi di intelligenza artificiale, richiedono alle aziende tecnologiche di rivelare la quantità di potenza computazionale necessaria per svilupparli”, ha ricordato, conversando con il CNBC.
Finora, i prossimi passi della legge europea sull'intelligenza artificiale non sono ancora stati rilasciati dal Parlamento europeo.
Laureato in Storia e Tecnologia delle Risorse Umane. Appassionato di scrittura, oggi vive il sogno di agire professionalmente come Content Writer per il Web, scrivendo articoli in diverse nicchie e diversi formati.