Enkey Magazine
Sito di informazione tecnologica

L’accordo europeo per le intelligenze artificiali

L'Artificial Intelligence Act è la prima legge sulle AI al mondo

Accordo europeo sulle intelligenze artificiali

Si dibatte da tempo sulla stesura di normative specifiche comuni per regolamentare le intelligenze artificiale. Tuttavia, è stato possibile raggiungere un punto di svolta solo dopo gli ultimi avvenimenti e proprio ora che ChatGpt torna ad essere disponibile in Italia. Ecco cosa dice l’accordo europeo per le intelligenze artificiali.

Artificial Intelligence Act: la prima regolamentazione per le intelligenze artificiali al mondo

Prende il nome di Artificial Intelligence Act la proposta di legge dell’Unione Europea per regolamentare le intelligenze artificiali. Si tratta di una regolamentazione unica e non appena entrerà ufficialmente in vigore sarà la prima al mondo.

La proposta di legge sta subendo ancora adesso importanti modifiche, modifiche che tengono conto di quanto sta succedendo al momento nel settore dell’AI, prima di passare in plenaria, a metà giugno 2023.

I deputati del Parlamento dell’Unione Europea hanno già dato il via libera alla proposta di legge, che ora aspetta solo il voto in plenaria.

L’Unione Europea e l’AI

L’accordo Europeo arriva dopo mesi di trattative, durante le quali gli eurodeputati hanno discusso di tutte le sfaccettature dell’intelligenza artificiale e del suo utilizzo. In particolar modo la legge vuole regolamentare l’intelligenza artificiale in base al suo potenziale di danno.

Intelligenza artificiale
Intelligenza artificiale

Ma si è parlato anche di molto altro in Europarlamento. L’Unione Europea è, infatti, anche al lavoro su una proposta di legge che regolamenti il copyright delle opere generate dall’AI.

Una particolare attenzione è rivolta alla tutela della privacy, ai sistemi ad alto rischio, alle applicazioni vietate e alle cosiddette AI senza scopo.

Come giudicare il livello di rischio di un’intelligenza artificiale? Secondo l’UE “è il risultato della combinazione della gravità, intensità, probabilità di accadimento e durata degli effetti dell’IA, e della capacità di colpire un individuo, una pluralità di persone o di colpire un particolare gruppo di persone”.

L’accordo europeo: le AI senza scopo

L’Unione Europea si è soffermata in particolar modo sui modelli di intelligenza artificiale di base, quelli senza uno scopo specifico. Rientra in questa categoria anche ChatGpt.

L’accordo europeo afferma che i modelli di IA generativa devono essere progettati nel rispetto dei diritti e delle libertà fondamentali promossi dall’Unione Europea.

Le applicazioni vietati

In ambito di intelligenza artificiale l’Unione Europea si è espressa anche in merito alle applicazioni vietate o il cui utilizzo sarà limitato.

I software di identificazione biometrica potranno essere utilizzati solamente per reati gravi e previa autorizzazione del giudice. I software di riconoscimento delle emozioni, invece, saranno vietati nei settori dell’applicazione della legge, della gestione delle frontiere, del lavoro e dell’istruzione.

Infine, il divieto di controllo predittivo è stato esteso dai reati penali a quelli amministrativi.

Accordo europeo: sistemi ad alto rischio

L’accordo europeo stabilisce i sistemi di intelligenza artificiale ad alto rischio. Rientrano in questa categoria quelli applicati nelle reti critiche, nell’occupazione, nell’istruzione, nella formazione e nei servizi pubblici essenziali. Rientrano nei sistemi ad alto rischio anche i sistemi che possono causare danni alla salute, alla sicurezza o ledere ai diritti fondamentali dell’uomo e del cittadino.

Intelligenza artificiale
Intelligenza artificiale

Inoltre, l’accordo europeo aumenta il livello di sicurezza dei dati sensibili, stabilendo controlli più stretti. Ciò è volto anche a limitare il pregiudizio dell’intelligenza artificiale. Ultimamente ci sono stati non pochi problemi in merito. In particolar modo per quanto riguarda l’orientamento sessuale, politico o religioso.

I provider dovranno elaborare i dati sensibili attraverso un’elaborazione di dati sintetici, anonimizzati, presudonimizzati o criptati. Il tutto deve avvenire in un’ambiente controllato, i dati non potranno essere trasmessi e dovranno essere cancellati.

L’utilizzo di standard comuni adeguati contribuirà a garantire la sicurezza dei sistemi a intelligenza artificiale e dei dati che tali sistemi devono elaborare per poter funzionare. Confido che questo sia l’approccio che dobbiamo adottare se vogliamo massimizzare i vantaggi dei sistemi a intelligenza artificiale”, spiega Juhan Lepassar, Direttore Esecutivo Enisa.

 

Potrebbe piacerti anche