Nasce il primo decreto che regolarizza l’intelligenza artificiale. Ecco i dettagli che coinvolgono l’Italia

L’Unione Europea ha approvato la legge sull’intelligenza artificiale. La norma è stata decreta per proteggere le persone che ne fanno uso, ecco quali sono le novità.

intelligenza artificiale
intelligenza artificiale – palidoronews.it

 

Il Parlamento Europeo ha approvato in via definitiva l’AI Act, la legge  l’intelligenza artificiale. Questa ha lo scopo di garantire la privacy e i diritti fondamentali dei cittadini dell’Unione Europea e promuoverà l’innovazione. L’Ue in questo modo è diventata la prima istituzione a regolamentare le norme sull’uso dell’AI. Vediamo insieme i dettagli.

L’Unione Europea e la legge sull’intelligenza artificiale 

Con questa approvazione l’Unione Europea, la quale nei mesi scorsi ha dimostrato molta attenzione ai rischi dell’AI è la prima istituzione a regolamentare i sistemi di intelligenza artificiale. Prima di entrare in vigore il testo andrà nuovamente approvato dal Consiglio dell’Unione Europea.

L’entrata in vigore dell’AI Act avverrà dopo 20 giorni dalla pubblicazione della stessa nella Gazzetta Ufficiale dell’Unione Europea. Questa però verrà applicata dopo ulteriori 2 anni. Quindi ci vorrà un po’ prima di vederla realizzata. Anche se, molto probabilmente, tutto ciò che è stato classificato come “rischio inaccettabile” potrebbe già entrare in vigore tra 6 mesi.

Come funziona la nuova legge

Il testo prevede che le applicazioni dell’intelligenza artificiale siano classificate in livelli di rischio. Quindi sono stati divisi in rischio minimo, limitato, elevato e inaccettabile. A ciascuna categoria viene associata una lista di obblighi sulla base dei possibili rischi per l’utente. Oppure per nell’ambito nel quale quella data applicazione viene utilizzata, come ad esempio quello sanitario o quelli inerenti la stabilità di uno Stato. Ogni strumento AI classificato come «rischio inaccettabile» ovviamente verrà vietato.

nuove regole sull'AI
nuove regole sull’AI – palidoronews.it

 

Per intenderci le applicazioni associate a un rischio inaccettabile, quelle che sono vietate, sono quelle che prevedono l’acquisizione di immagini e sensibili e a volte private. Stiamo parlando ad esempio delle telecamere di sorveglianza o immagini provenienti da internet al fine di creare banche dati per il riconoscimento facciale, così come i sistemi di riconoscimento automatico delle emozioni basate sulla mimica facciale o la prossemica sui luoghi di lavoro o all’interno delle scuole. Per le forze dell’ordine non sarà possibile utilizzare tool di identificazione biometrica in tempo reale. A meno che non siano in possesso di un’autorizzazione giudiziaria o amministrativa. Oppure nei casi di estrema necessità come la ricerca di un individuo scomparso o la prevenzione di attacchi terroristici

Sarà inoltre obbligatorio per i Paesi UE istituire agenzie nazionali di supervisione. Mettendo poi a disposizione delle piccole e medie imprese degli spazi di sperimentazione all’interno dei quali le aziende possano testare lo sviluppo di sistemi basati su intelligenza artificiale prima della loro immissione sul mercato. Come si può notare non è stato lasciato nulla al caso. Chiaramente non è tutto, il regolamento è ancora vasto e lo affronteremo ancora prossimamente.

Gestione cookie