AI Act verso la regolamentazione dell’Intelligenza Artificiale
La preapprovazione dell’Artificial Intelligence Act (AI Act) in Europa rappresenta un importante passo nella regolamentazione dell’intelligenza artificiale (IA), finalizzato a garantire un utilizzo sicuro e rispettoso dei diritti fondamentali e della democrazia. Tuttavia, solleva preoccupazioni in materia di privacy e sicurezza informatica per le aziende.
Il regolamento mira a stabilire un quadro per l’utilizzo responsabile e sicuro dell’IA, con un focus sugli AI ad alto rischio e eccezioni per le forze dell’ordine nell’uso della biometria. Tuttavia, le implicazioni sono complesse e potrebbero impattare significativamente sul trattamento dei dati personali e sulla sicurezza informatica aziendale.
La distinzione tra AI ad alto rischio e non ad alto rischio solleva preoccupazioni sulla comprensione e conformità da parte delle aziende, soprattutto per le PMI. L’uso della biometria da parte delle forze dell’ordine solleva dubbi sulla privacy e sicurezza dei dati personali. La regolamentazione affronta anche i rischi e le opportunità legati ai sistemi AI generici e ai modelli fondamentali, come GPT.
La nuova governance includerà un Ufficio AI, un comitato scientifico indipendente e un Consiglio AI per supervisionare i modelli AI e contribuire allo sviluppo di standard. Le sanzioni per le violazioni sono significative e potrebbero pesare sulle aziende, specialmente sulle PMI. Sono previste misure di supporto all’innovazione, ma le critiche riguardano la limitazione dell’innovazione e la protezione dei consumatori.
L’AI Act è un passo avanti, ma solleva questioni complesse che richiedono un bilanciamento tra sicurezza, privacy, e innovazione. Le aziende dovranno prestare attenzione ai requisiti e prepararsi a un ambiente regolatorio in continua evoluzione. La cybersecurity sarà fondamentale, richiedendo un approccio proattivo per garantire la conformità e proteggere i dati sensibili.
Vedi anche questo articolo https://bit.ly/36NUzvp del gennaio 2020