ROMA – L’operar senza regole è il più faticoso e difficile mestiere di questo mondo. Scriveva così Alessandro Manzoni in Storia della colonna infame. Purtroppo, non sembra così per l’Intelligenza artificiale. E per questo arrivano nuove regole per l’Ia. Il nuovo regolamento – una volta raggiunte le due votazioni confermative che non modificano il testo – entrerà in vigore da aprile. A candidarsi come l’Autorità che vigilerà sulla sua applicazione in Italia è stato il Garante per la Privacy.
Gli obiettivi dell’AI Act
Gli ambasciatori dei 27 Paesi membri dell’Ue, venerdì 2 febbraio, avevano approvato all’unanimità l’intesa già raggiunta lo scorso dicembre sulla legge – la prima nel mondo in materia – che detta le regole per lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di IA in Europa. AIl’ AI Act spetterà individuare alcuni ambiti particolarmente rischiosi per l’uso dell’IA. L’obiettivo principale è quello di mitigare gli effetti attraverso l’obbligo di procedure di conformità e in alcuni casi vietare da subito alcuni usi. In particolare l’AI Act individua diversi livelli di rischio a seconda di come viene usata l’intelligenza artificiale. Rientreranno nel “Rischio Inaccettabile” i sistemi considerati una chiara minaccia ai diritti umani e alla sicurezza. I sistemi che possono avere un impatto significativo sui diritti individuali o essere utilizzati in ambiti critici come sanità, giustizia, sicurezza e forze dell’ordine rientrano nella categoria “Alto Rischio”. Nel “Rischio Limitato” troviamo i sistemi che dovranno soddisfare determinati requisiti di trasparenza, come i chatbot. Infine il “Rischio Minimo”, con le applicazioni che saranno soggette a requisiti minimi o nessun requisito specifico.
I nuovi divieti
L’AI Act entrerà in vigore intorno al mese di aprile, ma lo farà gradualmente. Inoltre, entro la fine dell’anno, saranno già attive le sanzioni e i divieti. Tra questi, in particolare, rientrano l’uso di telecamere a riconoscimento biometrico negli spazi pubblici – se non in casi molto limitati di ricerca di autori di crimini – o gli algoritmi che consentono il riconoscimento “emotivo” e che potrebbero essere usati per capire, ad esempio, se un dipendente è arrabbiato con il suo datore di lavoro.
Il ruolo del Garante per la Privacy
A chiedere a gran voce che sia il Garante per la Privacy a controllare l’uso dell’Intelligenza artificiale in Italia è stato lo stesso presidente, Pasquale Stanzione. Per il Garante la designazione delle autorità per la protezione dei dati come autorità nazionali di controllo assicurerebbe “un approccio normativo più armonizzato”. Inoltre, ciò risulterebbe in una “notevole semplificazione per gli utenti, che dovrebbero rivolgersi a un’unica autorità per i sistemi di IA”.