BRUXELLES - La Commissione europea ha pubblicato le nuove linee guida sull'attuazione dei divieti previsti nell'AI Act, la legge europea sull'intelligenza artificiale (Ia), scattati domenica 2 febbraio. L'obiettivo è fornire certezza giuridica alle aziende che forniscono o utilizzano sistemi di Ia nel mercato Ue, e alle autorità nazionali responsabili della supervisione e dell'applicazione delle norme.
Le linee guida riguardano otto pratiche vietate, ossia l'uso di tecniche manipolative e subliminali, lo sfruttamento delle vulnerabilità delle persone (legate a età, disabilità, situazione sociale o economica); il social scoring; la polizia predittiva individuale basata esclusivamente sulla profilazione delle persone; lo scraping non mirato di immagini facciali da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole; i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (ad esempio, convinzioni politiche, filosofiche, religiose, orientamento sessuale e razza); l'identificazione biometrica remota in tempo reale di individui in spazi pubblici da parte delle forze dell'ordine (con eccezioni limitate).
Quanto alla governance, le Autorità nazionali di vigilanza dei mercati e il Garante per la protezione dei dati sono responsabili dell'applicazione delle norme e potranno intraprendere azioni esecutive in relazione ai divieti. Gli Stati membri devono designare queste autorità entro il 2 agosto 2025, ciò significa che fino ad allora non ci sarà un vero e proprio enforcement pubblico.
Le società che violano le norme sui divieti possono incorrere in multe fino a 35 milioni di euro o al 7% del loro fatturato mondiale annuo. Le linee guida non sono giuridicamente vincolanti, ma la Commissione intende fornire sostegno e orientamento alle aziende, soprattutto alle Pmi, per garantire un'attuazione coerente dell'AI Act in tutta l'Ue. Con l'AI Act Service Desk, che sarà operativo dall'estate 2025, si offrirà una piattaforma interattiva con materiale informativo sulle norme dell'AI Act.
Il regolamento, entrato in vigore ad agosto 2024, è la prima legge al mondo in materia, adotta un approccio basato sul rischio, prevedendo una serie di obblighi a fornitori e sviluppatori di sistemi di IA in base ai diversi livelli di rischio identificati: rischio inaccettabile, elevato, limitato e rischio minimo o nullo. Sono vietate quelle pratiche di Ia che comportano un rischio inaccettabile per la sicurezza e i diritti fondamentali. I divieti sono le prime disposizioni dell'AI Act ad essere applicabili, poi sarà la volta delle norme sulla governance e degli obblighi per l'Ia per finalità generali (applicabili dopo 12 mesi dall'entrata in vigore) e gli obblighi per i sistemi di Ia ad alto rischio (dopo 36 mesi). Il regolamento nel suo complesso sarà applicabile a due anni dall'entrata in vigore, il 2 agosto 2026. A breve è attesa la pubblicazione delle linee guida sulla definizione dei sistemi di Ia.
Riproduzione riservata © Copyright ANSA