Un gruppo di parlamentari
europei coinvolto nei negoziati sulla legge europea in materia
di intelligenza artificiale, tra cui il relatore dell'AI Act
Brando Benifei, ha scritto alla vice presidente della
Commissione europea, Henna Virkkunen, per esprimere "grande
preoccupazione" sul codice di buone pratiche sull'IA per
finalità generali (come Gpt-4 di OpenAI) la cui stesura
definitiva è attesa a maggio. Si tratta di un codice che dovrà
dettagliare le norme dell'AI Act che si applicano ai fornitori
di modelli di IA per finalità generali, in particolare quelli
con rischi sistemici. Le prime bozze del codice, secondo gli
eurodeputati, stanno annacquando le norme dell'AI Act sui
modelli di IA di uso generale con rischio sistemico al punto da
"reinterpretare completamente e restringere un testo giuridico
che i colegislatori hanno concordato, attraverso un codice di
buone pratiche". Una mossa "pericolosa, non democratica, che
crea incertezza giuridica" contestano gli eurodeputati,
criticando un testo troppo sbilanciato a favore delle Big Tech.
Secondo l'AI Act, i fornitori di modelli con rischi sistemici
sono tenuti a valutare e ridurre i rischi, a segnalare gli
incidenti gravi, a condurre test all'avanguardia e valutazioni
dei modelli e a garantire la sicurezza informatica dei loro
modelli. Nella lettera, gli europarlamentari denunciano il fatto
che "la valutazione e la mitigazione di vari rischi per i
diritti fondamentali e la democrazia è ora improvvisamente del
tutto volontaria" e sottolineano che "questa non è mai stata
l'intenzione dell'accordo di trilogo". "I rischi per i diritti
fondamentali e la democrazia - scrivono - sono rischi sistemici
che i fornitori di IA con maggiore impatto devono valutare e
mitigare".
"Se i fornitori dei modelli di IA generici di maggior impatto
adottassero posizioni politiche più estreme, attuassero
politiche che minano l'affidabilità del modello, facilitassero
interferenze straniere o manipolazioni elettorali,
contribuissero alla discriminazione, limitassero la libertà di
informazione o diffondessero contenuti illegali, le conseguenze
potrebbero turbare profondamente l'economia e la democrazia
europee" avvertono gli europarlamentari, chiedendo a Virkkunen
"se necessario" di respingere qualsiasi codice che non protegga
la società dai rischi sistemici per la salute, la sicurezza, i
diritti fondamentali e la democrazia.
Le regole sull'IA per finalità generali saranno applicabili a
partire dal 2 agosto 2025. L'Ufficio per l'IA, istituito
all'interno della Commissione, sta facilitando la stesura del
codice di buone pratiche, con quattro gruppi di lavoro
presieduti da esperti indipendenti e che coinvolgono quasi mille
portatori di interessi, rappresentanti degli Stati membri
dell'Ue e osservatori europei e internazionali.
Riproduzione riservata © Copyright ANSA