Una corsa frenetica da parte dei
giganti della tecnologia per sviluppare un'intelligenza
artificiale sempre più potente potrebbe avere effetti "dannosi",
l'emergere del modello cinese DeepSeek a basso costo e ad alte
prestazioni ha "accelerato la corsa e questo non fa bene alla
sicurezza". Sono le riflessioni di Yoshua Bengio, informatico e
vincitore nel 2018 del Premio Turing, e supervisore
dell'International AI Safety Report il risultato del lavoro di
circa 100 esperti nominati da 30 paesi, dall'Ocse, dall'Unione
Europea e dalle Nazioni Unite. Nasce da un'iniziativa presa nel
2023 in un summit britannico sulla sicurezza, il testo finale
sarà formalmente discusso in occasione del Summit di Parigi
sull'IA del 10 e 11 febbraio.
Bengio, uno dei massimi esperti del settore e professore
dell'Università di Montreal, sottolinea i rischi dell'IA già
ampiamente riconosciuti come il suo utilizzo per creare
contenuti online falsi o fuorvianti e l'impatto sul lavoro; ma
aggiunge che "emergono costantemente prove di rischi aggiuntivi,
come attacchi biologici o informatici". E a lungo termine teme
una possibile "perdita di controllo".
Il ricercatore chiede una regolamentazione internazionale più
severa e una ricerca più approfondita sulla sicurezza
dell'intelligenza artificiale, che per ora rappresenta "una
piccola parte" dei massicci investimenti effettuati nel settore.
"Senza l'intervento del governo, non so come riusciremo a
superare questa situazione", aggiunge riferendosi agli Stati
Uniti che hanno abbandonato il tentativo dell'ex presidente
Biden di imporre regole allo sviluppo.
Quando ChatGpt di OpenAI irruppe sulla scena pubblica due
anni fa, ha sottolineato Bengio, "ho sentito l'urgenza di
pensare alla questione sicurezza", ciò che mi spaventa di più è
la possibilità che l'umanità possa scomparire entro 10 anni". Su
questo tema, sottolinea il Guardian, il rapporto riconosce
questi timori ma afferma che le opinioni variano "notevolmente".
Riproduzione riservata © Copyright ANSA