/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

DeepSeek sotto accusa, l'IA cinese senza difese di sicurezza

DeepSeek sotto accusa, l'IA cinese senza difese di sicurezza

Una ricerca mostra l'assenza di filtri nelle risposte generate

MILANO, 11 febbraio 2025, 15:05

Redazione ANSA

ANSACheck
© ANSA/EPA

© ANSA/EPA

Un nuovo studio condotto dalla startup di intelligenza artificiale Anthropic solleva dubbi sulla sicurezza dei modelli della cinese DeepSeek, di cui si parla molto ultimamente. Anthropic ha evidenziato gravi vulnerabilità nei sistemi di controllo di sicurezza del chatbot, con la possibilità di diffondere informazioni pericolose e dettagliate su argomenti sensibili, come la costruzione di armi biologiche.

"Il modello non ha nessuna forma di protezione contro la generazione di informazioni potenzialmente pericolose", ha scritto in un post sul blog ufficiale Dario Amodei, Ceo di Anthropic, spiegando che DeepSeek ha mostrato "le difese più deboli mai riscontrate in un modello di IA". Le scoperte di Anthropic sono confermate da uno studio indipendente condotto da Cisco, che al suo interno ha anche una divisione specializzata in sicurezza. I risultati della ricerca sul modello DeepSeek R1 sottolineano un cosiddetto 'attack success rate" del 100%, il che significa che il sistema non è in grado di bloccare richieste potenzialmente dannose. Questo include la generazione di contenuti utilizzabili per crimini informatici, disinformazione e altre attività illecite.

È importante sottolineare che il problema della sicurezza non è limitato a DeepSeek. Anche altri modelli di IA presentano vulnerabilità significative: secondo Anthropic, l'attack success rate' di ChatGpt 1.5 Pro è dell'86%, mentre quello di Llama 3.1 405b di Meta è pari al 96%. Nonostante le criticità emerse, Amodei non demonizza DeepSeek, riconoscendone il ruolo di primo piano nel panorama dell'IA. Tuttavia, esorta l'azienda a "prendere seriamente in considerazione gli aspetti legati alla sicurezza". 
   

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza