Informazioni trafugate online per addestrare l'intelligenza artificiale ad imitare gli utenti e sferrare così attacchi informatici sempre più difficili da distinguere. E' la nuova frontiera del cybercrimine, i cosiddetti 'gemelli digitali cattivi', che ripropone in chiave allarmante l'eterno tema letterario del doppio. Il fenomeno dei 'malicious digital twins', è descritto nell'ultimo rapporto di Trend Micro una delle principali società di sicurezza informatica.
Oltre ai deepfake, usati per rendere sempre più credibili truffe già popolari, i cybercriminali si attrezzeranno dunque per addestrare i modeli di IA (Llm) sui post pubblici di una persona, imitare lo stile di scrittura e la personalità, creando delle imitazioni convincenti che prenderanno di mira nuove vittime inconsapevoli. Gli stessi sistemi di intelligenza artificiale - aggiunge Trend Micro - potranno essere manipolati per compiere azioni dannose o non autorizzate e per creare kit di phishing personalizzati su misura, rendendo l'underground cybercriminale sempre più efficiente. Per gli utenti, insomma, diventerà sempre più difficile comprendere la veridicità e la legittimità dei contenuti creati online attraverso l'IA. Il pericolo dei 'gemelli digitali cattivi' è ancora più allarmante se usato per attaccare le aziende con nuove truffe, usando anche video e audio e i dati biometrici esposti involontariamente.
Inoltre, avvere la società di sicurezza, nel momento in cui l'intelligenza artificiale inizierà a utilizzare strumenti e computer aziendali in modo autonomo, creerà una catena di eventi e interazioni invisibili agli operatori umani. E questa mancanza di visibilità può essere un problema di sicurezza, poiché sarà difficile monitorare e controllare le azioni dell'IA in tempo reale e le aziende saranno esposte a maggiori vulnerabilità. "Un quadro preoccupante quanto atteso - commenta all'ANSA, Pierluigi Paganini, professore di Cybersecurity presso l'Università Luiss Guido Carli - nell'underground criminale spopolano già piattaforme in grado di creare deepfake ed email di phishing capaci ingannare la maggior parte degli utenti online. Preoccupa anche l'integrazione di questa nuova tecnologia nelle aziende. L'IA sostituirà in molti processi l'essere umano e monitorarne l'operato potrebbe essere tutt'altro che semplice introducendo nuovi rischi di sicurezza. Troppe aziende ed organizzazioni sono oggi impreparate a fronteggiare queste minacce emergenti, è fondamentale adottare strategie di difesa più avanzate, come l'approccio basato sul rischio, il rafforzamento della sicurezza degli Llm e la formazione continua degli utenti. In questo l'IA potrebbe darci una grossa mano, molteplici sono le sue applicazioni per finalità di difesa".
Secondo il rapporto di Tren Micro, infine, nel corso dei mesi a venire nel mirino dei gruppi criminali avanzati ci saranno anche il cloud e le supply chain, cioè i fornitori, il settore automotive, mentre i ransomware sfrutteranno sempre più le vulnerabilità e saranno più efficienti gli attacchi di malvertising, cioè quelli che mirano a inserire codici dannosi nelle pubblicità digitali.
Riproduzione riservata © Copyright ANSA