L’evoluzione della tecnologia ha reso la sicurezza informatica una priorità assoluta per tutti Recentemente, Trend Micro ha evidenziato un aumento significativo nell’uso dei deepfake e nella sofisticazione degli strumenti di intelligenza artificiale nel “sottobosco” del cybercrime, aprendo la strada a nuove forme di sfruttamento da parte di malintenzionati anche poco esperti.
Nuovi strumenti stanno emergendo. Deepfake AI, ad esempio consente ai criminali di “cucire” il volto di una vittima su un video compromettente per rovinarne la reputazione o diffondere fake news. Oppure DeepNude Pro che promette di creare immagini altamente realistiche e prive di difetti, utilizzabili per ricatti sessuali, mentre Deepfake 3D Pro consente di generare avatar sintetici a partire da foto di vittime, che potrebbero essere usati per truffe bancarie o per impersonare celebrità in inganni vari.
Intermezzo promozionale ... continua la lettura dopo il box:
Usufruisci di uno sconto per fare un CONTROLLO DELLA REPUTAZIONE PERSONALE o AZIENDALE [ click qui ]
Oltre ai deepfake, servizi come WormGPT e DarkBERT sono stati potenziati con nuove funzionalità, accanto ad offerte come DarkGemini e TorGPT, che offrono servizi multimodali, inclusa la generazione di immagini. Tuttavia, molti servizi simili a ChatGPT rilevati nel mondo del crimine informatico sembrano essere solo “jailbreak-as-a-service”, finalizzati ad aggirare i filtri dei LLM commerciali.
Nonostante la crescita dell’uso di strumenti di intelligenza artificiale generativa da parte dei criminali informatici, molte tattiche attuali risultano ancora efficaci, riducendo l’urgenza di adottarne di nuove. Con gli attacchi informatici sempre più sofisticati e frequenti, le misure di sicurezza convenzionali non bastano più. Le aziende devono condurre test proattivi per individuare e correggere le vulnerabilità prima che vengano sfruttate, mentre gli utenti devono prestare attenzione alle comunicazioni sospette e verificare l’autenticità delle interazioni online.
Segue una sintesi del rapporto di trend micro:
- L’uso improprio dell’intelligenza artificiale generativa (GenAI) da parte dei criminali informatici sta evolvendo rapidamente.
- Gli attori delle minacce stanno ampliando la loro offerta di modelli linguistici di grandi dimensioni (LLM) criminali e tecnologie deepfake, aumentando il volume e la portata delle loro attività illecite.
- Gli LLM criminali, sia preesistenti che nuovi, vengono pubblicizzati sui marketplace criminali di Telegram, promettendo risposte non filtrate a query dannose, probabilmente tramite front-end di jailbreak-as-a-service.
- Questi LLM criminali sono spesso addestrati su dati dannosi, aggirando le restrizioni degli LLM commerciali che rifiutano di generare contenuti nocivi.
- Gli strumenti per la creazione di deepfake stanno diventando sempre più accessibili, consentendo anche ai criminali con competenze tecniche limitate di creare immagini e video deepfake realistici.
- Queste tecnologie deepfake rappresentano rischi significativi, in quanto possono essere utilizzate per vari scopi criminali, tra cui truffe finanziarie, furto di identità ed estorsione.
- Anche se la domanda di LLM criminali è in crescita, molte offerte pubblicizzate sono semplicemente jailbreak-as-a-service o vere e proprie truffe, che sfruttano il clamore attorno alla GenAI.
Riportato da : https://falsoillegale.it/ fonte articolo https://www.trendmicro.com
PER DIFENDERSI DAI DEEPFAKE : www.falsoillegale.it
Consulenze Deepfake https://falsoillegale.it/ : analisi e certificazione audio, immagini e video deepfake