ALLERTA PERICOLI INFORMATICI

Come si distingue un video vero da uno artificiale? Google combatte i deepfake inondando il web di deepfake

Come si distingue un video vero da uno artificiale? Google combatte i deepfake inondando il web di deepfake
Scritto da gestore

Il fenomeno deiย deepfakeย – termine che รจ nato soltanto nel 2017 – รจ rapidamente cresciuto, nei pochi anni che ha avuto a disposizione, sino a rappresentare un vero problema per la veridicitร  dell’informazioneย in Rete.

Conย deepfakeย si intende un filmato – ma anche un’immagine – creato con tecniche diย intelligenza artificialeย sovrapponendo video e immagini esistenti a video e immagini originali.

Intermezzo promozionale ... continua la lettura dopo il box:

Le fattezze di un personaggio – per lo piรน una celebritร  – vengono sovrapposte alle azioni di un altro soggetto, cosรฌ che sembri che sia il personaggio a compiere quelle azioni.Dei deepfake s’รจ visto finora soprattutto ilย lato peggiore, accanto a utilizzi umoristici o ironici: essi sono stati infatti spesso utilizzati per creare falsi video pornografici ritraenti persone famose, o anche per dar vita a filmati diย revenge porn.

Il vero problema รจ che spesso questi video, ancorchรฉ fasulli, sono cosรฌ ben fatti da ingannare anche l’occhioย piรน attento: sul lungo periodo, ciรฒ comporta che si sia sempre sospettosi sulla veridicitร  di un dato filmato, e gli utenti finiscano col non sapere davvero se un certo materiale sia vero o falso.

Microsoft, Facebook e Google sono da qualche tempo molto impegnate nella costruzione di strumentiย open sourceย in grado di identificare i deepfake in maniera automatizzata: l’intento รจ fornire ad aziende, governi e media i mezzi per classificare i video.

L’ultimo contribuito da parte di Google in questo senso รจ unย enorme database, contenente oltre 3.000 deepfake, realizzati nell’ultimoย annoย con il contributo di diversi attori e ora inseriti nello strumenti noto comeย FaceForensics.

L’idea รจ che la disponibilitร  di unaย moleย di dati tanto grande possa servire a rendere sempre piรน precisi i vari software in sviluppo per l’identificazione dei deepfake, visti come una minaccia a causa delย ยซpossibile abuso dei media sinteticiยป, che costituisce un pericolo per chiunque navighi nel web.

Fonte : https://www.zeusnews.it/n.php?c=27662

 

SU GOOGLE BLOG

Contributo dei dati alla ricerca di rilevamento di Deepfake
Martedรฌ 24 settembre 2019
Postato da Nick Dufour, Google Research e Andrew Gully, Jigsaw

Il deep learning ha dato origine a tecnologie che sarebbero state ritenute impossibili solo una manciata di anni fa. I moderni modelli generativi ne sono un esempio, in grado di sintetizzare immagini iperrealistiche, discorsi, musica e persino video. Questi modelli sono stati utilizzati in una vasta gamma di applicazioni, incluso rendere il mondo piรน accessibile attraverso la sintesi vocale e aiutare a generare dati di formazione per l’imaging medico.

Come ogni tecnologia trasformativa, questo ha creato nuove sfide. I cosiddetti “deepfakes”, prodotti da modelli generativi profondi in grado di manipolare clip audio e video, sono uno di questi. Dalla loro prima apparizione alla fine del 2017, sono emersi molti metodi di generazione di deepfake open source, portando a un numero crescente di clip multimediali sintetizzate. Mentre molti sono probabilmente destinati a essere divertenti, altri potrebbero essere dannosi per gli individui e la societร .

Google considera seriamente questi problemi. Come abbiamo pubblicato nei nostri Principi di intelligenza artificiale lo scorso anno, ci impegniamo a sviluppare le migliori pratiche di IA per mitigare il potenziale di danno e abuso. Lo scorso gennaio, abbiamo annunciato il rilascio di un set di dati di sintesi vocale a supporto di una sfida internazionale per lo sviluppo di rilevatori audio falsi ad alte prestazioni. Il set di dati รจ stato scaricato da oltre 150 organizzazioni di ricerca e industria come parte della sfida ed รจ ora liberamente disponibile al pubblico.

Oggi, in collaborazione con Jigsaw, stiamo annunciando il rilascio di un ampio set di dati di deepfake visivi che abbiamo prodotto che รจ stato incorporato nella Technical University di Monaco e nel nuovo benchmark FaceForensics dell’Universitร  Federico II di Napoli, uno sforzo che Google co-sponsor. L’incorporazione di questi dati nel benchmark video FaceForensics รจ in collaborazione con importanti ricercatori, tra cui la prof.ssa Matthias Niessner, la prof.ssa Luisa Verdoliva e il team FaceForensics. Puoi scaricare i dati dalla pagina github di FaceForensics.

Un campione di video dal contributo di Google al benchmark FaceForensics. Per generarli, le coppie di attori sono state selezionate casualmente e le reti neurali profonde hanno scambiato la faccia di un attore sulla testa di un altro.
Per realizzare questo set di dati, nell’ultimo anno abbiamo lavorato con attori pagati e consenzienti per registrare centinaia di video. Utilizzando metodi di generazione di deepfake disponibili pubblicamente, abbiamo quindi creato migliaia di deepfake da questi video. I video risultanti, reali e falsi, comprendono il nostro contributo, che abbiamo creato per supportare direttamente gli sforzi di rilevamento di deepfake. Come parte del benchmark FaceForensics, questo set di dati รจ ora disponibile, gratuito per la comunitร  di ricerca, per l’uso nello sviluppo di metodi di rilevamento video sintetico.

Gli attori sono stati girati in una varietร  di scene. Alcuni di questi attori sono raffigurati qui (in alto) con un esempio di deepfake (in basso), che puรฒ essere un cambiamento sottile o drastico, a seconda dell’altro attore utilizzato per crearli.
Poichรฉ il campo si sta muovendo rapidamente, aggiungeremo a questo set di dati man mano che la tecnologia deepfake si evolve nel tempo e continueremo a lavorare con i partner in questo spazio. Crediamo fermamente nel supportare una fiorente comunitร  di ricerca sulla mitigazione dei potenziali danni derivanti da abusi dei media sintetici e la versione odierna del nostro set di dati deepfake nel benchmark FaceForensics รจ un passo importante in quella direzione.

Ringraziamenti
Un ringraziamento speciale a tutti i membri del nostro team e collaboratori che lavorano con noi su questo progetto: Daisy Stanton, Per Karlsson, Alexey Victor Vorobyov, Thomas Leung, Jeremiah “Spudde” Childs, Christoph Bregler, Andreas Roessler, Davide Cozzolino, Justus Thies, Luisa Verdoliva , Matthias Niessner e gli attori e la troupe cinematografica operosi che hanno contribuito a rendere possibile questo set di dati.

https://ai.googleblog.com/2019/09/contributing-data-to-deepfake-detection.html