Di solito non ci aspettiamo che lโimmagine di una tazza da tรจ si trasformi in un gatto quando riduciamo lo zoom. Ma nel mondo della ricerca sullโintelligenza artificiale possono accadere cose strane. I ricercatori della Technische Universitรคt Braunschweig tedesca hanno dimostrato che la modifica attenta dei valori dei pixel delle foto digitali puรฒ trasformarle in unโimmagine completamente diversa quando vengono ridimensionate.
Ciรฒ che preoccupa sono le implicazioni che queste modifiche possono avere per gli algoritmi di intelligenza artificiale.
Intermezzo promozionale ... continua la lettura dopo il box:
Usufruisci di uno sconto per fare un CONTROLLO DELLA REPUTAZIONE PERSONALE o AZIENDALE [ click qui ]
Gli attacchi contraddittori di ridimensionamento delle immagini sfruttano gli algoritmi di ridimensionamento delle immagini per modificare lโaspetto di unโimmagine quando viene ridotta.
Gli attori malintenzionati possono utilizzare questa tecnica di ridimensionamento delle immagini come trampolino di lancio per attacchi avversari contro i modelli di apprendimento automatico , gli algoritmi di intelligenza artificiale utilizzati nelle attivitร di visione artificiale come il riconoscimento facciale e il rilevamento di oggetti. Lโapprendimento automatico antagonistico รจ una classe di tecniche di manipolazione dei dati che causano cambiamenti nel comportamento degli algoritmi di intelligenza artificiale mentre passano inosservati agli esseri umani.
In un documento presentato allโUsenix Security Symposium di questโanno, i ricercatori della TU Braunschweig forniscono una revisione approfondita della messa in scena e della prevenzione degli attacchi di ridimensionamento delle immagini contro i sistemi di apprendimento automatico. I loro risultati ci ricordano che dobbiamo ancora scoprire molte delle sfaccettature nascoste โ e delle minacce โ degli algoritmi di intelligenza artificiale che stanno diventando sempre piรน importanti nella nostra vita quotidiana.
Adversarial image-scaling
Quando vengono addestrati su molti esempi, i modelli di apprendimento automatico creano rappresentazioni matematiche delle somiglianze tra classi diverse. Ad esempio, se si allena un algoritmo di apprendimento automatico per rilevare la differenza tra cani e gatti, tenterร di creare un modello statistico in grado di dire se i pixel in una nuova immagine sono piรน simili a quelli che si trovano nelle immagini del cane o del gatto. (I dettagli variano tra i diversi tipi di algoritmi di apprendimento automatico, ma lโidea di base รจ la stessa.)
Il problema รจ che il modo in cui questi algoritmi di intelligenza artificiale imparano a distinguere tra oggetti diversi รจ diverso da come funziona la visione umana. La maggior parte degli attacchi avversari sfrutta questa differenza per creare piccole modifiche che rimangono impercettibili allโocchio umano mentre cambiano lโoutput del sistema di apprendimento automatico. Ad esempio, nellโimmagine seguente, lโaggiunta di uno strato di rumore accuratamente realizzato farร sรฌ che un noto algoritmo di apprendimento profondo confonda il panda per un gibbone. Allโocchio umano, sia lโimmagine destra che quella sinistra sembrano essere lo stesso panda.
Lโaggiunta di uno strato di rumore allโimmagine del panda a sinistra la trasforma in un esempio di contraddittorio
Ma mentre i classici attacchi avversari sfruttano le peculiaritร nel funzionamento interno dellโalgoritmo di intelligenza artificiale, gli attacchi di ridimensionamento delle immagini si concentrano sulla fase di pre-elaborazione della pipeline di apprendimento automatico (ci arriveremo tra un po โ). Questo รจ il motivo per cui i ricercatori hanno intitolato il loro articolo โAdversarial preprocessingโ.
Intermezzo promozionale ... continua la lettura dopo il box:
โSebbene un ampio corpo di ricerca abbia studiato gli attacchi contro gli algoritmi di apprendimento, le vulnerabilitร nella preelaborazione per lโapprendimento automatico hanno ricevuto finora poca attenzioneโ, scrivono i ricercatori nel loro articolo.
In che modo gli attacchi di ridimensionamento delle immagini compromettono i modelli di apprendimento automatico
Ogni algoritmo di machine learning per lโelaborazione delle immagini ha una serie di requisiti per i suoi dati di input. Questi requisiti di solito includono una dimensione specifica per lโimmagine (ad esempio, 299 x 299 pixel), ma potrebbero anche essere inclusi altri fattori come il numero di canali di colore (RGB, scala di grigi) e la profonditร del colore (1 bit, 8 bit, ecc.) essere coinvolto.
Sia che tu stia addestrando un modello di apprendimento automatico o che lo utilizzi per inferenza (classificazione, rilevamento di oggetti, ecc.), Dovrai pre-elaborare la tua immagine per adattarla ai requisiti di input dellโIA. Sulla base dei requisiti che abbiamo appena visto, possiamo presumere che la preelaborazione di solito richieda il ridimensionamento dellโimmagine alla giusta dimensione. E, come di solito accade con il software, quando gli hacker malintenzionati sanno come funziona un programma (o almeno una parte di esso), cercheranno di trovare modi per sfruttarlo a proprio vantaggio.
La maggior parte dei modelli di machine learning per lโelaborazione delle immagini richiede che lโimmagine di input venga ridotta a una dimensione specifica.
ร qui che entra in gioco lโattacco di ridimensionamento dellโimmagine.
Lโidea chiave alla base dellโattacco di ridimensionamento dellโimmagine รจ sfruttare il modo in cui funzionano gli algoritmi di ridimensionamento per modificare lโaspetto dellโimmagine di input durante la fase di pre-elaborazione. E di fatto, la maggior parte delle librerie di machine learning e deep learning utilizza alcuni algoritmi di ridimensionamento ben noti e documentati. La maggior parte di questi algoritmi sono gli stessi che trovi nelle app di modifica delle immagini come Photoshop, come il vicino piรน vicino e lโinterpolazione bilineare. Ciรฒ rende molto piรน semplice per un utente malintenzionato progettare un exploit che funzioni contemporaneamente su molti algoritmi di apprendimento automatico.
Quando le immagini vengono ridimensionate, ogni pixel dellโimmagine ridimensionata รจ una combinazione dei valori di un blocco di pixel nellโimmagine sorgente. La funzione matematica che esegue la trasformazione รจ chiamata โkernelโ. Tuttavia, non tutti i pixel nel blocco sorgente contribuiscono allo stesso modo nel kernel (altrimenti, lโimmagine ridimensionata diventerebbe troppo sfocata). Nella maggior parte degli algoritmi, il kernel dร un peso maggiore ai pixel che sono piรน vicini al centro del blocco sorgente.
I kernel di ridimensionamento dellโimmagine pagano di piรน attributo un peso maggiore ai pixel piรน vicini al centro.
Nella preelaborazione del contraddittorio, lโaggressore acquisisce unโimmagine e apporta modifiche ai valori dei pixel nelle posizioni corrette. Quando lโimmagine passa attraverso lโalgoritmo di ridimensionamento, si trasforma nellโimmagine di destinazione. Infine, lโapprendimento automatico elabora lโimmagine modificata.
Quindi, fondamentalmente, quello che vedi รจ lโimmagine di origine. Ma ciรฒ che vede il modello di machine learning รจ lโimmagine di destinazione.
La sfida principale nellโattacco al ridimensionamento delle immagini รจ applicare le modifiche in modo che rimangano impercettibili allโocchio umano producendo il risultato desiderato quando vengono ridimensionate.
Un attacco di ridimensionamento dellโimmagine avversario nasconde i pixel dellโimmagine di destinazione nellโimmagine di origine in un modo che un ridimensionamento risulterร nellโimmagine di destinazione.
Quando attacca un modello di apprendimento automatico, lโaggressore deve conoscere il tipo di algoritmo di ridimensionamento utilizzato e la dimensione del kernel. Dato che la maggior parte delle librerie di machine learning ha poche opzioni di ridimensionamento, i ricercatori hanno scoperto che un utente malintenzionato richiede solo pochi tentativi per trovare la configurazione corretta.
Nei commenti a TechTalks, Pin-Yu Chen, chief scientist presso IBM Research (non tra gli autori dellโarticolo), ha confrontato il ridimensionamento delle immagini del contraddittorio con la steganografia, dove un messaggio (qui lโimmagine ridotta) รจ incorporato nellโimmagine di origine, e puรฒ essere decodificato solo dallโalgoritmo di riduzione della scala.
โSono curioso di vedere se lโattacco puรฒ essere agnostico anche per gli algoritmi di ridimensionamentoโ, afferma Chen, autore di diversi articoli sullโapprendimento automatico antagonistico. โMa sulla base del successo di perturbazioni universali (a diversi algoritmi), penso che anche un attacco universale di ridimensionamento dellโimmagine sia plausibileโ.
Esempi reali di attacchi di ridimensionamento delle immagini
Esistono fondamentalmente due scenari per attacchi di ridimensionamento delle immagini contro algoritmi di apprendimento automatico. Un tipo di attacco consiste nel creare esempi contraddittori che causano false previsioni in un algoritmo di apprendimento automatico addestrato. Ad esempio, come mostrato negli esempi precedenti, un attacco di ridimensionamento delle immagini puรฒ far sรฌ che un algoritmo di apprendimento automatico classifichi un gatto come un cane o una teiera come un gatto.
Ma forse la minaccia maggiore del ridimensionamento delle immagini รจ rappresentata dagli attacchi di โavvelenamento dei datiโ, sottolineano i ricercatori dellโIA nel loro articolo.
Lโavvelenamento dei dati รจ un tipo di attacco avversario messo in scena durante la fase di addestramento, quando un modello di apprendimento automatico regola i suoi parametri sui pixel di migliaia e milioni di immagini. Se un utente malintenzionato ha accesso e puรฒ manomettere il set di dati utilizzato nella formazione, sarร in grado di far sรฌ che il modello di apprendimento automatico si formi su esempi di contraddittorio. Questo crea una backdoor nellโalgoritmo AI che lโattaccante puรฒ utilizzare in seguito
Ad esempio, si consideri unโazienda che sta creando un sistema di riconoscimento facciale per controllare lโaccesso nei luoghi in cui gestisce materiale sensibile. A tal fine, gli ingegneri dellโazienda stanno addestrando una rete neurale convoluzionale per rilevare i volti dei dipendenti autorizzati. Mentre il team sta raccogliendo il set di dati di formazione, un dipendente malintenzionato fa scivolare alcune immagini manomesse che nascondono la foto segnaletica di un personale non autorizzato.
Dopo aver addestrato la rete neurale, gli ingegneri testano lโIA per assicurarsi che rilevi correttamente i dipendenti autorizzati. Controllano anche alcune immagini casuali per assicurarsi che lโalgoritmo AI non dia per errore lโaccesso a una persona non autorizzata. Ma a meno che non controllino esplicitamente il modello di apprendimento automatico sul volto della persona inclusa nellโattacco avversario, non scopriranno il suo brutto segreto.
Gli attacchi di ridimensionamento delle immagini contraddittori possono nascondere un volto bersaglio in unโimmagine sorgente senza allertare un osservatore umano.
Ecco un altro esempio: supponiamo che tu stia addestrando una rete neurale sulle immagini dei segnali di stop per un uso successivo in unโauto a guida autonoma . Un malintenzionato puรฒ avvelenare i dati di addestramento per includere immagini patchate dei segnali di stop. Queste sono chiamate โpatch del contraddittorioโ. Dopo lโaddestramento, la rete neurale assocerร qualsiasi segno con quella patch con la classe di destinazione. Quindi, ad esempio, puรฒ far sรฌ che unโauto a guida autonoma tratti un segnale casuale come un segnale di stop o, peggio, classifichi erroneamente e aggiri un vero segnale di stop.
In questo attacco di ridimensionamento dellโimmagine, una patch antagonista รจ incorporata nellโimmagine di un segnale di stop.
Attacchi con ridimensionamento delle immagini rispetto ad altre tecniche di apprendimento automatico dellโavversario
Nel loro articolo, i ricercatori di TU Braunschweig sottolineano che gli attacchi di ridimensionamento delle immagini sono una minaccia particolarmente seria per lโIA perchรฉ la maggior parte dei modelli di machine learning di visione artificiale utilizza uno dei pochi algoritmi di ridimensionamento delle immagini popolari. Ciรฒ rende gli attacchi di ridimensionamento delle immagini โindipendenti dal modelloโ, il che significa che sono insensibili al tipo di algoritmo di intelligenza artificiale che prendono di mira e un singolo schema di attacco puรฒ essere applicato a unโintera gamma di algoritmi di apprendimento automatico.
Al contrario, gli esempi classici di contraddittorio sono progettati per ogni modello di apprendimento automatico. E se il modello preso di mira subisce una leggera modifica, lโattacco potrebbe non essere piรน valido.
โRispetto agli attacchi avversari white-box che richiedono una conoscenza completa e la piena trasparenza del modello di destinazione, lโattacco di ridimensionamento delle immagini richiede meno informazioni (deve solo sapere quale algoritmo di ridimensionamento viene utilizzato nel sistema di destinazione), quindi รจ un metodo piรน pratico ( gray-box) in termini di conoscenza dellโaggressore โ, ha detto Chen. โTuttavia, รจ ancora meno pratico degli attacchi avversari black-box che non richiedono alcuna conoscenza [del modello di apprendimento automatico di destinazione].โ
Gli attacchi avversari a scatola nera sono tecniche avanzate che sviluppano perturbazioni antagoniste semplicemente osservando i valori di output di un modello di apprendimento automatico.
Chen riconosce che lโattacco a ridimensionamento delle immagini รจ davvero un modo efficiente per generare esempi contraddittori. Ma aggiunge che non tutti i sistemi di apprendimento automatico hanno unโoperazione di ridimensionamento. โQuesto tipo di attacco รจ limitato ai modelli basati su immagini con operazioni di ridimensionamento, mentre gli esempi contraddittori possono esistere in altri modelli di immagini senza ridimensionamento e altre modalitร di datiโ, afferma. Lโapprendimento automatico del contraddittorio si applica anche ai dati audio e di testo .
Protezione dei modelli di machine learning dagli attacchi di ridimensionamento delle immagini
Il lato positivo รจ che la semplicitร del ridimensionamento delle immagini contraddittorio rende anche possibile esaminare meglio gli schemi di attacco e sviluppare tecniche in grado di proteggere i sistemi di apprendimento automatico.
โSebbene gli attacchi contro gli algoritmi di apprendimento siano ancora difficili da analizzare a causa della complessitร dei modelli di apprendimento, la struttura ben definita degli algoritmi di ridimensionamento ci consente di analizzare completamente gli attacchi di ridimensionamento e sviluppare difese efficaciโ, scrivono i ricercatori della TU Braunschweig.
Nel loro articolo, i ricercatori forniscono diversi metodi per contrastare gli attacchi avversari di ridimensionamento delle immagini, inclusi algoritmi di ridimensionamento che attenuano i pesi dei kernel e filtri di ricostruzione dellโimmagine che possono annullare lโeffetto dei valori dei pixel alterati.
Le tecniche di ricostruzione delle immagini riducono la probabilitร di attacchi di ridimensionamento delle immagini in contraddittorio sostituendo i pixel sensibili con i valori dellโarea circostante.
โIl nostro lavoro fornisce nuove informazioni sulla sicurezza della preelaborazione nellโapprendimento automaticoโ, scrivono i ricercatori. โRiteniamo che sia necessario un ulteriore lavoro per identificare ed escludere altre vulnerabilitร nelle diverse fasi dellโelaborazione dei dati per rafforzare la sicurezza dei sistemi basati sullโapprendimentoโ.
Rendere gli algoritmi di machine learning robusti contro gli attacchi del contraddittorio รจ diventata unโarea di ricerca attiva negli ultimi anni. Chen di IBM afferma: โOltre agli attacchi, sono stati utilizzati anche esempi di contraddittorio per lโaddestramento del modello per rafforzare la robustezza del modello. Ai fini dellโaddestramento in contraddittorio (addestramento con esempi in contraddittorio), รจ utile avere diversi tipi di attacchi in contraddittorio โ.
Questo articolo รจ stato originariamente pubblicato da Ben Dickson su TechTalks , una pubblicazione che esamina le tendenze della tecnologia, il modo in cui influenzano il modo in cui viviamo e facciamo affari e i problemi che risolvono. Ma discutiamo anche del lato malvagio della tecnologia, delle implicazioni piรน oscure della nuova tecnologia e di ciรฒ a cui dobbiamo prestare attenzione. Puoi leggere lโarticolo originale qui .
Fonte : https://thenextweb.com/neural/2020/08/13/image-scaling-attacks-highlight-dangers-of-adversarial-machine-learning-syndication/