Una nuova forma di bullismo è emersa recentemente, ed è legata all’uso di tecnologie di intelligenza artificiale per creare video “deepfake” a sfondo sessuale utilizzando il volto dei nostri figli. L’alterazione digitale delle immagini sta diventando sempre più comune nel mondo del web, causando gravi conseguenze per le vittime.
Recentemente, una storia ha fatto scalpore: una quattordicenne insieme ad altre coetanee è stata vittima di bullismo, con le loro immagini alterate e successivamente pubblicate su siti a contenuto sessualmente esplicito. Questo fenomeno potrebbe sembrare fantascienza, ma purtroppo è una triste realtà. Ciò che rende ancora più inquietante il tutto è che, grazie alle nuove tecnologie, basta una semplice foto o un innocente video di famiglia pubblicato online per diventare vittime di questo tipo di abuso sessuale basato sull’immagine.
Intermezzo promozionale ... continua la lettura dopo il box:
Usufruisci di uno sconto per fare un CONTROLLO DELLA REPUTAZIONE PERSONALE o AZIENDALE [ click qui ]
Non è necessario essere dei geni della tecnologia per realizzare video “deepfake” pornografici. Esistono codici e strumenti gratuiti disponibili su siti Web di grande prestigio per creare immagini manipolate in poco tempo, che vengono ampiamente condivisi online. È allarmante sapere che il 95% dei video “deepfake” a sfondo sessuale sono stati creati utilizzando il codice sorgente ospitato su piattaforme di progetti software a cui tutti possono accedere.
La creazione di tali immagini richiede meno tempo di quanto si impieghi per preparare una tazza di caffè. Anche se molte persone non dovessero essere in grado di crearle, possono facilmente sollecitare e persino pagare altri per farlo, poichè esistono intere comunità dedicate allo scambio e alla creazione di materiale esplicito non consensuale.
La parte più preoccupante è che queste immagini non sono semplici manipolazioni “photoshop” di un volto su un corpo, come si faceva negli anni ’90. Anche i massimi dirigenti delle aziende tecnologiche più innovative ammettono di non essere in grado di riconoscere facilmente se un’immagine pornografica è reale o artificiale. Non esiste un modo semplice per distinguere il falso dal vero, come accade per una filigrana su una banconota.
PROTEGGERSI DAI DEEPFAKE PORNOGRAFICI
Le vittime di queste pratiche devono affrontare una dura battaglia per cercare di rimuovere i materiali condivisi online. Noi di Informatica in Azienda, abbiamo già messo a punto protocolli efficaci per la rimozione dei video “deepfake”, sia attraverso contatti tecnici con i proprietari dei siti, anche se protetti dalla privacy, sia attraverso l’invio di diffide online tramite il nostro servizio https://diffidelegalionline.it/.
Tuttavia, la maggior parte delle vittime non ha il coraggio di chiedere aiuto perchè pensa che non ci siano soluzioni, e quelle messe in atto da una persona che non sia del mestiere sono inefficaci e richiedono ore di segnalazioni quotidiane per vedere risultati, che spesso si rivelano temporanei, poiché il materiale viene nuovamente pubblicato.
Siamo solo all’inizio di un’era di abusi sessuali basati sull’immagine, grazie alle tecnologie emergenti. È giunto il momento cruciale nella storia informatica di attribuire alle aziende tecnologiche la responsabilità di prevenire la creazione e la diffusione di immagini che causano lo sfruttamento sessuale. La tutela della dignità umana non può essere trascurata. Questo è quello che auspichiamo.
Servizio professionale per la rimozione Deepfake video falsi [ click qui ]
Intermezzo promozionale ... continua la lettura dopo il box:
Continua a leggere gli articoli sul nostro sito per rimanere aggiornato/a sui pericoli della rete.
Se copi questo articolo ricordarti di citare la fonte con il seguente link al nostro sito : Informatica in Azienda diretta dal Dott. Emanuel Celano – Bologna
Invia questo messaggio ai tuoi amici. I pulsanti di condivisione sono qui sotto :