Un’importante sito inglese https://inews.co.uk/ ha pubblicato un articolo ben strutturato che mette in luce sui principali pericoli dell’AI, pubblicazione che vi invitiamo a leggere con attenzione. Essendo in inglese lo abbiamo tradotto in modo automatico con google.
Inizia l’articolo scritto da Eleanor Langford:
Intermezzo promozionale ... continua la lettura dopo il box:
Usufruisci di uno sconto per fare un CONTROLLO DELLA REPUTAZIONE PERSONALE o AZIENDALE [ click qui ]
“Il governo ha pubblicato una serie di rapporti sui rischi dell’intelligenza artificiale (AI), dai nuovi attacchi informatici avanzati alla perdita del controllo della tecnologia da parte degli esseri umani.
Rishi Sunak terrà un discorso in anteprima al vertice sulla sicurezza dell’intelligenza artificiale della prossima settimana a Bletchley Park, dove negozierà con altri leader mondiali su un quadro normativo per controllare la tecnologia emergente.
Ci si aspetta che elogi le “opportunità o un futuro migliore che l’intelligenza artificiale può portare” e promette al pubblico che il governo offrirà “la tranquillità che vi terremo tutti al sicuro”.
Ecco alcuni degli avvertimenti chiave contenuti nella valutazione ufficiale del governo sul rischio dell’IA:
I modelli di intelligenza artificiale già spesso agiscono in modi “inaspettati e forse pericolosi”.
Con l’intelligenza artificiale ancora nelle prime fasi del suo sviluppo, esiste una diffusa preoccupazione che i sistemi possano iniziare a funzionare in modi che vanno oltre ciò a cui sono destinati, con possibili risultati negativi.
“Mentre possiamo limitare il repertorio comportamentale di un’intelligenza artificiale (ad esempio agli output di testo da un vocabolario limitato), ciò limita le prestazioni, quindi potrebbe essere non competitivo e i sistemi di intelligenza artificiale spesso utilizzano il loro repertorio comportamentale in modi imprevisti, realizzando risultati inaspettati – e potenzialmente pericolosi”. “, avverte il rapporto.
Ha inoltre affermato che impedire ai sistemi di intelligenza artificiale di perseguire obiettivi non desiderati, noto come problema delle specifiche, è un “problema di ricerca irrisolto”.
Intermezzo promozionale ... continua la lettura dopo il box:
“In genere non è possibile esprimere completamente comportamenti, concetti o obiettivi complessi direttamente nel codice, quindi insegnare all’IA quali comportamenti sono desiderabili o indesiderabili deve essere fatto indirettamente e può essere appreso solo approssimativamente; dando origine a potenziali lacune nelle specifiche e nella garanzia”, continua il rapporto.
C’è molto lavoro da fare per garantire che l’intelligenza artificiale sia sicura e ben regolamentata
Nel rapporto, i ricercatori affermano che molti nel settore dell’intelligenza artificiale hanno sostenuto che la tecnologia deve essere considerata una tecnologia di uso generale, simile all’elettricità, e che dovrebbe essere regolamentata allo stesso modo di altri settori come la sanità, l’aviazione e il nucleare. ingegneria.
Esiste già la preoccupazione che gli standard di sicurezza siano “ancora in una fase iniziale” e che sia necessario un maggiore coordinamento globale, poiché i modelli vengono spesso sviluppati in un paese e poi implementati in un altro.
“I test di sicurezza e la valutazione dell’IA di frontiera sono ad hoc, senza standard stabiliti, basi scientifiche o migliori pratiche ingegneristiche”, afferma il rapporto.
Inoltre, il rapporto suggerisce che gli sviluppatori di intelligenza artificiale non hanno alcun incentivo a mitigare i rischi quando creano nuovi sistemi, in un contesto di forte concorrenza nel settore, poiché “non sostengono l’intero costo” di eventuali problemi.
“In tali scenari, potrebbe essere difficile anche per gli sviluppatori di intelligenza artificiale impegnarsi unilateralmente a rispettare rigorosi standard di sicurezza, per timore che i loro impegni li mettano in una posizione di svantaggio competitivo”, si legge nel rapporto.
Gli esseri umani potrebbero diventare “irreversibilmente dipendenti” dall’intelligenza artificiale
Nella sintesi del governo del rapporto sull’intelligenza artificiale, si avverte che in futuro gli esseri umani potrebbero diventare eccessivamente dipendenti dalla tecnologia in un modo che sarebbe impossibile invertire.
Si afferma: “Man mano che la capacità dell’intelligenza artificiale aumenta, gli esseri umani garantiscono all’intelligenza artificiale un maggiore controllo sui sistemi critici e alla fine diventano irreversibilmente dipendenti da sistemi che non comprendono appieno. Il fallimento e gli esiti non desiderati non possono essere controllati”.
Gli esperti evidenziano anche il rischio di dipendenza dall’intelligenza artificiale in quanto vi sono gravi conseguenze se “i sistemi sono disallineati”.
“I sistemi di intelligenza artificiale potrebbero indirizzare sempre più la società in una direzione che è in contrasto con i suoi interessi a lungo termine, anche senza alcuna intenzione da parte degli sviluppatori di intelligenza artificiale che ciò accada. Anche se molte persone riconoscono che ciò sta accadendo, potrebbe essere difficile fermarlo”, afferma il rapporto.
L’intelligenza artificiale potrebbe essere utilizzata per campagne di fake news di massa per influenzare le elezioni
Uno dei maggiori rischi dell’intelligenza artificiale è la disinformazione – false informazioni diffuse intenzionalmente da cattivi attori – poiché immagini, video e fatti falsi saranno più economici e più rapidi da produrre.
“I deepfake generati dall’intelligenza artificiale stanno diventando estremamente realistici, il che significa che spesso non possono essere identificati da individui o addirittura istituzioni con tecnologie di rilevamento avanzate”, afferma il rapporto.
“Anche laddove i contenuti generati dall’intelligenza artificiale non sono universalmente creduti, la loro implementazione strategica può causare interruzioni, confusione e perdita di fiducia”.
Si teme che tali campagne possano essere utilizzate per influenzare le elezioni generali, nonché per persuadere le persone su questioni politiche e creare disordini.
Esiste anche il rischio continuo di pregiudizi involontari nei contenuti generati dall’intelligenza artificiale, poiché ciò che i modelli producono è “radicato” nei dati su cui sono formati e può riprodurre pregiudizi o stereotipi esistenti nella società.
“Questi pregiudizi, spesso sottili e profondamente radicati, compromettono l’uso equo ed etico dei sistemi di intelligenza artificiale, rendendo difficile per l’intelligenza artificiale migliorare l’equità nelle decisioni”, afferma il rapporto.
Le persone vengono già radicalizzate o spinte ad azioni dannose dall’intelligenza artificiale
La diffusione della disinformazione riguarda la riproduzione di falsità senza intenti maligni, poiché l’intelligenza artificiale è nota per produrre “allucinazioni” in cui inventa involontariamente informazioni.
Nel rapporto, gli esperti avvertono che ciò potrebbe “abbassare la fiducia generale nelle informazioni vere” trovate online, oltre a causare “un processo decisionale compromesso” da parte di individui e aziende che si affidano a cattive informazioni.
Un’ulteriore preoccupazione riguardo ai pregiudizi e alle false informazioni prodotte dall’intelligenza artificiale è che potrebbe radicalizzare alcuni individui o incoraggiarli a fare cose dannose.
“Ci sono stati esempi di IA che hanno allucinato informazioni pericolose, radicalizzato inavvertitamente gli individui e spinto gli utenti verso azioni dannose come conseguenza involontaria della progettazione del modello”, afferma il rapporto.
“Le conseguenze a lungo termine, in particolare quando l’intelligenza artificiale di frontiera diventa sempre più integrata nelle applicazioni tradizionali e più accessibile ai bambini e alle persone vulnerabili, sono altamente incerte”.
Immagini e video generati dall’intelligenza artificiale potrebbero essere utilizzati da truffatori e molestatori di minori
La capacità dell’intelligenza artificiale di creare immagini realistiche spesso indistinguibili dalle fotografie ha anche implicazioni più ampie.
Nella sintesi dei risultati, il Governo ha concluso che l’uso della tecnologia da parte dei criminali “molto probabilmente accelererà la frequenza e la sofisticazione” di crimini come le truffe e la produzione di immagini di abusi sessuali su minori.
Si afferma inoltre che l’intelligenza artificiale è già utilizzata da criminali per la generazione vocale e la clonazione facciale con l’intento di “violare la privacy e i diritti umani delle persone”.
Una truffa già identificata prevede l’utilizzo dell’intelligenza artificiale per “impersonare le voci di contatti fidati” per convincere un obiettivo a conformarsi.
L’intelligenza artificiale potrebbe aiutare gli hacker e peggiorare la minaccia di attacchi informatici
Oltre all’aumento del rischio di truffe, c’è anche la preoccupazione che l’intelligenza artificiale possa essere utilizzata per lanciare attacchi informatici più sofisticati.
“I sistemi di intelligenza artificiale possono essere utilizzati potenzialmente da chiunque per creare intrusioni informatiche più rapide, più efficaci e su larga scala tramite metodi di phishing personalizzati o replicando malware”, avverte il rapporto.
Ci sono stati anche esempi di utilizzo dell’intelligenza artificiale per creare virus informatici che “cambiano nel tempo per evitare il rilevamento”, una caratteristica che avrebbe richiesto una notevole esperienza umana per essere creata.
“Le tattiche attuali spesso richiedono uno sforzo umano che potrebbe essere sostituito da sistemi di intelligenza artificiale più avanzati, portando a una maggiore scalabilità di potenti attacchi informatici”, ha continuato.
Il rapporto prosegue avvertendo che lo sviluppo dell’intelligenza artificiale potrebbe portare a sistemi che lanciano attacchi informatici di propria iniziativa e che il lavoro è ancora in corso per capire se ciò sia possibile.
C’è un lato positivo, tuttavia, poiché l’intelligenza artificiale può essere utilizzata anche per la difesa informatica in quanto può aiutare a identificare anomalie nei sistemi e scansionare i controlli di sicurezza.
L’intelligenza artificiale potrebbe essere utilizzata per aiutare i malintenzionati a pianificare attacchi terroristici
Uno dei maggiori avvertimenti contenuti nel rapporto è che, entro il 2025, l’intelligenza artificiale potrebbe essere utilizzata per “migliorare le capacità terroristiche nella propaganda, nella radicalizzazione, nel reclutamento, nei flussi di finanziamento, nello sviluppo di armi e nella pianificazione degli attacchi”.
Inoltre avverte specificamente che l’intelligenza artificiale potrebbe essere “utilizzata per scopi dannosi, come per lo sviluppo di armi biologiche o chimiche ”, ma ammette che l’entità di questo rischio è contestata dagli esperti.
L’intelligenza artificiale ha questa capacità, spiega il rapporto, poiché ha dimostrato di essere efficace nel personalizzare le istruzioni per il lavoro di laboratorio che “può potenzialmente essere sfruttato per scopi dannosi” e occasionalmente ha anche fornito istruzioni su come ottenere materiali biologici o chimici.
Un giorno gli esseri umani potrebbero perdere il controllo dei sistemi di intelligenza artificiale
Un’altra grande fonte di preoccupazione è che, poiché gli esseri umani affidano sempre più il processo decisionale all’intelligenza artificiale, potremmo alla fine perderne del tutto il controllo.
“Alcuni esperti temono che i futuri sistemi avanzati di intelligenza artificiale cercheranno di aumentare la propria influenza e ridurre il controllo umano, con conseguenze potenzialmente catastrofiche”, si legge nel rapporto.
Il rapporto ammette che “la probabilità di questi rischi rimane controversa” e che è fortemente contestata la possibilità che l’intelligenza artificiale possa togliere il controllo agli esseri umani.
“Tuttavia, molti esperti temono che perdere il controllo dei sistemi avanzati di intelligenza artificiale per scopi generali sia una possibilità reale e che la perdita di controllo potrebbe essere permanente e catastrofica”, ha continuato”
Fonte : https://inews.co.uk/