Le Forze Speciali Statunitensi Hanno Iniziato ad Utilizzare le Deepfake per Manipolare la Popolazione
Voi non avete idea di quanti sono gli strumenti utilizzati per porre al vertice del potere dei sociopatici criminali grazie al consenso di coloro che si godono della loro intelligenza!
Toba60
La libera informazione come la nostra non gode di alcun finanziamento pubblico e solo grazie alle vostre donazioni può ogni giorno dare seguito suo lavoro.
Ignorare Il logo in basso significa dare spazio a chi trae vantaggio da una società vincolata alle restrittive norme del pensiero unico imposto attraverso una distorta comunicazione dei fatti odierni, passati e futuri.
Staff Toba60
Deepfake: cosa sono, come funzionano, come riconoscerli
I deepfake sono video o immagini realizzati con una tecnica per la sintesi dell’immagine umana basata sull’intelligenza artificiale. È usata per combinare immagini e video esistenti e originali.
Con il termine deepfake si intende una tecnica basata sull’intelligenza artificiale che viene utilizzata per la sintesi di immagini umane. Questa sfrutta una tecnologia di apprendimento automatico per combinare e sovrapporre immagini e video esistenti con video o immagini originali. Con deepfake ci si riferisce comunemente anche al prodotto di ciò che si realizza utilizzando questa tecnica.
Recentemente vi è capitato di vedere un personaggio pubblico (un politico, un imprenditore particolarmente esposto all’attenzione dei media) dire qualcosa di compromettente? È possibile, se non addirittura probabile, che ciò che avete visto sia un prodotto realizzato con la tecnica del deepfake, fatto per screditare quella persona agli occhi dell’opinione pubblica.
Deepfake: la guida
- Deepfake: come funziona
- Deepfake: come vengono creati
- Come riconoscere un deepfake
- Deepfake e fake news: cosa ci aspetta in futuro
Il termine deepfake trae la sua origine dalla tecnologia chiamata «deep learning», una forma di intelligenza artificiale. Grazie ad essa è possibile realizzare false immagini e falsi video, ma può essere anche utilizzata per costruire e avvalorare fake news e compiere atti di cyber bullismo o revenge porn.
Una dei metodi più utilizzati per per realizzare un deepfake è sfruttando un autoencoder, ossia un un programma di intelligenza artificiale che studia un video per capire come appare una persona da diverse angolazioni e condizioni spaziali, per poi mapparla sull’individuo nel video di destinazione trovando caratteristiche comuni.
Per sfruttare questa tecnica è prima necessario avere un video di partenza da usare come base del deepfake e poi una raccolta di altri video della persona che si vuole inserire nel target.
Un secondo metodo per realizzare dei deepfake è attraverso un GAN (Generative Adversarial Network). Questo sistema è in grado di rendere un deepfake molto più realistico, in quanto – mediante la costante ricerca di difetti nelle riprese – lo rende sempre più credibile.
La quantità di dati necessaria per generare un deepfake tramite GAN è molto elevata, per cui non tutti possono realizzarne uno utilizzando questo metodo. Per chi ne ha a sufficienza da poter utilizzare il metodo GAN è necessario sapere che maggiori saranno i dati immessi nel sistema, maggiore sarà la qualità del contenuto generato.
Per realizzare questi video Deepfake molte persone scaricano delle app da Github, un portale open source su cui è possibile trovarne alcune. Tra quelle disponibili ci sono Deepface Lab o Face Swap; mentre online esistono siti web come deepfakesweb.com e yepic.ai, che sono molto usati per creare deepfake.
Attualmente creare un deepfake non è considerato illegale, nonostante uno ben realizzato possa rovinare la reputazione di una persona. Inoltre, ciò che preoccupa è che – probabilmente – con il progressivo sviluppo della tecnologia anche i deepfake diventeranno sempre più difficili da riconoscere.
Non esistono delle regole univoche per riconoscere un video realizzato usando la tecnica del deepfake, soprattutto perché la loro qualità dei contenuti è cresciuta nel corso degli anni.
In passato i video deepfake erano riconoscibili poiché erano di bassa qualità e contenevano dei palesi errori di montaggio, rintracciabili ad esempio dal movimento delle palpebre innaturale, dalla pessima qualità dell’audio, oppure dalle luci, spesso troppo alte o troppo basse.
Grazie ai feedback degli utenti, le app per realizzare i deepfake vengono aggiornate periodicamente, il che le rende più precise e performanti. Come risultato, distinguere un contenuto falso da uno originale diventa più difficile.
Deepfake e fake news: cosa ci aspetta in futuro
Il mercato dell’intelligenza artificiale è in grande evoluzione, stanno infatti nascendo nuovi software che permettono di creare contenuti basati sulle conoscenze di avanzati algoritmi.
Tra quelli nati di recente c’è Dall-E 2, un programma disponibile sul web in grado di generare delle immagini da zero oppure di modificarle. In particolare, con Dall-E 2, è possibile alterare immagini esistenti a piacimento, seppure talvolta il risultato possa non essere all’altezza delle aspettative.
Questa possibilità apre a dei nuovi interrogativi che è impossibile non porsi: strumenti come Dall-E 2 sono a disposizione di chiunque abbia una connessione internet, ciò implica che tutti possono utilizzarla per realizzare delle immagini false che, insieme ai deepfake possono contribuire a rovinare la reputazione di una persona.
Il governo degli Stati Uniti ha passato anni ad avvertire che i deepfake potrebbero destabilizzare le società democratiche
Il Comando per le operazioni speciali degli Stati Uniti, responsabile di alcune delle attività militari più segrete del Paese, si sta preparando a condurre campagne di propaganda e inganno online utilizzando video deepfake, secondo i documenti di appalto federali esaminati da The Intercept.
I piani, che descrivono anche l’hacking di dispositivi connessi a Internet per origliare al fine di valutare la suscettibilità delle popolazioni straniere alla propaganda, arrivano in un momento di intenso dibattito globale sulle campagne di “disinformazione” tecnologicamente sofisticate, sulla loro efficacia e sull’etica del loro utilizzo.
Mentre il governo degli Stati Uniti mette abitualmente in guardia contro il rischio di deepfakes e lavora apertamente per costruire strumenti per contrastarli, il documento del Comando per le Operazioni Speciali, o SOCOM, rappresenta un caso quasi inedito di governo americano – o di qualsiasi governo – che segnala apertamente il suo desiderio di usare la tecnologia altamente controversa in modo offensivo.
Le aspirazioni del SOCOM in materia di propaganda di prossima generazione sono delineate in un documento di approvvigionamento che elenca le capacità ricercate per il prossimo futuro e sollecita le offerte di soggetti esterni che ritengono di essere in grado di costruirle.
“Quando si tratta di disinformazione, il Pentagono non dovrebbe combattere il fuoco con il fuoco”, ha dichiarato a The Intercept Chris Meserole, capo della Brookings Institution’s Artificial Intelligence and Emerging Technology Initiative. “In un momento in cui la propaganda digitale è in aumento a livello globale, gli Stati Uniti dovrebbero fare tutto il possibile per rafforzare la democrazia costruendo un sostegno per le nozioni condivise di verità e realtà. I deepfakes fanno il contrario. Mettendo in dubbio la credibilità di tutti i contenuti e le informazioni, siano essi reali o sintetici, in ultima analisi erodono le fondamenta della democrazia stessa”.
Meserole ha aggiunto: “Se i deepfakes devono essere sfruttati per operazioni militari e di intelligence mirate, allora il loro uso deve essere soggetto a revisione e supervisione”.
Il documento di lancio, pubblicato per la prima volta dalla Direzione della Scienza e della Tecnologia del SOCOM nel 2020, ha stilato una lista di giocattoli di nuova generazione per il commando delle forze speciali del 21° secolo, una litania di gadget e strumenti futuristici che aiuteranno i soldati più elitari del Paese a cacciare e uccidere più efficacemente i loro bersagli utilizzando laser, robot, ologrammi e altri hardware sofisticati.
Lo scorso ottobre, il SOCOM ha rilasciato una versione aggiornata della sua lista dei desideri con una nuova sezione: “Tecnologie avanzate da utilizzare nelle operazioni di supporto alle informazioni militari (MISO)“, un eufemismo del Pentagono per indicare i suoi sforzi di propaganda e inganno a livello globale.
Il paragrafo aggiunto esprime il desiderio del SOCOM di ottenere nuovi e migliori mezzi per condurre “operazioni di influenza, inganno digitale, interruzione delle comunicazioni e campagne di disinformazione a livello tattico e operativo”. Il SOCOM sta cercando “una capacità di nuova generazione per raccogliere dati disparati attraverso flussi di informazioni pubbliche e open source come i social media, i media locali, ecc. per consentire al MISO di creare e dirigere le operazioni di influenza”.
Il SOCOM combatte tipicamente nell’ombra, ma la sua reputazione pubblica e la sua impronta globale hanno un peso notevole. Composto da unità d’élite dell’Esercito, del Corpo dei Marines, della Marina e dell’Aeronautica, il SOCOM conduce le operazioni militari più delicate della nazione più letale del mondo.
Sebbene le forze speciali americane siano note per le loro imprese eclatanti, come l’uccisione di Osama bin Laden da parte dei Navy SEAL, la loro storia è fatta di missioni segrete, sotterfugi, sabotaggi e campagne di disturbo. Le ambizioni di disinformazione di “nuova generazione” del SOCOM sono solo una parte di una lunga e vasta storia di sforzi di inganno da parte degli apparati militari e di intelligence degli Stati Uniti.
Il Comando per le operazioni speciali, che sta accettando proposte su queste capacità fino al 2025, non ha risposto a una richiesta di commento.
us-socom-procurement-document-announcing-desire-to-utilize-deepfakesSebbene il Comando per le operazioni speciali coordini da anni le “operazioni di influenza” straniere, queste campagne di inganno sono state sottoposte a un nuovo esame. A dicembre, The Intercept ha riferito che il SOCOM aveva convinto Twitter, in violazione delle sue politiche interne, a consentire una rete di account fasulli che diffondevano notizie fasulle di dubbia accuratezza, tra cui un’affermazione secondo cui il governo iraniano stava rubando gli organi di civili afghani. Sebbene l’offensiva propagandistica basata su Twitter non abbia utilizzato deepfakes, i ricercatori hanno scoperto che gli appaltatori del Pentagono hanno impiegato avatar generati dall’apprendimento automatico per conferire agli account falsi un certo grado di realismo.
Provocatoriamente, il documento aggiornato sulle capacità rivela che il SOCOM vuole potenziare questi sforzi di inganno su Internet con l’uso di video deepfake di “prossima generazione”, un metodo sempre più efficace per generare falsi video digitali realistici utilizzando l’apprendimento automatico. Le forze speciali userebbero questi filmati falsi per “generare messaggi e influenzare le operazioni attraverso canali non tradizionali”, aggiunge il documento.
Sebbene i deepfakes siano rimasti in gran parte un alimento per l’intrattenimento e la pornografia, il potenziale per applicazioni più terribili è reale. All’inizio dell’invasione dell’Ucraina da parte della Russia, un deepfake scadente del presidente ucraino Volodymyr Zelenskyy che ordinava alle truppe di arrendersi ha iniziato a circolare sui canali dei social media. A parte le considerazioni etiche, la legalità dei deepfake militarizzati in un conflitto, che rimane una questione aperta, non viene affrontata nel documento del SOCOM.
Come per le campagne di “disinformazione” dei governi stranieri, gli Stati Uniti hanno passato gli ultimi anni a mettere in guardia contro la potente minaccia alla sicurezza nazionale rappresentata dai deepfakes. L’uso di deepfakes per ingannare deliberatamente, avvertono regolarmente le autorità governative, potrebbe avere un effetto profondamente destabilizzante sulle popolazioni civili esposte.
A livello federale, tuttavia, la conversazione si è incentrata esclusivamente sulla minaccia che i deepfake di produzione straniera potrebbero rappresentare per gli Stati Uniti, e non viceversa. I documenti contrattuali riportati in precedenza mostrano che il SOCOM ha cercato tecnologie per rilevare le campagne internet arricchite da deepfake, una tattica che ora vuole scatenare per conto proprio.
Forse altrettanto provocatoria della menzione dei deepfake è la sezione che segue, in cui si nota che il SOCOM vuole perfezionare la sua propaganda offensiva, apparentemente spiando i destinatari attraverso i loro dispositivi connessi a Internet.
Descritta come una “capacità di nuova generazione di ‘impadronirsi’ dei dispositivi Internet of Things (loT) per raccogliere [sic] dati e informazioni dalle popolazioni locali per consentire la scomposizione di quale messaggistica potrebbe essere popolare e accettata attraverso il vaglio dei dati una volta ricevuti”, il documento afferma che la capacità di origliare gli obiettivi della propaganda “consentirebbe al MISO di creare e promuovere messaggi che potrebbero essere più facilmente ricevuti dalla popolazione locale“. Nel 2017, WikiLeaks ha pubblicato file della CIA rubati che hanno rivelato una capacità approssimativamente simile di dirottare il segnale nei dispositivi domestici.
La tecnologia alla base dei video deepfake è arrivata per la prima volta nel 2017, spinta da una combinazione di hardware informatico potente e a basso costo e dai progressi della ricerca nell’apprendimento automatico. I video deepfake sono in genere realizzati inviando le immagini di un individuo a un computer e utilizzando l’analisi computerizzata risultante per incollare essenzialmente un simulacro altamente realistico di quel volto su un altro.
Una volta che il software è stato sufficientemente addestrato, l’utente può produrre filmati realistici di un bersaglio che dice o fa praticamente qualsiasi cosa. La facilità d’uso e la crescente precisione di questa tecnologia hanno fatto temere un’era in cui il pubblico globale non potrà più credere a ciò che vede con i propri occhi.
Sebbene le principali piattaforme sociali come Facebook abbiano regole contro i deepfakes, data la natura intrinsecamente fluida e interconnessa di Internet, i deepfakes diffusi dal Pentagono potrebbero anche risalire verso la patria americana.
“Se si tratta di un ambiente mediatico non tradizionale, potrei immaginare che la forma di manipolazione arrivi piuttosto lontano prima di essere fermata o rimproverata da una sorta di autorità locale”, ha dichiarato a The Intercept Max Rizzuto, ricercatore sui deepfakes presso il Digital Forensic Research Lab dell’Atlantic Council. “La capacità di danneggiare la società è certamente presente”.
L’interesse del SOCOM nel dispiegare campagne di disinformazione deepfake segue gli ultimi anni di ansia internazionale per i video falsificati e gli inganni digitali da parte di avversari internazionali. Sebbene ci siano poche prove che gli sforzi della Russia per influenzare digitalmente le elezioni del 2016 abbiano avuto un effetto significativo, il Pentagono ha espresso l’interesse a raddoppiare le proprie capacità di propaganda digitale, per evitare di rimanere indietro, e il SOCOM ha assunto un ruolo cruciale.
In un’audizione dell’aprile 2018 della Commissione per i servizi armati del Senato, il generale Kenneth Tovo del Comando per le operazioni speciali dell’esercito ha assicurato ai senatori riuniti che le forze speciali americane stanno lavorando per colmare il divario della propaganda.
“Abbiamo investito abbastanza pesantemente nei nostri operatori psy-op”, ha detto, “sviluppando nuove capacità, in particolare per affrontare lo spazio digitale, l’analisi dei social media e una serie di strumenti diversi che sono stati messi in campo dal SOCOM che ci permettono di valutare lo spazio dei social media, valutare il dominio cibernetico, vedere l’analisi delle tendenze, dove si sta muovendo l’opinione, e quindi come influenzare potenzialmente quell’ambiente con i nostri prodotti”.
Mentre la propaganda militare è antica come la guerra stessa, i deepfakes sono stati spesso discussi come un pericolo tecnologico sui generis, la cui esistenza rappresenta una minaccia per la civiltà.
In un’audizione del 2018 della Commissione Intelligence del Senato, in cui si discuteva della nomina di William Evanina a capo del National Counterintelligence and Security Center, il senatore Marco Rubio, R-Fla, ha detto a proposito dei deepfakes: “Credo che questa sia la prossima ondata di attacchi contro l’America e le democrazie occidentali”. Evanina, in risposta, ha rassicurato Rubio che la comunità di intelligence statunitense sta lavorando per contrastare la minaccia dei deepfakes.
Secondo quanto riferito, anche il Pentagono è duramente impegnato a contrastare la minaccia dei deepfake stranieri. Secondo una notizia del 2018, la Defense Advanced Research Projects Agency, la divisione di ricerca tecnologica dell’esercito, ha speso decine di milioni di dollari per sviluppare metodi di rilevamento delle immagini deepfake. Sforzi simili sono in corso in tutto il Dipartimento della Difesa.
Nel 2019, Rubio e il senatore Mark Warner, D-Va, hanno scritto a 11 società americane di Internet esortandole a redigere politiche per individuare e rimuovere i video deepfake. “Se il pubblico non può più fidarsi di eventi o immagini registrate”, si legge nella lettera, “questo avrà un impatto corrosivo sulla nostra democrazia”.
All’interno del National Defense Authorization Act per l’anno fiscale 2021 c’era una direttiva che incaricava il Pentagono di completare una “valutazione di intelligence della minaccia rappresentata da governi stranieri e attori non statali che creano o utilizzano media manipolati da macchine (comunemente chiamati “deep fake”)”, compreso “come tali media sono stati usati o potrebbero essere usati per condurre una guerra di informazione”.
Solo un paio d’anni dopo, le forze speciali americane sembrano prepararsi a condurre la stessa cosa.
“È una tecnologia pericolosa”, ha detto Rizzuto, ricercatore del Consiglio Atlantico.
“Non si può moderare questa tecnologia come si fa con altri tipi di contenuti su Internet”, ha detto. “I deepfakes come tecnologia hanno più in comune con le conversazioni sulla non proliferazione nucleare”.
Sam Biddle & Niccolò Ellena
Fonti: theintercept.com & money.it
Abbiamo bisogno della vostra collaborazione ! Contiamo su di voi per un supporto economico necessario per finanziare i nostri rapporti investigativi. Se vi piace quello che facciamo, un abbonamento mensile è un riconoscimento a noi per tutto lo sforzo e l’impegno che ci mettiamo.