Monthly Archives

November 2021

tecnologia di tracciamento Tecnologie spia

La tecnologia ti sta spiando? La nuova intelligenza artificiale potrebbe impedire le intercettazioni

Il Grande Fratello sta ascoltando. Le aziende usano il “bossware” per ascoltare i propri dipendenti quando sono vicino ai loro computer. Più app “spyware” possono registrare le telefonate. E i dispositivi domestici come Echo di Amazon possono registrare le conversazioni quotidiane. Una nuova tecnologia, chiamata Neural Voice Camouflage, ora offre una difesa. Genera rumore audio personalizzato in sottofondo mentre parli, confondendo l’intelligenza artificiale (AI) che trascrive le nostre voci registrate.

Il nuovo sistema utilizza un “attacco contraddittorio”. La strategia utilizza l’apprendimento automatico, in cui gli algoritmi trovano schemi nei dati, per modificare i suoni in un modo che induca un’intelligenza artificiale, ma non le persone, a scambiarli per qualcos’altro. In sostanza, usi un’IA per ingannarne un’altra.

Tuttavia, il processo non è così facile come sembra. L’intelligenza artificiale dell’apprendimento automatico deve elaborare l’intera clip audio prima di sapere come modificarla, il che non funziona quando si desidera mimetizzarsi in tempo reale.

Quindi, nel nuovo studio, i ricercatori hanno insegnato a una rete neurale, un sistema di apprendimento automatico ispirato al cervello, a predire efficacemente il futuro. L’hanno addestrato su molte ore di discorsi registrati in modo che possa elaborare costantemente clip audio di 2 secondi e mascherare ciò che è probabile che venga detto dopo.

Ad esempio, se qualcuno ha appena detto “goditi la grande festa”, non può prevedere esattamente cosa verrà detto dopo. Ma tenendo conto di ciò che è stato appena detto, così come delle caratteristiche della voce di chi parla, produce suoni che interromperanno una serie di possibili frasi che potrebbero seguire. Ciò include ciò che è realmente accaduto dopo; qui, lo stesso oratore che dice: “quello viene cucinato”. Per gli ascoltatori umani, il camuffamento audio suona come un rumore di fondo e non hanno problemi a comprendere le parole pronunciate. Ma le macchine inciampano.

Gli scienziati hanno sovrapposto l’output del loro sistema al parlato registrato mentre veniva immesso direttamente in uno dei sistemi di riconoscimento vocale automatico (ASR) che potrebbero essere utilizzati dagli intercettatori per trascrivere. Il sistema ha aumentato il tasso di errore delle parole del software ASR dall’11,3% all’80,2%. “Anch’io sono quasi morto di fame, perché conquistare regni è un duro lavoro”, ad esempio, è stato trascritto come “im mearly starme my scell for threa for this conqernd kindoms as harenar ov the reson” (vedi video, sopra).

I tassi di errore per il parlato camuffato da rumore bianco e un attacco contraddittorio concorrente (che, mancando di capacità predittive, mascherava solo ciò che aveva appena sentito con il rumore riprodotto con mezzo secondo di ritardo) erano rispettivamente solo del 12,8% e del 20,5%. Il lavoro è stato presentato in un documento il mese scorso alla Conferenza internazionale sulle rappresentazioni dell’apprendimento, che esamina tra pari i contributi dei manoscritti.

Anche quando il sistema ASR è stato addestrato a trascrivere il parlato perturbato dal Neural Voice Camouflage (una tecnica che gli intercettatori potrebbero plausibilmente utilizzare), il suo tasso di errore è rimasto del 52,5%. In generale, le parole più difficili da interrompere erano quelle brevi, come “il”, ma queste sono le parti meno rivelatrici di una conversazione.

I ricercatori hanno anche testato il metodo nel mondo reale, riproducendo una registrazione vocale combinata con il camuffamento attraverso una serie di altoparlanti nella stessa stanza di un microfono. Funzionava ancora. Ad esempio, “Ho anche appena ricevuto un nuovo monitor” è stato trascritto come “con ragioni con loro anche toscat e neumanitor”.

Questo è solo il primo passo per salvaguardare la privacy di fronte all’intelligenza artificiale, afferma Mia Chiquier, scienziata informatica della Columbia University che ha guidato la ricerca. “L’intelligenza artificiale raccoglie dati sulla nostra voce, i nostri volti e le nostre azioni. Abbiamo bisogno di una nuova generazione di tecnologia che rispetti la nostra privacy”.

Chiquier aggiunge che la parte predittiva del sistema ha un grande potenziale per altre applicazioni che necessitano di elaborazione in tempo reale, come i veicoli autonomi. “Devi anticipare dove sarà la prossima macchina, dove potrebbe essere il pedone”, dice. I cervelli operano anche attraverso l’anticipazione; ti sorprendi quando il tuo cervello predice erroneamente qualcosa. A questo proposito, Chiquier afferma: “Stiamo emulando il modo in cui gli umani fanno le cose”.

“C’è qualcosa di carino nel modo in cui combina la previsione del futuro, un problema classico nell’apprendimento automatico, con questo altro problema dell’apprendimento automatico contraddittorio”, afferma Andrew Owens, un informatico dell’Università del Michigan, Ann Arbor, che studia l’elaborazione audio e camuffamento visivo e non è stato coinvolto nel lavoro. Bo Li, un informatico dell’Università dell’Illinois, Urbana-Champaign, che ha lavorato su attacchi contraddittori audio, è rimasto impressionato dal fatto che il nuovo approccio abbia funzionato anche contro il sistema ASR potenziato.

Il camuffamento audio è assolutamente necessario, afferma Jay Stanley, analista politico senior presso l’American Civil Liberties Union. “Tutti noi siamo suscettibili di avere il nostro discorso innocente interpretato male dagli algoritmi di sicurezza.” Mantenere la privacy è un duro lavoro, dice. O meglio è harenar ov la risonanza.