Google presenta filigrane invisibili per testi generati dall'intelligenza artificiale

Google DeepMind ha sviluppato una filigrana invisibile per testi generati dall'intelligenza artificiale per combattere informazioni false.
(Symbolbild/natur.wiki)

Google presenta filigrane invisibili per testi generati dall'intelligenza artificiale

I ricercatori di Google DeepMind di Londra hanno sviluppato una "filigrana" per identificare il testo generato da Artificial Intelligence (AI)-Questo è già stato utilizzato in milioni di utenti di chatbot.

La filigrana pubblicata il 23 ottobre nella rivista Nature 1 Non è il primo a essere il primo a essere creato per AI generato. Tuttavia, è la prima delle mie opinioni. Aaronson, informatica dell'Università del Texas ad Austin, che ha lavorato su angurie ad Openi fino ad agosto, i creatori di Chatt, con sede a San Francisco, in California

Il rilevamento di testi generati dall'intelligenza artificiale sta diventando sempre più importante perché hai una potenziale soluzione per i problemi di notizie false e Fraud accademica . Inoltre, potrebbe aiutare a Scelta delle parole

È più difficile applicare una filigrana al testo che alle immagini, poiché la scelta delle parole è essenzialmente l'unica variabile che può essere modificata. I cambi di testo sintetizzanti chiamati con filigrana di DeepMind che scelgono il modello, in modo segreto ma formulaico che può essere registrato con una chiave crittografica. Rispetto ad altri approcci, la filigrana di DeepMind è leggermente più facile da riconoscere e l'applicazione non ritarda la posizione di testo. "Sembra che supera i concetti di concorrenti delle filigrane LLMS", afferma Shumaylov, che è un ex dipendente e fratello di uno degli autori dello studio.

Lo strumento è stato anche divulgato in modo che gli sviluppatori possano applicare la propria filigrana ai loro modelli. "Speriamo che altri sviluppatori di modelli AI lo prendano e li integrano nei loro sistemi", afferma Pushmeet Kohli, informatica di DeepMind. Google mantiene il suo segreto chiave in modo che gli utenti non possano utilizzare strumenti di rilevamento per identificare il testo della filigrana del modello Gemini.

governi . Tuttavia, ci sono molti problemi, incluso l'obbligo degli sviluppatori di utilizzare le filigrane e il coordinamento dei loro approcci. All'inizio di quest'anno, i ricercatori della tecnologia federale Zurigo hanno mostrato che

token-tournament

Approccio DeepMinds si basa su un Metodo esistente Un LLM è una rete di associazioni che sono costruite dalla formazione con miliardi di parole o parti note come token. Quando viene inserito un testo, il modello mostra ogni token nel suo vocabolario la probabilità di essere la parola successiva nella frase. Il compito dell'algoritmo di campionamento è selezionare quali token devono essere utilizzati in base a una serie di regole.

L'algoritmo di campionamento di testo sintimo utilizza una chiave crittografica per assegnare valori casuali a ogni token possibile. I biglietti candidati sono proporzionali alla loro probabilità di distribuzione e classificati in un "torneo". Lì l'algoritmo confronta i valori in una serie di round uno-against-one-k.o., per cui il valore più alto guadagna fino a quando non è rimasto solo un token che viene selezionato per il testo.

Questo sofisticato metodo semplifica il rilevamento della filigrana, poiché lo stesso codice crittografico viene applicato al testo generato per cercare i valori elevati che indicano token "vincenti". Ciò potrebbe anche rendere la distanza più difficile.

I vari round del torneo possono essere visti come una combinazione di blocco, in cui ogni round rappresenta un numero diverso che deve essere risolto per sbloccare o rimuovere la filigrana, afferma Huang. "Questo meccanismo rende considerevolmente più difficile strofinare, spol o sviluppare la filigrana", aggiunge. Per i testi con circa 200 token, gli autori hanno dimostrato che potevano ancora riconoscere la filigrana, anche se è stato usato un secondo LLM per riscrivere il testo. Con testi più corti, la filigrana è meno robusta.

I ricercatori non hanno esaminato quanto bene la filigrana sia resistente ai tentativi deliberati di rimuovere. La resistenza delle filigrane contro tali attacchi è una "enorme questione politica", afferma Yves-Alexandre de Montjoye, informatica dell'Imperial College di Londra. "Nel contesto della sicurezza dell'IA non è chiaro fino a che punto offra protezione", spiega.

Kohli spera che la filigrana inizialmente aiuti a sostenere l'uso ben intenzionato di LLMS. "La filosofia guida era che volevamo sviluppare uno strumento che può essere migliorato dalla comunità", aggiunge.

    >
  1. DatThri, S. et al. Natura 634, 818–823 (2024).

  2. Scarica riferimenti