Google présente des filigranes invisibles pour les textes générés par l'IA

Google Deepmind a développé un filigrane invisible pour les textes générés par l'IA pour lutter contre les fausses informations.
(Symbolbild/natur.wiki)

Google présente des filigranes invisibles pour les textes générés par l'IA

Les chercheurs de Google Deepmind à Londres ont développé un «filigrane» pour identifier le texte généré par l'intelligence artificielle (IA) - Cela a déjà été utilisé dans des millions d'utilisateurs de chatbot.

Le filigrane qui a été publié le 23 octobre dans la revue Nature 1 n'est pas le premier à être créé pour mon opinion, ce qui est en fait à démontrer" dans un grand contexte. Aaronson, informatique de l'Université du Texas à Austin, qui a travaillé sur des filigranes à OpenAI jusqu'en août, les créateurs de Chatt, basés à San Francisco, en Californie.

La détection des textes générés par l'IA devient de plus en plus importante car vous avez une solution potentielle pour les problèmes de Fake News et Fraude académique . En outre, il pourrait aider à pour protéger les modèles futurs de l'entraînement Catégorie = " Contenu généré par AI .

Dans une étude approfondie, les utilisateurs du modèle de grande langue (LLM) de Google Gemini ont évalué dans 20 millions de réponses des textes filigratés comme équivalent avec des textes non marqués. "Je suis enthousiaste à voir que Google franchit cette étape pour la communauté technologique", explique Furong Huang, informaticien de l'Université du Maryland à College Park. "Il est probable que la plupart des outils commerciaux contiendront des filigranes dans un avenir proche", a ajouté Zakhar Shumaylov, informaticien de l'Université de Cambridge, au Royaume-Uni.

Choix de mots

Il est plus difficile d'appliquer un filigrane au texte qu'aux images, car le choix des mots est essentiellement la seule variable qui peut être modifiée. Les changements de texte synthétiques appelés par filigrane de DeepMind que le modèle choisissent, d'une manière secrète mais formule qui peut être enregistrée avec une clé cryptographique. Comparé à d'autres approches, le filigrane de DeepMind est légèrement plus facile à reconnaître et l'application ne retarde pas la position texte. "Il semble que cela dépasse les concepts de concurrents aux filigranes du LLMS", explique Shumaylov, qui est un ancien employé et frère de l'un des auteurs de l'étude.

L'outil a également été divulgué afin que les développeurs puissent appliquer leur propre filigrane à leurs modèles. "Nous espérons que d'autres développeurs de modèles d'IA prendront cela et les intégreront dans leurs propres systèmes", explique Pushmeet Kohli, informaticien de DeepMind. Google garde son secret clé afin que les utilisateurs ne puissent pas utiliser des outils de détection pour identifier le texte filigrané du modèle Gemini.

Governments . Néanmoins, il y a de nombreux problèmes, notamment l'obligation des développeurs d'utiliser des filigranes et la coordination de leurs approches. Au début de cette année, les chercheurs de la technologie fédérale Zurich ont montré que

TOKEN-TORNAMENT

L'approche DeepMinds est basée sur A Un LLM est un réseau d'associations construit par une formation avec des milliards de mots ou de pièces appelées jetons. Lorsqu'un texte est entré, le modèle montre chaque jeton dans son vocabulaire une probabilité d'être le mot suivant de la phrase. La tâche de l'algorithme d'échantillonnage est de sélectionner les jetons doit être utilisé en fonction d'un certain nombre de règles.

L'algorithme d'échantillonnage de texte synthétique utilise une clé cryptographique pour attribuer des valeurs aléatoires à chaque jeton possible. Les billets candidats sont proportionnels à leur probabilité de distribution et classés dans un "tournoi". Là, l'algorithme compare les valeurs d'une série de rondes One-Against-One-K.O., selon laquelle la valeur la plus élevée gagne jusqu'à ce qu'il ne reste qu'un jeton qui est sélectionné pour le texte.

Cette méthode sophistiquée facilite la détection du filigrane, car le même code cryptographique est appliqué au texte généré pour rechercher les valeurs élevées qui indiquent des jetons "gagnant". Cela pourrait également rendre la distance plus difficile.

Les plusieurs tours du tournoi peuvent être considérés comme une combinaison de verrouillage, dans lequel chaque tour représente un nombre différent qui doit être résolu pour déverrouiller ou retirer le filigrane, explique Huang. "Ce mécanisme rend beaucoup plus difficile à frotter, à voler ou à développer le filigrane", ajoute-t-elle. Pour les textes avec environ 200 jetons, les auteurs ont montré qu'ils pouvaient toujours reconnaître le filigrane, même si un deuxième LLM était utilisé pour réécrire le texte. Avec des textes plus courts, le filigrane est moins robuste.

Les chercheurs n'ont pas examiné dans quelle mesure le filigrane résiste aux tentatives délibérées de retirer. La résistance des filigranes contre de telles attaques est une "question politique massive", explique Yves-Alexandre de Montjoye, informaticien de l'Imperial College de Londres. "Dans le contexte de la sécurité de l'IA, il n'est pas clair dans quelle mesure cela offre une protection", explique-t-il.

Kohli espère que le filigrane aidera initialement à soutenir l'utilisation bien intentionnée des LLM. "La philosophie directrice était que nous voulions développer un outil qui peut être amélioré par la communauté", ajoute-t-il.

  1. datthri, S. et al. Nature 634, 818–823 (2024).

  2. Télécharger des références