Google představuje neviditelné vodoznaky pro texty generované AI

Google DeepMind vyvinul neviditelný vodoznak pro texty generované AI pro boj proti nepravdivým informacím.
(Symbolbild/natur.wiki)

Google představuje neviditelné vodoznaky pro texty generované AI

Vědci z Google DeepMind v Londýně vyvinuli „vodoznak“ pro identifikaci textu, který je generován umělou inteligencí (AI)-to již bylo použito u milionů uživatelů Chatbot.

Vodoznak, který byl publikován 23. října v časopise Nature 1 , je to první, co je nejprve vytvořeno. Aaronson, počítačový vědec na University of Texas v Austinu, který pracoval na vodoznacích v OpenAI až do srpna, tvůrci Chatt, se sídlem v San Franciscu v Kalifornii

The detection of AI generated texts is becoming increasingly important because you have a potential solution for the problems of Fake News a akademický podvod . Kromě toho by to mohlo pomoci na .

V rozsáhlé studii se uživatelé modelu velkého jazyka Google Gemini (LLM) vyhodnotili ve 20 milionech odpovědí na vodoznakové texty jako ekvivalentní s neoznačenými texty. „Jsem nadšený, když vidím, že Google podniká tento krok pro technologickou komunitu,“ říká Furong Huang, počítačový vědec na University of Maryland v College Park. „Je pravděpodobné, že většina komerčních nástrojů bude v blízké budoucnosti obsahovat vodoznaky,“ dodal Zakhar Shumaylov, počítačový vědec na University of Cambridge ve Velké Británii.

Volba slov

Je obtížnější aplikovat vodoznak na text než na obrázky, protože výběr slov je v podstatě jedinou proměnnou, kterou lze změnit. Deepmind's Watermark-called Synthid Text mění, která slova vybírá model, tajemstvím, ale formálním způsobem, který lze zaznamenat kryptografickým klíčem. Ve srovnání s jinými přístupy je vodoznak DeepMind o něco snazší rozpoznat a aplikace nezdviží polohu textu. „Zdá se, že převyšuje koncepty konkurentů na LLMS Watermarks,“ říká Shumaylov, který je bývalým zaměstnancem a bratrem jednoho z autorů studie.

Nástroj byl také zveřejněn tak, aby vývojáři mohli na své modely aplikovat svůj vlastní vodoznak. „Doufáme, že jiní vývojáři modelů AI to vezmou a integrují je do svých vlastních systémů,“ říká Pushmeet Kohli, počítačový vědec v DeepMind. Google udržuje své klíčové tajemství, aby uživatelé nemohli používat detekční nástroje k identifikaci vodoznakového textu modelu Gemini.

Vlády , proces, který se označuje jako „drhnutí“ nebo „spoofing“, ve kterém jsou vodoznaky aplikovány na texty, aby vyvolaly nesprávný dojem, že jsou generovány KI.

Token-Tournament

Přístup

Deepminds je založen na Existující metoda Integrovaný do aces v samslingu, ALGORINTH, ALGORING OF SASPLING OT text, který je oddělen od samotného LLM

LLM je síť asociací, která se vytvoří tréninkem s miliardami slov nebo částí známých jako tokeny. Když je zadán text, model ukazuje každý token ve své slovní zásobě pravděpodobnost, že bude dalším slovem ve větě. Úkolem algoritmu vzorkování je vybrat, které tokeny by měly být použity podle řady pravidel.

Algoritmus vzorkování synthid text používá kryptografický klíč k přiřazení náhodných hodnot ke každému možnému tokenu. Vstupenky kandidátů jsou úměrné jejich pravděpodobnosti distribuce a klasifikovány do „turnaje“. Tam algoritmus porovnává hodnoty v řadě one-znovu-one-k.o.-rounds, přičemž nejvyšší hodnoty zisky, dokud nezbývá pouze jeden token, který je vybrán pro text.

Tato sofistikovaná metoda usnadňuje detekci vodoznaku, protože pro vygenerovaný text je aplikován stejný kryptografický kód pro vyhledávání vysokých hodnot, které naznačují „vítězné“ tokeny. To by také mohlo ztížit vzdálenost.

Několik kol v turnaji lze považovat za kombinaci zámku, ve kterém každé kolo představuje jiné číslo, které je třeba vyřešit pro odemknutí nebo odstranění vodoznaku, říká Huang. „Tento mechanismus ztěžuje drhnutí, spol nebo vyvinul vodoznak,“ dodává. U textů s přibližně 200 žetonů autoři ukázali, že mohou stále rozpoznat vodoznak, i když byl k přepsání textu použit druhý LLM. U kratších textů je vodoznak méně robustní.

Vědci nezkoumali, jak dobře je vodoznak odolný vůči úmyslným pokusům o odstranění. Odpor vodoznaků proti takovým útokům je „masivní politická otázka“, říká Yves-Alexandre de Montjoye, počítačový vědec na Imperial College London. "In the context of AI security it is unclear to what extent this offers protection," he explains.

Kohli doufá, že vodoznak zpočátku pomůže podpořit dobře úmyslné používání LLM. „Hlavní filozofií bylo, že jsme chtěli vyvinout nástroj, který může komunita vylepšit,“ dodává.

  1. datthri, S. et al. Nature 634, 818–823 (2024).

  2. Reference ke stažení