O Google apresenta marcas d'água invisíveis para textos gerados pela IA

O Google apresenta marcas d'água invisíveis para textos gerados pela IA
Pesquisadores do Google DeepMind em Londres desenvolveram uma "marca d'água" para identificar o texto gerado pela inteligência artificial (AI)-isso já foi usado em milhões de usuários de chatbot.
A marca d'água que foi publicada em 23 de outubro na revista Nature 1 Não é o primeiro a ser criado para a IA gerada. Aaronson, cientista da computação da Universidade do Texas em Austin, que trabalhou em marcas d'água no Openai até agosto, os criadores de Chatt, com sede em São Francisco, Califórnia
A detecção de textos gerados por IA está se tornando cada vez mais importante porque você tem uma solução em potencial para os problemas de notícias falsas e fraude acadêmica . Além disso, poderia ajudar a .
Em um extenso estudo, os usuários do Google Gemini Language Model (LLM) avaliaram em 20 milhões de respostas textos marcados com marcas d'água como equivalentes a textos não marcados. "Estou entusiasmado em ver que o Google está dando esse passo para a comunidade de tecnologia", diz Furong Huang, cientista da computação da Universidade de Maryland em College Park. "É provável que a maioria das ferramentas comerciais contenha marcas d'água em um futuro próximo", acrescentou Zakhar Shumaylov, cientista da computação da Universidade de Cambridge, Reino Unido.
Escolha de palavras
É mais difícil aplicar uma marca d'água ao texto do que às imagens, pois a escolha das palavras é essencialmente a única variável que pode ser alterada. As mudanças de texto sintid chamadas de marca d'água do DeepMind, que as palavras que o modelo escolhe, de maneira secreta, mas formulada, que pode ser registrada com uma chave criptográfica. Comparado a outras abordagens, a marca d'água do DeepMind é um pouco mais fácil de reconhecer e o aplicativo não atrasa a posição do texto. "Parece que ele excede os conceitos de concorrentes na LLMS Watermarks", diz Shumaylov, ex -funcionário e irmão de um dos autores do estudo.
A ferramenta também foi divulgada para que os desenvolvedores possam aplicar sua própria marca d'água aos seus modelos. "Esperamos que outros desenvolvedores de modelos de IA os levem e os integrem em seus próprios sistemas", diz Pushmeet Kohli, cientista da computação da DeepMind. O Google mantém seu principal segredo para que os usuários não possam usar ferramentas de detecção para identificar o texto com marca d'água do modelo Gemini.
governos . No entanto, existem muitos problemas, incluindo a obrigação dos desenvolvedores de usar marcas d'água e a coordenação de suas abordagens. No início deste ano, os pesquisadores da Tecnologia Federal Zurique mostraram que , um processo que é referido como "lavagem" ou "falsificação", no qual as marcas d'água são aplicadas aos textos para dar a impressão errada de que são gerados por Ki.