AI-genererte bilder truer vitenskap-det er slik forskere ønsker å gjenkjenne dem
Forskere kjemper mot AI-genererte falske bilder i vitenskapelige publikasjoner. Nye deteksjonsmetoder utvikler seg.

AI-genererte bilder truer vitenskap-det er slik forskere ønsker å gjenkjenne dem
Forskere som manipulerer antall og masseproduserende falske papirer Obligatoriske utgivere - Problematiske manuskripter har lenge vært en plage i vitenskapelig litteratur. Vitenskapelige detektiver fungerer utrettelig, for å avsløre denne forseelsen og korrigere den vitenskapelige posten. Men jobben deres blir stadig vanskeligere ettersom et nytt, kraftig verktøy for svindlere har dukket opp: generativ Kunstig intelligens (AI).
"Generativ AI utvikler seg veldig raskt," sier Jana Christopher, Bildeintegritetsanalytiker ved FEBS Press i Heidelberg, Tyskland. "Folk som jobber i mitt område - bildeintegritet og publisering av retningslinjer - blir stadig mer bekymret for mulighetene det gir."
Lettheten som generative AI -verktøy tekster, Bilder og data vekker frykt for en stadig mer upålitelig vitenskapelig litteratur, oversvømmet med falske tall, manuskripter og konklusjoner som er vanskelige for mennesker å oppdage. Et våpenløp fremstår allerede som integritetsspesialister, utgivere og teknologiselskaper jobber flittig med Utvikle AI -verktøy, noe som raskt kan bidra til å identifisere villedende, AI-genererte elementer i spesialistartikler.
"Det er en skremmende utvikling," sier Christopher. "Men det er også smarte mennesker og gode strukturelle endringer som blir foreslått."
Forskningsintegritetseksperter rapporterer at selv om AI-generert tekst allerede er tillatt under visse omstendigheter av mange tidsskrifter, kan bruk av slike verktøy for å lage bilder eller andre data anses som mindre akseptable. "I nærmeste fremtid kan vi ha det bra med AI-generert tekst," sier Elisabeth Bik, Bilde rettsmedisinske spesialist og konsulent i San Francisco, California. "Men jeg tegner linjen når det gjelder å generere data."
Bik, Christopher og andre antyder at data, inkludert bilder, opprettet med generative AI allerede er mye brukt i litteratur, og at obligatoriske utgivere bruker AI -verktøy for å produsere manuskripter i volum (se ‘Quiz: Kan du oppdage AI -forfalskninger?’).
Å identifisere AI-produserte bilder utgjør en enorm utfordring: de er ofte nesten umulige å skille fra virkelige bilder med det blotte øye. "Vi føler at vi kommer over AI-genererte bilder hver dag," sier Christopher. "Men med mindre du kan bevise det, er det virkelig veldig lite du kan gjøre."
Det er noen klare eksempler på bruk av generativ AI i vitenskapelige bilder, som nå beryktet bilde av en rotte med absurd store kjønnsorganer og nonsensiske etiketter, opprettet med Midjourney -bildeverktøyet. Grafikken, utgitt av et fagmagasin i februar, forårsaket en storm på sosiale medier og var trukket tilbake noen dager senere.
Imidlertid er de fleste tilfeller ikke så åpenbare. Tall opprettet ved hjelp av Adobe Photoshop eller lignende verktøy før fremkomsten av generativ AI - spesielt innen molekylær og cellulær biologi - inneholder ofte slående funksjoner som kan gjenkjennes av detektiver, for eksempel identisk bakgrunn eller den uvanlige mangelen på streker eller flekker. AI-genererte tegn viser ofte ikke slike egenskaper. "Jeg ser mange papirer som får meg til å tenke at disse vestlige blottene ikke ser ekte ut - men det er ingen røykepistol," sier Bik. "Alt du kan si er at de bare ser rart ut, og det er selvfølgelig ikke nok bevis til å kontakte redaktøren."
Imidlertid er det tegn på at AI-genererte karakterer vises i publiserte manuskripter. Tekster skrevet ved hjelp av verktøy som ChatGPT øker i artikler, tydelig ved typiske chatbot -setninger som forfattere glemmer å fjerne og særegne ord som AI -modeller har en tendens til å bruke. "Så vi må anta at dette også skjer for data og bilder," sier Bik.
En annen indikasjon på at svindlere bruker sofistikerte avbildningsverktøy er at de fleste av problemene etterforskerne for tiden finner vises i verk som er flere år gamle. "De siste årene har vi sett færre og færre problemer med bilder," sier Bik. "Jeg tror de fleste som ble fanget med å manipulere bilder begynte å lage renere bilder."
Å lage rene bilder med generativ AI er ikke vanskelig. Kevin Patrick, en vitenskapelig bildedetektiv kjent som Cheshire på sosiale medier, har vist hvor enkelt det kan være og publisert sine funn på X. Ved å bruke Photoshops AI -verktøy generativt fyll, skapte Patrick realistiske bilder - som kan vises i vitenskapelige artikler - av svulster, cellekulturer, vestlige blots og mer. De fleste bilder tok mindre enn et minutt å lage (se ‘Generering av falsk vitenskap’).
"Hvis jeg kan gjøre det, så vil de som er betalt for å lage falske data gjøre det også," sier Patrick. "Det er sannsynligvis en hel masse andre data som kan genereres ved hjelp av verktøy som dette."
Noen utgivere rapporterer å finne bevis på AI-generert innhold i publiserte studier. Dette inkluderer PLoS, som er blitt varslet om mistenkelig innhold og funnet bevis på AI-generert tekst og data i artikler og innleveringer gjennom interne undersøkelser, sier Renée Hoch, redaktør for PLOSs publikasjonsetikkteam i San Francisco, California. (Hoch bemerker at bruk av AI ikke er forbudt i PLOS -tidsskrifter og at AI -politikken er basert på forfatteransvar og gjennomsiktige avsløringer.)
Andre verktøy kan også gi muligheter for mennesker som ønsker å lage falskt innhold. Forrige måned publiserte forskere en 1 Generativ AI-modell for å lage mikroskopbilder med høy oppløsning-og noen integritetsspesialister uttrykte bekymring for dette arbeidet. "Denne teknologien kan enkelt brukes av mennesker med dårlige intensjoner for å raskt lage hundrevis eller tusenvis av falske bilder," sier Bik.
Yoav Shechtman fra Technion-Israel Institute of Technology i Haifa, verktøyets skaper, sier at verktøyet er nyttig for å lage treningsdata for modeller fordi mikroskopbilder med høy oppløsning er vanskelig å få tak i. Men han legger til at det ikke er nyttig for å generere forfalskninger fordi brukere har liten kontroll over resultatene. Eksisterende programvare for redigering av bilder som Photoshop er mer nyttig for å manipulere figurer, foreslår han.
Selv om menneskelige øyne kanskje ikke er i stand til det Gjenkjenne AI-genererte bilder, AI kan muligens gjøre dette (se ‘AI -bilder er vanskelige å gjenkjenne’).
Utviklerne av verktøy som Imagetwin og Proofig, som bruker AI for å oppdage integritetsproblemer i vitenskapelige bilder, utvider programvaren til å filtrere bilder laget av generative AI. Fordi slike bilder er så vanskelige å gjenkjenne, lager begge selskapene sine egne databaser av generative AI -bilder for å trene algoritmer.
Proofig har allerede gitt ut en funksjon i verktøyet sitt for å gjenkjenne AI-genererte mikroskopbilder. Medgründer Dror Kolodkin-Gal i Rehovot, Israel, sier at algoritmen ved testing med tusenvis av AI-genererte og virkelige bilder fra artikler, identifiserte AI-bilder 98% av tiden og hadde en falsk positiv rate på 0,02%. Dror legger til at teamet nå prøver å forstå hva deres algoritme oppdager.
"Jeg har store forhåpninger om disse verktøyene," sier Christopher. Hun bemerker imidlertid at resultatene deres alltid må evalueres av eksperter som kan bekrefte problemene de indikerer. Christopher har ennå ikke sett noen bevis for at AI -programvare for bildegjenkjenning er pålitelig (Proofigs interne evaluering er ennå ikke publisert). Disse verktøyene er "begrensede, men absolutt veldig nyttige for å la oss skalere innleveringsinnsatsen," legger hun til.
Mange utgivere og forskningsinstitusjoner bruker allerede det Bevis og Imagetwin. For eksempel bruker vitenskapstidsskrifter Proofig for å sjekke integritetsproblemer i bilder. Ifølge Meagan Phelan, kommunikasjonsdirektør for vitenskap i Washington DC, har verktøyet ennå ikke oppdaget noen AI-genererte bilder.
Springer Nature, Nature's Publisher, utvikler sine egne tekst- og bildedeteksjonsverktøy, kalt Geppetto og Snapshot, som flagger uregelmessigheter som deretter blir evaluert av mennesker. (Natuens nyhetsteam er redaksjonelt uavhengig av utgiveren.)
Publiseringsgrupper tar også skritt for å svare på AI-genererte bilder. En talsperson for International Association of Scientific, Technical and Medical (STM) Publisher i Oxford, Storbritannia, sa at det tok saken "veldig alvorlig" og svarte på initiativer som som som United2act og STM Integrity Hub, som tar for seg aktuelle problemer med obligatorisk publisering og andre faglige integritetsspørsmål.
Christopher, som leder en STM -arbeidsgruppe om bildeforandringer og duplikasjoner, sier det er en økende bevissthet om at det vil være nødvendig å utvikle måter å bekrefte rå data - for eksempel ved å merke bilder tatt med mikroskop med usynlige vannmerker som ligner de som brukes Vannmerker i AI-genererte tekster - Det kan være på riktig måte. Dette krever nye teknologier og nye standarder for enhetsprodusenter, legger hun til.
Patrick og andre bekymrer seg for at utgivere ikke opptrer raskt nok til å ta opp trusselen. "Vi frykter at dette bare vil være en annen generasjon av problemer i litteraturen som de ikke tar opp før det er for sent," sier han.
Fortsatt er noen optimistiske for at det AI-genererte innholdet som vises i artikler i dag, vil bli oppdaget i fremtiden.
"Jeg har all tillit til at teknologien vil forbedre seg til det punktet hvor den gjenkjenner dataene som blir opprettet i dag - fordi dette på et tidspunkt vil bli ansett som relativt grovt," sier Patrick. "Svindlere skal ikke sove godt om natten. De kunne lure den nåværende prosessen, men jeg tror ikke de kan lure prosessen for alltid."
-
Saguy, A. et al. Liten meth. https://doi.org/10.1002/smtd.202400672 (2024).