ChatGPT ma dwa rozwiązania: jak chatbot AI zmienił życie naukowców
ChatGPT kończy dwa lata i rewolucjonizuje badania: jak chatbot AI zmienił życie naukowców.

ChatGPT ma dwa rozwiązania: jak chatbot AI zmienił życie naukowców
W ciągu dwóch lat od Udostępnianie czatuGPT społeczeństwu, badacze używają go do komunikowania swoich informacji poprawiać teksty naukowe, przejrzeć literaturę naukową I Napisz kod do analizy danych. Niektórzy uważają, że chatbot, który stał się popularny 30 listopada 2022 r., zwiększa produktywność naukowców, inni boją się, że on Plagiat stał się łatwiejszy, wprowadza nieścisłości w artykułach naukowych i zużywa duże ilości energii.
Wydawnictwo Wiley z siedzibą w Hoboken w stanie New Jersey przeprowadziło w marcu i kwietniu ankietę wśród 1043 badaczy na temat wykorzystania przez nich narzędzi generatywnej sztucznej inteligencji, takich jak ChatGPT, i udostępniło Nature wstępne wyniki. Osiemdziesiąt procent respondentów przyznało, że korzysta z ChatGPT prywatnie lub zawodowo, co czyni go najczęściej używanym narzędziem wśród naukowców. Trzy czwarte respondentów uważa, że w ciągu najbliższych 5 lat dla badaczy ważne będzie rozwinięcie zdolności AI do wykonywania ich pracy.
„Procesory tekstu AI istniały już wcześniej, ale wraz z wypuszczeniem tych bardzo potężnych, dużych modeli językowych nastąpiła znacząca zmiana” – wyjaśnia James Zou, badacz sztucznej inteligencji na Uniwersytecie Stanforda w Kalifornii. Katalizatorem tej zmiany był chatbot ChatGPT, opracowany przez firmę technologiczną OpenAI z siedzibą w San Francisco.
Aby uczcić drugie urodziny ChatGPT, Nature zebrało dane dotyczące użytkowania i rozmawiało z naukowcami o tym, jak ChatGPT zmieniło krajobraz badawczy.
CzatGPT w liczbach
- 60.000: Die Mindestanzahl an wissenschaftlichen Arbeiten, die 2023 veröffentlicht wurden und voraussichtlich mit Hilfe eines großen Sprachmodells (LLM) verfasst wurden 1. Dies entspricht etwas mehr als 1 % aller Artikel in der von dem Forschungsteam untersuchten Dimensions-Datenbank akademischer Veröffentlichungen.
- 10 %: Der Mindestanteil der Forschungspapiere, die von Mitgliedern der biomedizinischen Gemeinschaft in der ersten Jahreshälfte 2024 veröffentlicht wurden und voraussichtlich ihre Abstracts mit Unterstützung eines LLM verfasst haben 2. Eine andere Studie schätzte diesen Anteil für die Informatikgemeinde im Februar sogar auf höhere 17.5 % 3.
- 6.5–16.9 %: Der geschätzte Anteil der Peer-Reviews, die 2023 und 2024 an einer Auswahl von Top-AI-Konferenzen eingereicht wurden und vermutlich erheblich von LLMs generiert wurden 4. Diese Bewertungen beurteilen Forschungspapiere oder Präsentationen, die für die Konferenzen vorgeschlagen werden.
Asystent pisania
Wszystkie te liczby, ustalone na podstawie wzorców i słów kluczowych w tekstach charakterystycznych dla LLM, są prawdopodobnie ostrożnymi szacunkami, mówi Debora Weber-Wulff, informatyk i badacz plagiatów w HTW Berlin. Ich praca pokazuje, że narzędzia do wykrywania często zawodzą, jeśli chodzi o ustalenie, czy artykuł został napisany przy pomocy sztucznej inteligencji 5.
W ciągu ostatnich dwóch lat badacze odkryli, że wykorzystanie ChatGPT do tworzenia abstraktów, a także wniosków o granty i listów poparcia dla studentów pozwala im skoncentrować się na złożonych zadaniach. „Warto poświęcić czas na trudne pytania i twórcze hipotezy” – mówi Milton Pividori, informatyk medyczny w Szkole Medycznej Uniwersytetu Kolorado w Aurorze.
Naukowcy podają, że studia LLM są szczególnie pomocne w pokonywaniu barier językowych. „Demokratyzuje pisanie i pomaga osobom, dla których angielski jest drugim językiem” – wyjaśnia Gabe Gomes, chemik z Carnegie Mellon University w Pittsburghu w Pensylwanii. Analiza opublikowana na serwerze preprintów SSRN przed recenzją w listopadzie wykazała, że jakość artykułów autorów, których pierwszym językiem nie jest angielski, poprawiła się po publikacji ChatGPT, bardziej niż w przypadku autorów biegle władających językiem angielskim. 6.
Od czasu premiery w 2022 r. ChatGPT przeszedł kilka ulepszeń. GPT-4, opublikowany w marcu 2023 r, zaimponował użytkownikom możliwością generowania tekstów przypominających ludzi. Najnowszy model, o1, co ogłoszono we wrześniu i dostępny dla niektórych płacących klientów, a także niektórych programistów w fazie testowania, OpenAI twierdzi, że może „analizować złożone zadania i rozwiązywać trudniejsze problemy niż poprzednie modele w nauce, programowaniu i matematyce”. Kyle Kabasares, analityk danych w Bay Area Environmental Research Institute w Moffett Field w Kalifornii, użył o1 do odtworzyć część kodu ze swojego projektu doktoranckiego. Kiedy wprowadził informacje z sekcji poświęconej metodom w swojej pracy badawczej, system sztucznej inteligencji napisał kod w zaledwie godzinę, a jego utworzenie zajęło mu prawie rok studiów podyplomowych.
Ograniczenia i potencjał
Jednym z obszarów, w którym ChatGPT i podobne systemy AI okazały się mniej skuteczne, jest przeprowadzanie przeglądów literatury, mówi Pividori. „Tak naprawdę nie pomagają nam być bardziej produktywnymi” – wyjaśnia, ponieważ badacz musi przeczytać i zrozumieć odpowiednie artykuły w całości. „Jeśli artykuł nie jest kluczowy dla Twoich badań, możesz go podsumować za pomocą narzędzi AI” – dodaje. Wykazano jednak, że LLM powodują halucynacje 7 – czyli tworzą informację. Na przykład mogą porozmawiać o liczbach, które nawet nie występują w artykule.
Kolejną obawą badaczy korzystających z LLM jest ochrona danych. Na przykład gdy naukowcy wprowadzają niepublikowane oryginalne dane do jednego z narzędzi sztucznej inteligencji w celu napisania artykułu, istnieje ryzyko, że treść zostanie wykorzystana do uczenia zaktualizowanych wersji tych modeli. „To są czarne skrzynki” – wyjaśnia Weber-Wulff. „Nie masz pojęcia, co dzieje się z danymi, które tam przesyłasz.”
Aby uniknąć tego ryzyka, niektórzy badacze wybierają mniejsze, lokalne modele zamiast ChatGPT. „Uruchamiasz go na swoim komputerze i nic nie jest udostępniane na zewnątrz” – mówi Pividori. Dodaje, że niektóre plany abonamentowe ChatGPT zapewniają, że Twoje dane nie zostaną wykorzystane do uczenia modelu.
Dużym pytaniem, nad którym badacze zastanawiali się przez ostatni rok, jest to, czy ChatGPT wyjdzie poza rolę wirtualnego asystenta i naukowiec zajmujący się sztuczną inteligencją może być. Niektóre wczesne wysiłki sugerują, że jest to możliwe. Zou kieruje rozwojem wirtualnego laboratorium, w którym różne LLM przyjmują rolę naukowców w interdyscyplinarnym zespole, podczas gdy naukowiec-człowiek zapewnia informacje zwrotne na wysokim poziomie. „Wspólnie pracują nad formułowaniem nowych projektów badawczych” – mówi. W zeszłym miesiącu Zou i jego współpracownicy opublikowali wyniki jednego z tych projektów na serwerze preprintów bioRxiv przed recenzją 8. Wirtualne laboratorium zaprojektowało nanociał – rodzaj małego przeciwciała – zdolne do wiązania się z wariantami wirusa SARS-CoV-2, który wywołał pandemię Covid-19. Naukowcy zajmujący się ludźmi potwierdzili wyniki pracy w drodze eksperymentów i zidentyfikowali dwóch obiecujących kandydatów do dalszych badań.
Gomes i jego współpracownicy są również podekscytowani możliwością wykorzystania ChatGPT w laboratorium. Ona użyj tego narzędzia do przeprowadzenia wielu reakcji chemicznych za pomocą systemu robotycznego, który wdrożyli pod koniec ubiegłego roku. „Oczekuje się, że modele te pozwolą odkryć nową naukę” – mówi Gomes.
-
Gray, A. Preprint na arXiv https://doi.org/10.48550/arXiv.2403.16887 (2024).
-
Kobak, D., González-Márquez, R., Horvát, E.-Á. & Lause, J. Preprint na arXiv https://doi.org/10.48550/arXiv.2406.07016 (2024).
-
Liang, W. i in. Wydruk wstępny na arXiv https://doi.org/10.48550/arXiv.2404.01268 (2024).
-
Liang, W. i in. Wydruk wstępny na arXiv https://doi.org/10.48550/arXiv.2403.07183 (2024).
-
Weber-Wulff, D. i in. Wewnętrzne J. Eduk. Integr. 19, 26 (2023).
-
Liang, Y., Yang, T. i Zhu, F. Przeddruk na SSRN https://doi.org/10.2139/ssrn.4992755 (2024).
-
Farquhar, S. i in. Natura 630, 625–630 (2024).
-
Swanson, K., Wu, W., Bulaong, N. L., Pak, J. E. i Zou, J. Preprint on bioRxiv https://doi.org/10.1101/2024.11.11.623004 (2024).