Czy AI może być nadludzki? Wady w najlepszym botach graczy podnoszą wątpliwości

Czy AI może być nadludzki? Wady w najlepszym botach graczy podnoszą wątpliwości
Mówi o Nadmierna sztuczna inteligencja (KI) Wzrost badań. Ludzkie gracze-co pokazuje, że taka wyższość może być krucha
„Artykuł pozostawia duży znak zapytania o to, w jaki sposób można osiągnąć ambitny cel, aby zbudować solidne agentów AI w prawdziwym świecie, którym ludzie mogą zaufać”-mówi Huan Zhang, informatyk na University of Illinois Urbana-Champay. Stephen Casper, informatyk z Massachusetts Institute of Technology w Cambridge, dodaje: „Jak dotąd dostarczyło jednych z najsilniejszych dowodów, że trudno jest wdrożyć zaawansowane modele tak niezawodnie, jak chcesz”.
Analiza, że w czerwcu
Kiedy idzie, dwóch graczy na przemian umieszczają czarno -białe kamienie na siatce, aby otaczać i uchwycić kamienie drugiego gracza. W 2022 r. Naukowcy poinformowali o
Czy to była unikalna rzecz, czy też ta praca wskazała podstawową słabość Katago-i, w ekspansji, do innych systemów AI o pozornie nadludzkich umiejętnościach? Aby to zbadać, badacze pod kierunkiem Adama Gleave, dyrektora zarządzającego FAR AI, organizacji non-profit w Berkeley, Kalifornii i współautor artykułów z 2022 1 Pierwsza obrona była taka, którą deweloperzy Katago użyli już po atakach 2022: przykłady sytuacji gry Katago, które były zaangażowane w ataki i pozwalają grać, aby nauczyć się grać przeciwko tym sytuacjom. Jest to podobne do tego, jak na ogół nauczał tego. Jednak autorzy najnowszych artykułów stwierdzili, że przeciwna oferta nauczyła się pokonać tę zaktualizowaną wersję Katago i wygrali 91 % przypadków. Druga strategia obrony, którą próbował drużyna Gleave, była iteracyjna: wyszkolić wersję Katago przeciwko Botom Rersarielle, a następnie szkolić napastników przeciwko zaktualizowanemu Katago i tak dalej przez dziewięć rund. Ale to nie doprowadziło również do niezwyciężonej wersji Katago. Atakujący nadal znajdowali słabości, a ostatni atak Katago pokonał 81 % przypadków. Jako trzecia strategia obrony naukowcy przeszkolili od zera nowego systemu AI. Katago opiera się na modelu obliczeniowym znanym jako Convolutional Neural Network (CNN). Naukowcy podejrzewali, że CNN mogą zbytnio skoncentrować się na lokalnych szczegółach i przeoczyć globalne wzorce. Dlatego zbudowali gracza GO z alternatywą
A skoro ludzie są w stanie użyć taktyki przeciwnych botów, aby pokonać wiodącego kok, czy sensowne jest nazwanie tych systemów superhuman? „To świetne pytanie, z którym zdecydowanie się zmagałem” - mówi Gleave. „Zaczęliśmy mówić„ zwykle nadludzki ”. David Wu, informatyk w Nowym Jorku, który po raz pierwszy rozwinął Katago, twierdzi, że silny kok jest „średnio nadludzki”, ale nie „w najgorszych przypadkach”. Gleave mówi, że wyniki mogą mieć daleko idące efekty na systemach AI, w tym Modele dużych języków oparte na chatbotach, takich jak chatgpt . „Najważniejszym odkryciem dla AI jest to, że te słabe punkty będą trudne do wyeliminowania”, mówi Gleave. „Jeśli nie możemy rozwiązać problemu w prostym obszarze, takim jak Go, w najbliższej przyszłości rozwiązywania podobnych problemów, takich jak jailbreaks w Chatt”. Co oznaczają wyniki dla możliwości stworzenia sztucznej inteligencji, która szeroko przekracza ludzkie umiejętności, jest mniej jasne, mówi Zhang. „Chociaż wskazuje to powierzchownie, że ludzie mogą nadal zachować ważne zalety poznawcze w stosunku do AI”, mówi, „Myślę, że kluczową wiedzą jest to, że Nie w pełni rozumiemy systemy AI, które budujemy dzisiaj
tseng, t., McLean, E., Pelrine, K., Wang, T. i Gleave, A. Preprint w arxiv https://doi.org/10.48550/arxiv.2406.12843 (2024).
Wang, T. T. i in. Preprint w arxiv > https://doi.org/10.48550/arxiv.2211.00241 . Wykorzystanie Katago
słaby przeciwnik
We wszystkich tych przypadkach boty przeciwne-choć były w stanie pokonać Katago i inne wiodące systemy odgrywania, były przeszkolone w celu odkrycia ukrytych słabości w innych AI, a nie być wszechstronnym strategami. „Przeciwnicy są nadal dość słabe - dość łatwo ich pokonaliśmy” - mówi Gleave.