DeepMind osiąga kamień milowy w rozwiązaniu problemów matematycznych - kolejne duże wyzwanie dla sztucznej inteligencji

„Dowiedz się, w jaki sposób Google Deepmind rewolucjonizuje świat matematyki, kwestionując najlepszych uczniów na świecie w rozwiązywaniu problemów matematycznych. Przeczytaj więcej o przełomowym postępie i przyszłości sztucznej inteligencji w matematyce”.
(Symbolbild/natur.wiki)

DeepMind osiąga kamień milowy w rozwiązaniu problemów matematycznych - kolejne duże wyzwanie dla sztucznej inteligencji

<źródło type = "image/webp" srcset = "https://media.nature.com/lw767/magazine-assets/d41586-02441-2/d41586-02441-2_27386140.jpg?as=WEBP 767W, https://media.nature.com/lw319/magazine-assets/d41586-02441-2/d41586-02441-2_27386140.jpg?as=webp 319W ” rozmiary = "(maks. szerokość: 319px) 319px, (min min: 1023px) 100VW, 767px"> Po tym, jak Google Deepmind pokonał ludzi we wszystkim, od Gra przejdź do gier strategicznych ,
,
Teraz twierdzi, że jest na skraju pokonania najlepszych uczniów na świecie podczas rozwiązywania zadań matematycznych.

Londyn Learning maszynowy Firma ogłosiła 25 lipca, że ​​jego systemy sztucznej inteligencji (KI) rozwiązały cztery z sześciu zadań, które zostały przekazane studentom Międzynarodowej Olimpiady Matematycznej (IMO) 2024 w Bath, Wielkiej Brytanii. AI dostarczyło rygorystycznych, stopniowych dowodów, które zostały ocenione przez dwie najlepsze matematyki i osiągnęły wynik 28/42 tylko jeden punkt od obszaru złotych medali.

„To oczywiście bardzo ważny postęp”, mówi Joseph Myers, matematyk z Cambridge w Wielkiej Brytanii, który wraz z medalistą Fields Timem Gowersem sprawdził rozwiązania i pomógł wybrać oryginalne problemy na ten rok.

DeepMind i inne firmy są w wyścigu, aby ostatecznie przedstawić dowody maszyn, niezbędne Rozwiąż pytania badawcze w matematyce . Problemy z IMO, wiodącą światową konkurencją dla młodych matematyków, stały się podwórkiem postępu w kierunku tego celu i są postrzegane jako „duże wyzwanie” dla uczenia maszynowego, według firmy.

„Po raz pierwszy system AI był w stanie osiągnąć usługi na poziomie medalu”, powiedział Pushmeet Kohli, wiceprezes AI in Science w Deepmind, w konsultacji prasowej. „To ważny kamień milowy na drodze do budowania postępowych dowodów” - powiedział Kohli.

rozszerzenie

Zaledwie kilka miesięcy temu, w styczniu, system DeepMind Usługi alfageometrii na poziomie medali Podczas rozwiązywania rodzaju problemów IMO, nazwa tych w geometrii euclidean. Pierwsza sztuczna inteligencja, która działa na poziomie złotego medalu dla ogólnych pytań dotyczących testu w algebrze, kombinatoricach i teorii liczb, które są ogólnie uważane za bardziej wymagające niż geometria-jest uprawniona do uzyskania ceny 5 milionów dolarów, nagrody Olimpiady AI Math (AIMO). (Cena ma ścisłe kryteria, takie jak ujawnienie kodu źródłowego i pracy o ograniczonej sile obliczeniowej, co oznacza, że ​​obecne wysiłki DeepMind nie kwalifikowałyby się.)

W swojej najnowszej próbie naukowcy wykorzystali alfageometrię2 do rozwiązania problemu geometrii w mniej niż 20 sekund; AI jest ulepszoną i szybszą wersją systemu rekordu, mówi specjalista z komputera DeepMind, Thang Luong.

W przypadku innych rodzajów pytań zespół opracował zupełnie nowy system o nazwie Alphaproof. Alphaproof rozwiązał dwa problemy z algebry w konkursie i jeden w teorii liczb, dla których zajęło to trzy dni. (Uczestnicy faktycznej IMO mają dwie sesje po 4,5 godziny.) Nie było w stanie rozwiązać dwóch problemów w kombinacji, innego obszaru matematyki.

<źródło type = "image/webp" srcset = "https://media.nature.com/lw767/magazine-assets/d41586-02441-2/d41586-02441-2_27385380.jpg?as=webp 767W, https://media.nature.com/lw319/magazine-assets/d41586-02441-2/d41586-02441-2_27385380.jpg?as=WEBP 319W ” rozmiary = "(maksymalny szerokość: 319px) 319px, (min min: 1023px) 100VW, 767px">
Zbliżenie złotego medalu, wygrany w 63. Międzynarodowej Olimpiadzie matematyki przez rumuńskiego uczestnika.
                Ładowanie = „leniwy”
                Src =
Naukowcy osiągnęli mieszane wyniki, gdy odpowiedzą na pytania matematyczne z modelami głosowymi - typ systemu, który napędza chatboty, takie jak Chatt. Czasami modele udzielają poprawnej odpowiedzi, ale nie mogą wyjaśnić ich rozumowania racjonalnie, a czasem

Tylko w zeszłym tygodniu zespół firm oprogramowania Numina i Huggingface wykorzystał model głosowy, aby wygrać pośrednią „cenę postępu” Amio w oparciu o uproszczone wersje problemów IMO. Firmy stworzyły całe systemy open source i udostępniły je do pobierania innych badaczy. Ale zwycięzcy powiedzieli, że natura że same modele językowe prawdopodobnie nie byłyby wystarczające, aby rozwiązać trudne problemy.

Tylko klasa

Alphaproof łączy model głosowy z technologią uczenia się wzmacniającego, który silnik „Alphazero” dla gier atakujących, takich jak GO, a także niektóre Specyficzne problemy matematyczne . Wraz ze wzrostem nauki sieć neuronowa uczy się poprzez eksperymenty i błędy. Działa to dobrze, jeśli jego odpowiedzi można ocenić za pomocą obiektywnej skali. W tym celu Alphaproof został przeszkolony do czytania i pisania dowodów w formalnym języku o nazwie Lean, który jest używany w pakiecie oprogramowania „Proof Assistant” o tej samej nazwie popularnej wśród matematyków. W tym celu Alphaproof sprawdził, czy jego wydatki były prawidłowe, wykonując je w pakiecie Lean, co pomogło wypełnić niektóre kroki w kodzie.

Szkolenie modelu głosowego wymaga ogromnych ilości danych, ale w Lean dostępnych było tylko kilka dowodów matematycznych. Aby przezwyciężyć ten problem, zespół opracował dodatkową sieć, która próbowała przetłumaczyć istniejące nagranie o milion problemów napisanych w języku naturalnym, ale bez tłumaczenia rozwiązań napisanych w Lean, mówi Thomas Hubert, badacz studiów głębinowych, który przeprowadził rozwój Alphaproofa. „Możemy nauczyć się udowodnić nasze podejście, nawet jeśli pierwotnie nie przeszkoliliśmy dowodów z napisem ludzkim?” (Firma była podobna do Go, gdzie jego sztuczna inteligencja nauczyła się grać w grę, grając przeciwko sobie, zamiast tak, jak ludzie.)

Magical Key

Wiele lean tłumaczeń nie miało sensu, ale wystarczająco było wystarczająco dobre, aby doprowadzić alfaproof do tego stopnia, że ​​mógłby rozpocząć rosnące cykle uczenia się. Wyniki były znacznie lepsze niż oczekiwano, powiedział Gowers podczas konsultacji prasowej. „Wiele problemów z IMO ma tę własność magicznego klucza. Problem najpierw wygląda trudny, dopóki nie znajdziesz magicznego klucza, który go otwiera” - powiedział Gowers, który pracuje w Collège de France w Paryżu.

W niektórych przypadkach Alphaproof wydawał się być w stanie podjąć ten dodatkowy etap kreatywności, nadając mu prawidłowy krok od nieskończenie duże rozwiązanie. Dodała jednak dalsza analiza w celu ustalenia, czy odpowiedzi były mniej zaskakujące niż wyglądały, dodał Gowers. Podobny dyskurs powstał po zaskakującym 'zug 37' , deepMinds Alphago-bot w jego Słynne zwycięstwo w 2016 roku o najlepszym na świecie graczu ludzkim Go -punkt zwrotny dla KI.

Okaże się, czy techniki można udoskonalić do pracy na poziomie badań matematyki, powiedział Myers z recenzji prasowej. „Czy może rozszerzyć się na inne rodzaje matematyki, w których nie można trenować milionów problemów?”

„Dotarliśmy do punktu, w którym możesz nie tylko udowodnić otwarte problemy badawcze, ale także problemy, które są bardzo trudne dla najlepszych młodych matematyków na świecie”-powiedział David Silver, specjalista komputerowy Deepmind, który był wiodącym badaczem w rozwoju Alphago w połowie 2010 roku.