DeepMind atinge o marco na solução de problemas matemáticos - o próximo grande desafio para a IA

DeepMind atinge o marco na solução de problemas matemáticos - o próximo grande desafio para a IA
Depois do Google Deepmind, derrotou as pessoas em tudo, de jogo vá para jogos de tabuleiro de estratégia ,
The London, com sede em Londres A empresa de aprendizado de máquina Anunciou em 25 de julho que seus sistemas de inteligência artificial (KI) resolveram quatro das seis tarefas que foram dadas aos alunos nos Jogos Olímpicos de Matemática Internacional (IMO) 2024 em Bath, Grã-Bretanha. A IA forneceu evidências graduais rigorosas, que foram avaliadas por duas principais matemáticas e alcançaram uma pontuação de 28/42 apenas um ponto da área de medalhas de ouro.
"É obviamente um progresso muito importante", diz Joseph Myers, matemático de Cambridge, Grã -Bretanha, que, junto com o medalhista de campos Tim Gowers, verificou as soluções e ajudou a selecionar os problemas originais deste ano.
Deepmind e outras empresas estão na corrida para fornecer evidências de máquinas, o essencial Resolva questões de pesquisa em matemática . Os problemas com a IMO, a principal concorrência mundial de jovens matemáticos, tornaram -se um critério para o progresso na direção desse objetivo e são vistos como um "grande desafio" para o aprendizado de máquina, de acordo com a empresa.
"Esta é a primeira vez que um sistema de IA conseguiu alcançar serviços no nível da medalha", disse Pushmeet Kohli, vice -presidente de IA em ciência da DeepMind, em uma consulta à imprensa. "Este é um marco importante no caminho para criar evidências progressivas", disse Kohli.
Extensão
Apenas alguns meses atrás, em janeiro, o sistema DeepMind Serviços de alfagometria em nível de medalhas Ao resolver um tipo de problema de IMO, ou seja, aqueles no geometria euclidiano. A primeira IA que trabalha em um nível de medalha de ouro para as questões gerais de teste em álgebra, combinatória e teoria dos números, que geralmente são considerados mais exigentes do que a geometria-é com direito a obter um preço de US $ 5 milhões, o Prêmio AI Math Olympiad (AIMO). (O preço possui critérios rigorosos, como a divulgação do código -fonte e o trabalho com poder de computação limitado, o que significa que os esforços atuais do DeepMind não se qualificariam.)
Em sua última tentativa, os pesquisadores usaram o alfageometria2 para resolver o problema da geometria em menos de 20 segundos; A IA é uma versão aprimorada e mais rápida do seu sistema de registros, diz o especialista em computadores DeepMind, Thang Luong.
Para os outros tipos de perguntas, a equipe desenvolveu um sistema completamente novo chamado AlphaProof. O Alphaproof resolveu dois problemas de álgebra na competição e um na teoria dos números, para os quais demorou três dias. (Os participantes da OMI real têm duas sessões de 4,5 horas cada.) Não conseguiu resolver os dois problemas na combinação, outra área de matemática.
Os pesquisadores obtiveram resultados mistos quando respondem a perguntas matemáticas com modelos de voz - o tipo de sistema que dirige chatbots como Chatt. Às vezes, os modelos dão a resposta correta, mas não podem explicar seu raciocínio racionalmente e às vezes
Somente na semana passada, uma equipe de empresas de software Numina e Huggingface usaram um modelo de voz para ganhar um 'preço de progresso' intermediário da Amio com base em versões simplificadas de problemas de IMO. As empresas tornaram todo o seu sistema aberto de sistemas e o disponibilizaram para baixar outros pesquisadores. Mas os vencedores disseram que a natureza que os modelos de idiomas provavelmente não seriam suficientes para resolver problemas difíceis. alphaproof combina um modelo de voz com a tecnologia de reforçar o aprendizado, que o mecanismo "alphazero" para jogos de ataque como go e alguns Problemas matemáticos específicos . Com o aumento do aprendizado, uma rede neural aprende por meio de experimentos e erros. Isso funciona bem se suas respostas puderem ser avaliadas usando uma escala objetiva. Para esse fim, o AlphaProof foi treinado para ler e escrever evidências em um idioma formal chamado Lean, que é usado no pacote de software 'Assistente de Prova' com o mesmo nome que é popular entre os matemáticos. Para isso, o AlphaProof testou se suas despesas estavam corretas ao fazê -las no pacote Lean, o que ajudou a preencher algumas das etapas do código. O treinamento de um modelo de voz requer grandes quantidades de dados, mas apenas algumas evidências matemáticas estavam disponíveis na Lean. Para superar esse problema, a equipe desenvolveu uma rede adicional que tentou traduzir uma gravação existente de um milhão de problemas que foram escritos em linguagem natural, mas sem traduzir soluções escritas em Lean, diz Thomas Hubert, um pesquisador de aprendizes de máquinas de fundo que conduziu o desenvolvimento de alfaproof. "Podemos aprender a provar nossa abordagem, mesmo que não tenhamos treinado originalmente em evidências escritas humanas?" (A empresa era semelhante ao Go, onde sua IA aprendeu a jogar o jogo jogando contra si mesma, em vez da maneira como as pessoas fazem.) Muitas das traduções enxutas não faziam sentido, mas o suficiente foi bom o suficiente para levar o alfaproof ao ponto em que poderia começar seus crescentes ciclos de aprendizado. Os resultados foram muito melhores do que o esperado, disse os Gowers na consulta à imprensa. "Muitos problemas com a IMO têm essa propriedade da chave mágica. O problema parece difícil até você encontrar uma chave mágica que a abre", disse Gowers, que trabalha na Collège de France em Paris. Em alguns casos, o AlphaProof parecia ser capaz de dar esse passo adicional de criatividade, dando -lhe uma etapa correta de uma solução infinitamente grande possível. Mas são necessárias análises adicionais para determinar se as respostas foram menos surpreendentes do que pareciam, acrescentaram Gowers. Um discurso semelhante surgiu após o surpreendente 'Zug 37' , o DeepMinds alphago--Bot at His , o alpra-bot "/a 77'/a> Data-Track = "Clique em" Data-label = "https://www.nature.com/artics/52945a"
Data Track Category = "Link do texto corporal"> Vitória famosa em 2016 sobre o melhor jogador do mundo do mundo -um ponto de virada para o KI. Resta saber se as técnicas podem ser aperfeiçoadas para trabalhar em um nível de pesquisa em matemática, disse Myers na revisão da imprensa. "Pode se expandir para outros tipos de matemática, onde nenhum milhão de problemas pode ser treinado?" "Chegamos ao ponto em que você pode não apenas provar problemas de pesquisa abertos, mas também problemas que são muito desafiadores para os melhores jovens matemáticos do mundo", disse o especialista em computadores DeepMind, David Silver, que foi o principal pesquisador no desenvolvimento do AlphaGo em meados de 2011. apenas classe
Chave mágica