DeepMind atteint un jalon dans la solution de problèmes mathématiques - le prochain grand défi pour l'IA

DeepMind atteint un jalon dans la solution de problèmes mathématiques - le prochain grand défi pour l'IA
Après que Google Deepmind ait vaincu les gens dans tout, de Jeu à des jeux de conseil d'administration de stratégie ,
Prétend maintenant être sur le point de battre les meilleurs élèves du monde lors de la résolution des tâches mathématiques.
The Londres Machine-Learning La société a annoncé le 25 juillet que ses systèmes d'intelligence artificielle (KI) avaient résolu quatre des six tâches qui ont été données aux étudiants des Jeux olympiques internationaux de mathématiques (IMO) 2024 à Bath, en Grande-Bretagne. L'IA a fourni des preuves rigoureuses et progressives, qui ont été évaluées par deux principales mathématiques et ont obtenu un score de 28/42 uniquement un point de la zone des médailles d'or.
"C'est évidemment un progrès très important", explique Joseph Myers, mathématicien de Cambridge, Grande-Bretagne, qui, avec le médaillé des champs Tim Gowers, a vérifié les solutions et a aidé à sélectionner les problèmes originaux de cette année.
DeepMind et d'autres sociétés sont dans la course à fournir finalement des preuves de machines, l'essentiel Résoudre les questions de recherche en mathématiques . Les problèmes avec l'OMI, la principale compétition mondiale pour les jeunes mathématiciens, sont devenus un critère de progrès dans le sens de cet objectif et sont considérés comme un "grand défi" pour l'apprentissage automatique, selon la société.
"C'est la première fois qu'un système d'IA est en mesure d'obtenir des services au niveau de la médaille", a déclaré Pushmeet Kohli, vice-président de l'IA en science à DeepMind, dans une consultation de presse. "Il s'agit d'une étape importante sur le chemin de la construction de preuves progressives", a déclaré Kohli.
Extension
Il y a seulement quelques mois, en janvier, le système DeepMind Services d'alphageométrie au niveau des médailles Lors de la résolution d'un type de problèmes d'IMO, à savoir ceux du géométrie euclidéenne. La première IA qui fonctionne à un niveau de médaille d'or pour les questions globales, y compris les questions en algèbre, en combinatoire et en théorie des nombres, qui sont généralement considérées comme plus exigeantes que la géométrie - sont autorisées à obtenir un prix de 5 millions de dollars, le prix Olympiade de mathématiques de l'IA (AIMO). (Le prix a des critères stricts tels que la divulgation du code source et le travail avec une puissance de calcul limité, ce qui signifie que les efforts actuels de DeepMind ne se qualifieraient pas.)
Dans leur dernière tentative, les chercheurs ont utilisé Alphageométrie2 pour résoudre le problème de géométrie en moins de 20 secondes; L'IA est une version améliorée et plus rapide de votre système d'enregistrement, explique le spécialiste informatique DeepMind Thang Luong.
Pour les autres types de questions, l'équipe a développé un tout nouveau système appelé Alphaproof. Alphaproof a résolu deux problèmes d'algèbre dans la compétition et un dans la théorie des nombres, pour lesquels il a pris trois jours. (Les participants de l'OMI réel ont deux séances de 4,5 heures chacune.) Il n'a pas pu résoudre les deux problèmes dans la combinaison, un autre domaine de mathématiques.

Les chercheurs ont obtenu des résultats mitigés lorsqu'ils répondent aux questions mathématiques avec des modèles vocaux - le type de système qui stimule les chatbots comme Chatt. Parfois, les modèles donnent la bonne réponse, mais ne peuvent pas expliquer leur raisonnement rationnellement, et parfois
La semaine dernière, une équipe de sociétés de logiciels Numina et HuggingFace a utilisé un modèle vocal pour gagner un «prix de progression» intermédiaire sur la base de versions simplifiées de problèmes IMO. Les sociétés ont créé l'intégralité de leurs systèmes open source et l'ont mis à disposition pour télécharger d'autres chercheurs. Mais les gagnants ont dit Nature que les modèles de langue seul ne suffiraient probablement pas pour résoudre des problèmes difficiles. Alphapofuh combine un modèle vocal avec la technologie de renforcement d'apprentissage, que le moteur «Alphazero» pour les jeux d'attaque tels que Go ainsi que certains Problèmes mathématiques spécifiques . Avec un apprentissage croissant, un réseau neuronal apprend à travers des expériences et des erreurs. Cela fonctionne bien si ses réponses peuvent être évaluées à l'aide d'une échelle objective. À cette fin, Alphaproof a été formé pour lire et rédiger des preuves dans une langue formelle appelée Lean, qui est utilisée dans le package logiciel «preuve assistant» du même nom qui est populaire auprès des mathématiciens. Pour cela, Alphaproof a testé si ses dépenses étaient correctes en les faisant dans le package Lean, ce qui a contribué à remplir certaines des étapes du code. La formation d'un modèle vocal nécessite des quantités massives de données, mais seules quelques preuves mathématiques étaient disponibles à Lean. Afin de surmonter ce problème, l'équipe a développé un réseau supplémentaire qui a essayé de traduire un enregistrement existant d'un million de problèmes qui ont été écrits en langage naturel, mais sans traduire des solutions écrites dans Lean, explique Thomas Hubert, un chercheur d'apprenant de DeepMind Machine qui a mené le développement d'Alphaproof. "Nous pouvons apprendre à prouver notre approche, même si nous n'avons pas initialement formé à des preuves écrites humaines?" (L'entreprise était similaire à The Go, où son IA a appris à jouer le jeu en jouant contre elle-même, au lieu de la façon dont les gens le font.) Beaucoup de traductions Lean n'avaient aucun sens, mais suffisamment étaient assez bonnes pour amener Alphaproof au point où il pourrait commencer ses cycles d'apprentissage croissants. Les résultats ont été bien meilleurs que prévu, a déclaré Gowers lors de la consultation de la presse. "De nombreux problèmes avec l'OMI ont cette propriété de la clé magique. Le problème semble d'abord difficile jusqu'à ce que vous trouviez une clé magique qui l'ouvre", a déclaré Gowers, qui travaille à la Collège de France à Paris. Dans certains cas, Alphaproof semblait être en mesure de prendre cette étape supplémentaire de créativité en lui donnant une étape correcte d'une solution possible infiniment grande. Mais une analyse plus approfondie est nécessaire pour déterminer si les réponses étaient moins surprenantes qu'elles ne le regardaient, a ajouté Gowers. Un discours similaire est apparu après le surprenant 'Zug 37' , The Deepminds Alphago-Bot sur son célèbre victoire en 2016 sur le meilleur joueur de GO humain du monde -Un tournant pour le KI. Il reste à voir si les techniques peuvent être perfectionnées pour fonctionner à un niveau de recherche en mathématiques, a déclaré Myers lors de la revue de la presse. "Peut-il s'étendre à d'autres types de mathématiques où aucun million de problèmes ne peuvent être formés?" "Nous avons atteint le point où vous pouvez non seulement prouver des problèmes de recherche ouverts, mais aussi des problèmes qui sont très difficiles pour les meilleurs jeunes mathématiciens du monde", a déclaré le spécialiste informatique de DeepMind, David Silver, qui était le principal chercheur du développement de l'alphago à la mi-2011. uniquement classe
clé magique