Google DeepMind официально объявила, что ее система Gemini Deep Think заработала 35 из 42 возможных баллов на Международной математической олимпиаде (IMO) 2025 — результат, квалифицирующийся на уровень золотого медалиста. Об этом сообщает Reuters.

Также отмечается, что и AI впервые преодолела рубеж, соответствующий лучшим школьникам планеты.

Gemini

Несмотря на отсутствие официального участия, OpenAI также объявила, что ее экспериментальная reasoning‑модель достигла аналогичного результата — пять из шести задач были решены корректно по тем же критериям IMO, по которым оценивался DeepMind.

Однако OpenAI представила свои данные раньше: до официального подтверждения результатов от организаторов IMO.

После получения официального подтверждения Google отложила публикацию до завершения церемонии, в знак уважения к участникам соревнования

Новые методы DeepMind включают режим Deep Think, при котором модель одновременно исследует множество стратегий решения, синтезируя ясные и строгие доказательства на естественном языке в рамках лимита времени (4,5 часа).

Эксперты отмечают: такие достижения иллюстрируют качественный скачок в способности моделей выполнять многослойное и творческое математическое рассуждение, давно считавшееся сложнейшим препятствием

По словам Джунхёка Чона, профессора математики в Университете Брауна, это достижение говорит о том, что уже меньше чем через год математики начнут использовать искусственный интеллект для решения невыполненных исследовательских задач.

IMO — самое престижное в мире соревнование для молодых математиков, проводимое с 1959 года.

Ранее AI‑системы DeepMind (AlphaGeometry, AlphaProof) решали задачи олимпиады, но требовали перевода в формальный язык и работали медленнее — это решение стало заметно более гибким и автономным в контексте естественного языка.

Сейчас AI стала не просто быстро вычислять ответы, но создавать структурированные доказательства, приближаясь к интеллектуальным навыкам человека.

В 2024 году DeepMind представила систему AlphaGeometry 2, которая решала задачи из геометрии на уровне серебряного медалиста IMO, справляясь с переводом задач в формальные языки (Lean) и требуя значительного времени на обработку, часто два-три дня. В этом году AI вышла на новый уровень — работая напрямую с задачами на естественном языке и укладываясь в стандартные временные рамки IMO.