Исследователи из Кембриджа и Еврейского университета Иерусалима попросили ChatGPT решить задачу, описанную Платоном более 2000 лет назад. Речь шла о сократовском «удвоении квадрата» — классической геометрической задаче, где нужно построить квадрат вдвое большей площади.

Модель справилась, но при переходе к вариации с прямоугольником заявила, что геометрического решения нет.
Это оказалось ошибкой: такое решение существует.
Ученые сочли, что ChatGPT «импровизировал», а не извлек готовый ответ из базы данных.
«Он действовал как ученик — строил гипотезы на основе предыдущего опыта», — отметил исследователь Надaв Марко.
По мнению авторов, такой результат демонстрирует, что ИИ способен к своеобразному «обучению в процессе», а не только воспроизведению текста.
Эксперимент поднимает старый вопрос: является ли знание врожденным или приобретаемым. Теперь ученые ищут ответ на него и в работе искусственного интеллекта.