Исследователи из Кембриджа и Еврейского университета Иерусалима попросили ChatGPT решить задачу, описанную Платоном более 2000 лет назад. Речь шла о сократовском «удвоении квадрата» — классической геометрической задаче, где нужно построить квадрат вдвое большей площади.

Сократ

Модель справилась, но при переходе к вариации с прямоугольником заявила, что геометрического решения нет.

Это оказалось ошибкой: такое решение существует.

Ученые сочли, что ChatGPT «импровизировал», а не извлек готовый ответ из базы данных.

«Он действовал как ученик — строил гипотезы на основе предыдущего опыта», — отметил исследователь Надaв Марко.

По мнению авторов, такой результат демонстрирует, что ИИ способен к своеобразному «обучению в процессе», а не только воспроизведению текста.

Эксперимент поднимает старый вопрос: является ли знание врожденным или приобретаемым. Теперь ученые ищут ответ на него и в работе искусственного интеллекта.