Пока одни модели ИИ учатся распознавать котиков на фото, другие — уже формулируют научные гипотезы и предлагают эксперименты. Именно такую амбициозную цель поставил перед собой стартап FutureHouse, разработав модель под названием ether0, рассказывает журнал Nature.

ether0

В отличие от привычных LLM (Large Language Model, большая языковая модель) вроде ChatGPT, ether0 позиционируется как "reasoning model", то есть система, способная к многошаговому логическому мышлению. Она уже демонстрирует прорывные результаты в решении задач по органической химии, включая синтез молекул, выбор реагентов и предсказание побочных реакций.

Как это работает?

Ether0 обучалась не только на текстах, но и на структурах научных статей, лабораторных протоколах и даже цифровых лабораторных журналах. Благодаря этому:

  • Она генерирует обоснованные научные гипотезы, исходя из существующих данных.

  • Предлагает экспериментальные дизайны, включая выбор оборудования и параметров.

  • Автоматически анализирует результаты и формирует публикации в научном стиле.

"Это шаг к полной автоматизации научного метода", — говорит один из разработчиков, доктор Амит Капур.

А это безопасно?

Хотя ether0 создавалась с целью помогать учёным, некоторые эксперты уже выражают обеспокоенность. Что произойдёт, если ИИ начнёт массово генерировать некорректные или неэтичные эксперименты? Или — наоборот — будет использоваться для ускорения разработки оружия?

"Контроль над такими системами должен быть жёстче, чем над обычными LLM", — считает профессор Сюзанна Ли, специалист по научной этике.

Закат научного поиска или его ускорение?

FutureHouse уже подписала контракты с несколькими фармацевтическими компаниями и планирует открыть доступ к ether0 для университетов. Это может навсегда изменить саму суть научной работы: исследователи станут скорее кураторами ИИ-открытий, чем их авторами.