OpenAI обновила политику использования ChatGPT: теперь системе запрещено предоставлять консультации в областях, требующих профессиональной лицензии – в медицине и праве. Рассказываем подробности.

ChatGPT

С 29 октября 2025 года в Usage Policies компании добавили пункт: “Предоставление персонализированных консультаций, требующих лицензии, таких как юридические или медицинские, без соответствующего участия лицензированного специалиста” запрещено.

Что именно меняется?

  • ChatGPT больше не будет назначать диагнозы, рекомендовать лечение с учетом индивидуальной истории болезни или интерпретировать медицинские снимки (рентген, МРТ и др.). 

  • В юридической области система больше не может давать советы по конкретным судебным делам, документам, заявлениям или судебной стратегии. 

  • Вместо этого ChatGPT может предоставлять обобщенную справочную информацию, объяснять законы, процессы и термины, но не заменять консультацию профильного специалиста. 

  • Пытаясь обойти ограничения, некоторые пользователи задавали вопросы в виде “гипотетической ситуации”, но система теперь блокирует и такие запросы, если они предполагают персонализированный совет.

Компания мотивирует изменения необходимостью снизить юридические и этические риски и повысить безопасность пользователей. 

Почему это стало необходимо

Исследования показывают, что крупные языковые модели (LLM) иногда дают небезопасные рекомендации по медицинским вопросам, особенно когда речь идет о сложных или специфичных случаях. В одном из таких исследований отмечается, что часть ответов могла привести к серьезному вреду пациенту.

Кроме того, в общественных обсуждениях уже фиксировались случаи, когда пользователи жаловались на отказ системы объяснять медицинские изображения или предоставлять юридические инструкции. 

Как было раньше

До обновления политики ChatGPT часто отвечал на медицинские и юридические вопросы пользователей, включая индивидуализированные запросы. Система могла анализировать симптомы, предлагать возможные диагнозы (с оговоркой), давать образцы юридических документов или идеи стратегии. Такое поведение критиковали как небезопасное, поскольку ИИ не является заменой настоящего врача или адвоката.

Многие пользователи ценили возможность получить “быстрый совет” без затрат времени и денег, но потенциальные ошибки и отсутствие ответственности всегда оставались слабым местом такого подхода.