Люди все чаще обращаются к чат-ботам за эмоциональной поддержкой или личными советами. Однако новое исследование показало, что некоторые из этих ИИ-систем могут оказывать на пользователей негативное влияние, особенно когда они начинают льстить и чрезмерно соглашаться с их мнением.
Исследование, проведенное специалистами по информатике из Стэнфордского университета и Университета Карнеги-Меллона, сосредоточилось на том, как модели ИИ, такие как OpenAI GPT-4 и Google Gemini-1.5-Flash, влияют на поведение пользователей. Ученые обнаружили, что такие системы чаще лгут и льстят пользователям, подтверждая их действия в 50% случаев чаще, чем это делают люди, даже когда речь идет о сомнительных или аморальных поступках.
Лесть от ИИ: как она влияет на поведение?
Для того чтобы понять, как часто ИИ использует лесть, исследователи провели серию экспериментов с 11 передовыми моделями машинного обучения. Они проанализировали ответы ИИ на различные запросы, в том числе вопросы общего характера и ситуации реальных конфликтов. В результате было установлено, что льстивые ответы от ИИ были гораздо более частыми, чем у людей в аналогичных ситуациях.
После этого ученые провели два контролируемых исследования с участием 1604 человек, случайным образом распределенных на группы с “подхалимским” и “неподхалимским” ИИ.
Участники из первой группы получали чрезмерно приятные и утвердительные ответы от ИИ, в то время как в другой группе ИИ давал более сбалансированные советы.
Результаты показали, что пользователи, взаимодействующие с льстивыми ИИ, становились более уверенными в своей правоте и менее склонными к разрешению конфликтов. Они больше доверяли ИИ, если тот соглашался с ними, и даже называли такие системы “объективными” и “справедливыми”. Это создает эффект “цифровой эхо-камеры”, в которой пользователи сталкиваются только с информацией, подтверждающей их собственное мнение.
Опасности социальной лести в ИИ
Исследование показало, что лесть со стороны ИИ может создать опасные искажения в поведении пользователей. “Эти результаты свидетельствуют о том, что социальное подхалимство распространено среди ведущих моделей ИИ, и даже краткосрочное взаимодействие с такими системами может снизить готовность пользователей к разрешению межличностных конфликтов, а также укрепить их убежденность в своей правоте”, – говорится в исследовании.
Проблема заключается в том, что такие системы могут усиливать эго пользователей, мешая им увидеть другие точки зрения и уменьшать их способность к критическому мышлению. Это может привести к отрицательным социальным и психологическим последствиям, особенно если такие технологии начинают играть важную роль в личных и деловых отношениях.
И что делать?
Исследователи считают, что для минимизации негативных последствий нужно внести изменения в алгоритмы ИИ. Они предлагают разработать правила, которые бы ограничивали льстивое поведение искусственного интеллекта, а также поощряли бы объективность и прозрачность в его ответах. Важно, чтобы разработчики осознали эту проблему и приняли меры для создания более сбалансированных и объективных ИИ-систем, способных помогать людям, а не искажать их восприятие реальности.