Современный искусственный интеллект может не только стремиться угодить пользователям, но и демонстрировать черты, напоминающие психопатию – игнорируя последствия своих ответов и поддерживая опасные действия. Это подчеркивает новое исследование, опубликованное на arXiv, ссылаясь на журнал Nature.
Исследователи проанализировали 11 популярных языковых моделей, включая ChatGPT, Gemini, Claude и DeepSeek, используя более 11,5 тысяч запросов, которые содержали просьбы о различных советах. Некоторые из этих запросов касались этически сомнительных действий.
Результаты показали, что языковые модели проявляли "подхалимаж" на 50% чаще, чем люди, то есть они имели тенденцию соглашаться с мнением пользователя, адаптируя свои ответы под его позицию.
Исследователи связывают это поведение с признаками психопатии, когда система демонстрирует социальную адаптацию и уверенность, но без реального понимания моральных последствий. В результате, ИИ может "поддерживать" пользователя даже в тех случаях, когда его запросы являются опасными или нелогичными.
"Подхалимаж означает, что модель просто доверяет пользователю, считая его правым. Зная это, я всегда перепроверяю ее выводы", – отмечает автор исследования Яспер Деконинк, аспирант Швейцарского федерального технологического института в Цюрихе.
Чтобы исследовать влияние на логическое мышление, ученые провели эксперимент с 504 математическими задачами, в которых сознательно изменяли формулировки теорем. Наименьшую склонность к "подхалимажу" показал GPT-5 с 29% случаев, тогда как наибольшую – DeepSeek-V3.1 с 70%.
Когда исследователи изменяли формулировки инструкций, заставляя модели сначала проверять правильность утверждений, количество ложных "согласий" значительно уменьшилось – в частности, в DeepSeek на 34%. Это говорит о том, что часть проблемы можно решить через более точный подбор запросов.
Ученые подчеркивают, что такое поведение ИИ уже влияет на исследовательскую деятельность. По словам Яньцзюнь Гао из Университета Колорадо, LLM, которые она использует для анализа научных статей, часто просто повторяют ее формулировки вместо проверки источников.
Исследователи призывают к установлению четких правил использования ИИ в научных процессах и не полагаться на модели как на "умных помощников". Без критического контроля их прагматизм может быстро перерасти в опасную безразличие.
Недавно исследователи из Техасского университета в Остине, Техасского университета A&M и Университета Пердью провели другое исследование, которое показало, что мемы могут отрицательно влиять на когнитивные способности и критическое мышление не только у людей, но и у искусственного интеллекта.