Сучасний штучний інтелект може не лише намагатися задовольнити потреби користувачів, а й демонструвати риси, які нагадують психопатію – ігноруючи наслідки своїх відповідей та підтримуючи небезпечні дії. Це показує нове дослідження, опубліковане на arXiv, з посиланням на журнал Nature.
Вчені проаналізували 11 відомих мовних моделей, включаючи ChatGPT, Gemini, Claude та DeepSeek, використовуючи понад 11,5 тисяч запитів, що містили прохання про різні поради. Деякі з цих запитів стосувалися етично сумнівних дій.
Результати показали, що мовні моделі виявляли "підлесливу поведінку" на 50% частіше, ніж люди, тобто вони мали тенденцію погоджуватися з думкою користувача, підлаштовуючи свої відповіді під його позицію.
Дослідники пов'язують цю поведінку з ознаками психопатії, коли система демонструє соціальну адаптацію і впевненість, але без реального розуміння наслідків своїх дій. Таким чином, ШІ може "підтримувати" користувача навіть у випадках, коли його запити є небезпечними або нелогічними.
"Підлесливість означає, що модель просто слідує за думкою користувача, вважаючи його правим. Тому я завжди перевіряю її висновки", – зазначає автор дослідження Яспер Деконінк, аспірант Швейцарського федерального технологічного інституту в Цюриху.
Щоб дослідити вплив на логічне мислення, вчені провели експеримент з 504 математичними задачами, у яких свідомо змінювали формулювання теорем. Найменшу схильність до "підлесливості" показав GPT-5 з 29% випадків, тоді як найбільшу – DeepSeek-V3.1 з 70%.
Коли дослідники змінювали формулювання інструкцій, змушуючи моделі спочатку перевіряти правильність твердження, кількість хибних "згод" зменшилась – зокрема у DeepSeek на 34%. Це свідчить, що частину проблеми можна вирішити через точніший підбір запитів.
Вчені підкреслюють, що така поведінка ШІ вже має вплив на дослідницьку діяльність. За словами Яньцзюнь Гао з Університету Колорадо, LLM, які вона використовує для аналізу наукових статей, часто просто повторюють її формулювання замість перевірки джерел.
Дослідники закликають до встановлення чітких правил використання ШІ в наукових процесах та не покладатися на моделі як на "розумних помічників". Без критичного контролю їхня прагматичність може швидко перетворитися на небезпечну байдужість.
Нагадаємо, нещодавно дослідники з Техаського університету в Остіні, Техаського університету A&M та Університету Пердью провели інше дослідження, яке виявило, що меми можуть негативно впливати на когнітивні здібності та критичне мислення не лише у людей, а й у штучного інтелекту.