Блог

Искусственный интеллект изучает социальное поведение через теорию игр

Большие языковые модели (LLMs, Large language models) – продвинутый искусственный интеллект (ИИ), лежащий в основе таких инструментов, как GhatGPT, – всё чаще интегрируются в повседневную жизнь, помогая решать такие задачи, как написание электронных писем, ответы на вопросы или даже поддержка решений в области здравоохранения. Но могут ли эти модели взаимодействовать с другими людьми так же, как это делает обычный человек? Могут ли они воспринимать социальные ситуации, искать компромиссы или устанавливать доверительные отношения? Новое исследование, проведенное учеными из Мюнхенского университета имени Гельмгольца, Института биологической кибернетики имени Макса Планка и Тюбингенского университета, показывает, что несмотря на то, что современный ИИ достиг достаточно высокого уровня, его еще многому предстоит обучить на моделях социального поведения.

Играя в игры, можно понять поведение искусственного интеллекта

Чтобы выяснить, как LLMs ведут себя в социальных ситуациях, учёные применили поведенческую теорию игр – метод, обычно используемый для изучения того, как люди сотрудничают, конкурируют друг с другом и принимают решения. Команда исследователей использовала различные модели искусственного интеллекта, включая GPT-4, для участия в серии игр, предназначенных для моделирования социальных взаимодействий и оценки ключевых факторов, среди которых –справедливость, доверие и сотрудничество.

В итоге, было обнаружено, что GPT-4 отлично справляется с играми, требующими логического мышления, особенно при определении приоритетов собственных интересов. Однако он с трудом справлялся с задачами, требующими коллективной работы и координации, а зачастую вообще с ними не справлялся.

“В некоторых случаях искусственный интеллект оказывался излишне рациональным, причём в своих же интересах”, – сказал доктор Эрик Шульц, ведущий автор исследования. “Он мог мгновенно распознать угрозу или корыстный шаг и отреагировать соответственно, но ему было трудно охватить картину доверия, сотрудничества и компромисса в целом”.

Обучение ИИ социальному мышлению

Чтобы стимулировать более осознанное поведение в социальной сфере, исследователи применили простой подход: они предложили ИИ рассмотреть точку зрения другого игрока, прежде чем принимать собственное решение. Этот метод, называемый социальной цепочкой мышления (SCoT, Social Chain-of-Thought), привел к значительным улучшениям. Благодаря SCoT искусственный интеллект стал более более адаптируемым и эффективным в достижении взаимовыгодных результатов – даже при взаимодействии с реальными игроками-людьми.

“Как только мы научили модель «вести себя социально», она стала гораздо более человечной”, – рассказала Элиф Аката, одна из авторов исследования. “И что интересно, – люди-участники часто не могли понять, что играют с ИИ”.

Применение результатов исследования в медицине и здравоохранении.

Выводы из проведённого исследования уводят далеко за рамки теории игр. Полученные результаты закладывают основу для разработки систем искусственного интеллекта, в большей степени ориентированных на человека, особенно в медицинских учреждениях, где важно социальное мышление. В таких областях, как психическое здоровье, лечение хронических заболеваний и уход за пожилыми людьми, эффективная поддержка зависит не только от точности и предоставления информации, но и от способности ИИ укреплять доверие, интерпретировать социальные сигналы и способствовать сотрудничеству. Моделируя и уточняя социальную динамику, это исследование прокладывает путь к созданию более социально-направленного ИИ, что влечёт значительные последствия для исследований в области здравоохранения и взаимодействия человека и ИИ.

“Это искусственный интеллект, который может побудить пациента продолжать принимать лекарства, поддержать кого-то в трудную минуту или помочь с трудным выбором”, – отметила Элиф Аката.

Источник: ScienceDaily

Image for illustration only. Image source: Freepik.com

Приветствуем! 👋
Приятно познакомиться.

Подпишитесь, чтобы получать наш контент.

Мы не спамим! Прочтите нашу политику конфиденциальности, чтобы узнать больше.