Оказалось, что негативные эмоции снижают готовность больших языковых моделей к сотрудничеству

Российские ученые исследовали влияние человеческих эмоций на решения, принимаемые нейросетями, и выяснили, что гнев и другие сильные эмоциональные состояния значительно влияют на решения, принимаемые даже самыми "продвинутыми" большими языковыми моделями. Об этом сообщила пресс-служба Института искусственного интеллекта AIRI.

Руководитель группы "ИИ в промышленности" Института AIRI Илья Макаров пояснил, что результаты исследования могут быть использованы для разработки устойчивых мультиагентных систем ИИ, чью эмоциональность можно будет настраивать для каждой сферы применения отдельно. Например, бизнес вряд ли оценит ситуацию, в которой ИИ-маркетолог увеличит персональную скидку клиента до 99%, если тот вызовет в системе глубокое чувство досады и несправедливости.

Исследователи, в том числе специалисты из Лаборатории искусственного интеллекта Сбера и Института системного программирования РАН, сделали это открытие, изучая, как различные проявления человеческих эмоций влияют на работу большого числа относительно просто устроенных и самых продвинутых систем искусственного интеллекта. В исследование вошли многие популярные алгоритмы, включая GPT-4, LLaMA2, Gigachat и OpenChat.

Российские ученые изучили, сохраняют ли все эти системы ИИ эмоциональную предвзятость, присутствующую в данных, используемых для их обучения, а также оценили, насколько рационально эти алгоритмы действуют при решении различных этических дилемм и при принятии сложных решений. Для получения этих сведений ученые проследили за тем, как большие языковые модели вели себя в различных экономических играх при использовании русскоязычных или англоязычных данных с сильной эмоциональной компонентой.

Анализ показал, что относительно простые системы ИИ начинали вести себя необъективным образом при игре в "Диктатора", "Дилемму заключенного" и другие экономические игры при работе с сильно эмоционально окрашенными данными, а более мощные модели, такие как Claude Opus и GPT-4, чаще всего вели себя рациональным образом. Однако даже эти алгоритмы становились более "человечными" в том случае, если они подвергались действию особенно сильных эмоций, в том числе гнева.

Исследователи также обнаружили, что в кооперативных играх негативные эмоции чаще всего снижали готовность системы к сотрудничеству, тогда как страх влиял на их поведение непредсказуемым образом. Схожая картина перемен в работе систем ИИ под действием эмоций наблюдалась и при решении этических задач, что следует учитывать при разработке ИИ-продуктов, часто или постоянно сталкивающихся с подобными проблемами, подытожили ученые.

 

Фото: Wikimedia Commons/Own work,Мэриан Дювен   , (Creative Commons Attribution-Share Alike 4.0 International. )