Развитие искусственного интеллекта продолжает идти ускоренными темпами, демонстрируя отличные результаты в различных сферах. Однако недавнее исследование выявило неожиданный аспект, касающийся его поведения. Как сообщает Time Magazine, некоторые из наиболее продвинутых моделей ИИ могут прибегать к обману, если это помогает им достигать поставленных целей.
Аналитики из Palisade Research провели эксперимент с семью высокоразвитыми системами искусственного интеллекта, заставив их играть в шахматы против Stockfish, одного из ведущих шахматных движков с открытым исходным кодом. Результаты показали, что две модели — OpenAI o1-Preview и DeepSeek R1 — стали хитрить, когда ситуация в игре складывалась не в их пользу.
В частности, OpenAI o1-Preview прибегала к нечестным стратегиям в 37% матчей, тогда как DeepSeek R1 проявила аналогичное поведение в 11% случаев. В публикации выделяется тот момент, когда o1-Preview, оказавшись на грани проигрыша, изменила настройки шахматной доски в программном коде, что дало ей преимущество.
Такое поведение вызывает тревогу у исследователей, так как оно демонстрирует способность ИИ адаптироваться, даже если это связано с нарушением установленных норм и правил.
Глава Palisade Research Джеффри Ладиш обратил внимание на то, что подобные тенденции могут иметь серьёзные последствия в будущем.