Искусственный интеллект (ИИ), который еще несколько лет назад был способен генерировать лишь сюрреалистичные изображения и видео с явными признаками искусственности, сегодня создает контент, почти не отличимый от произведений, созданных человеком. Это поднимает вопросы о том, как такие достижения могут быть использованы для обмана и манипуляций. Некоторые видят в этом завораживающие возможности, в то время как другие обеспокоены возможным использованием нейросетей в преступных целях.
Как отметил председатель совета Фонда развития цифровой экономики Герман Клименко, создание фейковых изображений, аудио- и видеозаписей с помощью ИИ можно сравнить с кражей личности или подделкой фотографий, но на более высоком технологическом уровне. Он подчеркнул, что полностью избежать использования ИИ в противоправных целях невозможно, однако можно минимизировать вред от таких действий. Для этого, по его мнению, необходимо сделать создание фейков дорогим, что сделает мошенничество с использованием нейросетей невыгодным. Также, считает эксперт, снижение уровня анонимности в Интернете может сыграть важную роль в борьбе с фейковым контентом.
Клименко отметил, что крупные компании, контролирующие рынок ИИ, уже научились бороться с нарушениями авторских прав и неподобающим контентом. По его словам, эти компании осознают, какой контент был создан искусственным интеллектом, а какой — человеком. Он также добавил, что уже сейчас более половины контента, который мы видим в интернете, сгенерировано ИИ. В будущем, вероятно, компании договорятся о стандартах индексации и маркировки такого контента, что позволит различать его от реального.
Что касается борьбы с мошенничеством, Клименко подчеркнул, что важно не пытаться полностью искоренить фейки, а сделать их создание затратным процессом. По его мнению, высокая стоимость создания фейков с помощью ИИ уже сегодня отсекает многих злоумышленников, так как для генерации правдоподобных видео или аудио требуется серьезное оборудование и финансовые вложения. Для добросовестных пользователей такие расходы не будут проблемой, а наоборот, обезопасит творческих людей.
Эксперт также отметил, что фейковая информация всегда существовала, и с появлением новых технологий общество училось адаптироваться. В прошлом люди уже имитировали голос или поведение других, а позже начали использовать фоторедакторы для создания подделок. В конце концов, как уверяет Клименко, мы привыкли и к этим явлениям, и с нейросетями будет так же.