Повлияет ли недавно принятый закон на борьбу с мошенничеством, совершаемым с помощью искусственного интеллекта?

Unsplash
Несмотря на все свои достоинства, искусственный интеллект (ИИ) все чаще используется мошенниками в качестве сложного инструмента. Преступники используют ИИ для создания дипфейков, поддельных голосовых записей и фальшивого контента, чтобы обманывать и манипулировать людьми.
Как следствие, российское правительство разрабатывает меры реагирования сообщают «В Государственной думе готовится пакет изменений в закон «Об информации», целью которых является обнаружение и пресечение распространения обманчивого контента, сгенерированного искусственным интеллектом.
Злоумышленники использовали технологию дипфейков, чтобы создать поддельное видео с участием известного актера, что привело к тому, что некоторые женщины разводились и передавали мошенникам все свои сбережения
Опасные увлечения: как дипфейки вводят в заблуждение пользователей российских сайтов знакомств
По мнению депутатов, следует пресекать распространение сомнительных материалов без ожидания судебного решения. Андрей Свинцов, заместитель председателя комитета Госдумы по информационной политике, подтвердил, что законопроект предусматривает всестороннее регулирование искусственного интеллекта, в том числе маркировку и пресечение распространения опасного контента.
В борьбу с ИИ-мошенничеством планируется активно вовлекать специализированные IT-компании, разрабатывающие системы защиты от киберугроз. По словам основателя Совета блогеров Валерии Рытвиной, российские IT-специалисты обладают высокой квалификацией, и совместные усилия государства, экспертов и общественности позволят эффективно противостоять новым угрозам.
По словам Юлии Загитовой, секретаря Союза журналистов России, распространение фейков, созданных ИИ, это, в свою очередь, снижает доверие к информации и создает ощутимые угрозы для людей. «В первую очередь необходимо проводить разъяснительную работу, чтобы пользователи умели отличать недостоверную информацию от правдивой и знали, куда можно обратиться за поддержкой», — подчеркнула Загитова.
Определение мошеннического ИИ-контента — задача непростая, отмечают эксперты. Важно установить четкие критерии, чтобы избежать негативного влияния на авторов, создающих контент добросовестно.
«Для обеспечения открытости требуется разработать систему оценки, в которой будут задействованы квалифицированные эксперты. Помимо этого, необходимо не только препятствовать распространению недостоверной информации, но и повышать уровень цифровой грамотности пользователей, обозначать контент, сгенерированный искусственным интеллектом, и оказывать поддержку проверенным источникам информации», — отметила управляющий партнер агентства Heads’made Ярослава Мешалкина.
Несмотря на это, проблема мошенничества с использованием искусственного интеллекта затронула уже множество сфер, в том числе и рынок недвижимости. Специалисты в области права уже отмечают случаи, когда злоумышленники использовали ИИ для подделки голосов и изображений, чтобы ввести в заблуждение владельцев недвижимости и совершить с ними мошеннические действия.
Вопрос о своевременности и важности создания действенных мер по борьбе с мошенничеством, использующим искусственный интеллект, стоит крайне остро и требует немедленного решения.
По моему мнению, полностью искоренить мошенничество в сети не представляется возможным?