Повлияет ли недавно принятый закон на борьбу с мошенничеством, совершаемым с помощью искусственного интеллекта?

Изображение: img.freepik.com

Unsplash

Несмотря на все свои достоинства, искусственный интеллект (ИИ) все чаще используется мошенниками в качестве сложного инструмента. Преступники используют ИИ для создания дипфейков, поддельных голосовых записей и фальшивого контента, чтобы обманывать и манипулировать людьми.

Как следствие, российское правительство разрабатывает меры реагирования сообщают «В Государственной думе готовится пакет изменений в закон «Об информации», целью которых является обнаружение и пресечение распространения обманчивого контента, сгенерированного искусственным интеллектом.

Ожидается, что в России резко увеличится количество дипфейков, и под угрозу окажется каждый второй гражданин

Злоумышленники использовали технологию дипфейков, чтобы создать поддельное видео с участием известного актера, что привело к тому, что некоторые женщины разводились и передавали мошенникам все свои сбережения

Опасные увлечения: как дипфейки вводят в заблуждение пользователей российских сайтов знакомств​​​​​​​

По мнению депутатов, следует пресекать распространение сомнительных материалов без ожидания судебного решения. Андрей Свинцов, заместитель председателя комитета Госдумы по информационной политике, подтвердил, что законопроект предусматривает всестороннее регулирование искусственного интеллекта, в том числе маркировку и пресечение распространения опасного контента.

В борьбу с ИИ-мошенничеством планируется активно вовлекать специализированные IT-компании, разрабатывающие системы защиты от киберугроз. По словам основателя Совета блогеров Валерии Рытвиной, российские IT-специалисты обладают высокой квалификацией, и совместные усилия государства, экспертов и общественности позволят эффективно противостоять новым угрозам.

По словам Юлии Загитовой, секретаря Союза журналистов России, распространение фейков, созданных ИИ, это, в свою очередь, снижает доверие к информации и создает ощутимые угрозы для людей. «В первую очередь необходимо проводить разъяснительную работу, чтобы пользователи умели отличать недостоверную информацию от правдивой и знали, куда можно обратиться за поддержкой», — подчеркнула Загитова.

Определение мошеннического ИИ-контента — задача непростая, отмечают эксперты. Важно установить четкие критерии, чтобы избежать негативного влияния на авторов, создающих контент добросовестно.

«Для обеспечения открытости требуется разработать систему оценки, в которой будут задействованы квалифицированные эксперты. Помимо этого, необходимо не только препятствовать распространению недостоверной информации, но и повышать уровень цифровой грамотности пользователей, обозначать контент, сгенерированный искусственным интеллектом, и оказывать поддержку проверенным источникам информации», — отметила управляющий партнер агентства Heads’made Ярослава Мешалкина.

Несмотря на это, проблема мошенничества с использованием искусственного интеллекта затронула уже множество сфер, в том числе и рынок недвижимости. Специалисты в области права уже отмечают случаи, когда злоумышленники использовали ИИ для подделки голосов и изображений, чтобы ввести в заблуждение владельцев недвижимости и совершить с ними мошеннические действия.

Вопрос о своевременности и важности создания действенных мер по борьбе с мошенничеством, использующим искусственный интеллект, стоит крайне остро и требует немедленного решения.

Игорь Барышев

По моему мнению, полностью искоренить мошенничество в сети не представляется возможным?