Мошенники освоили нейросети: противостоять обману всё труднее. Как защититься?
Преступники начали генерировать поддельные голосовые сообщения и видео с помощью нейросетей. Распознать подделку очень трудно: для исходника они используют аудиосообщения, отправленные пользователем в мессенджере или соцсети. Как этому противостоять, рассказал разработчик приложений Ваге Закарян агентству «Прайм».
— ИИ использовали в текстовом формате в виде чат-ботов для массовой рассылки потенциальным жертвам. Но сейчас нейросети генерируют не только голос по образцу его владельца, но и создают видео, в которых якобы снимался человек — дипфейки, — поясняет эксперт.
В новой схеме вымогатели используют огромное количество якобы достоверной информации: голосовые сообщения, собранные из фрагментов аудиофайлов владельца аккаунта, данные паспорта и поддельные банковские карты. Чтобы не стать жертвой кибермошенников, специалист советует снизить вероятность взлома аккаунта: сгенерировать сложный пароль, установить двухфакторную аутентификацию, а аудиосообщения и пересланные кому-то персональные данные удалять.
Если вы сомневаетесь, действительно ли знакомый обращается к вам за помощью или мошенники, получившие доступ к его аккаунту, лучше всего позвонить ему напрямую и убедиться, что просьба поступила именно от него. Эксперт уточняет, что искусственный интеллект помогает и бороться со злоумышленниками — в соцсетях ложные сообщения часто даже не доходят до адресатов, поскольку их блокируют алгоритмы.
Ранее в Петрозаводске женщина отдала почти миллион, что защитить свои данные на «Госуслугах».