Daily News

Мошенники освоили нейросети: противостоять обману всё труднее. Как защититься?

Фото: нейросеть

Преступники начали генерировать поддельные голосовые сообщения и видео с помощью нейросетей. Распознать подделку очень трудно: для исходника они используют аудиосообщения, отправленные пользователем в мессенджере или соцсети. Как этому противостоять, рассказал разработчик приложений Ваге Закарян агентству «Прайм».

— ИИ использовали в текстовом формате в виде чат-ботов для массовой рассылки потенциальным жертвам. Но сейчас нейросети генерируют не только голос по образцу его владельца, но и создают видео, в которых якобы снимался человек — дипфейки, — поясняет эксперт.

В новой схеме вымогатели используют огромное количество якобы достоверной информации: голосовые сообщения, собранные из фрагментов аудиофайлов владельца аккаунта, данные паспорта и поддельные банковские карты. Чтобы не стать жертвой кибермошенников, специалист советует снизить вероятность взлома аккаунта: сгенерировать сложный пароль, установить двухфакторную аутентификацию, а аудиосообщения и пересланные кому-то персональные данные удалять.

Если вы сомневаетесь, действительно ли знакомый обращается к вам за помощью или мошенники, получившие доступ к его аккаунту, лучше всего позвонить ему напрямую и убедиться, что просьба поступила именно от него. Эксперт уточняет, что искусственный интеллект помогает и бороться со злоумышленниками — в соцсетях ложные сообщения часто даже не доходят до адресатов, поскольку их блокируют алгоритмы.

Ранее в Петрозаводске женщина отдала почти миллион, что защитить свои данные на «Госуслугах».

РЕКЛАМА
ООО "ПРОФИ.РУ", ИНН 7714396093, erid: 2VtzqwQet7H
Коротко о главном – в нашем Telegram