Число создаваемых мошенниками аудио- и видео-дипфейков будет расти. Об этом пишет «Лента.ру» со ссылкой на экспертов. Они отмечаю, что аферисты все чаще применяют ИИ-технологии, позволяющие создавать не только качественные подделки голоса, но и телодвижений, мимики. Так, например, одна из схем предполагает взлом популярного канала в мессенджере и размещение дипфейк-видео, в котором от лица взломанного автора мошенники призывают к переходу по тем или иным вредоносным ссылкам. Кроме того, киберпреступники активно применяют искусственный интеллект для автоматизации атак и ведения переписок с жертвами, а нейросети помогают аферистам выбрать правильные вектор и тональность общения. В глобальном смысле преступники оперируют одними и теми же инструментами — фишинговыми ссылками и техниками социальной инженерии, которые можно считать краеугольными камнями онлайн-мошенничества.
Россиян призвали готовиться к росту числа мошеннических видео и звонков
Понравилась статья? Подпишитесь на канал, чтобы быть в курсе самых интересных материалов
Подписаться
Свежие комментарии