В последние годы мошенники активно используют новые технологии для обмана граждан. Дипфейк является идеальным инструментом для совершения кибератак и кражи конфиденциальных данных граждан, который позволяет «оживить» несуществующих людей, подделать любой голос, мимику, добавить в речь слова, которые человек никогда не произносил.
Давайте рассмотрим данный вид высокотехнологического мошенничества вместе с Fingramota.kz.
Технология дипфейков основана на мощнейших нейросетях, с помощью которых можно генерировать любые фото- и видеоизображения, манипулировать такими биометрическими данными, как тональность голоса, выражение лица человека. Посредством дипфейка можно создавать события, которые никогда не происходили, добавить возраст человеку, или, наоборот, сбросить ему несколько десятков лет, доснять фильм с актером, которого нет в живых, «оживить» фотографию. И этим активно пользуются продюсеры, режиссеры, маркетологи, рекламщики и … мошенники.
Официально принято считать, что технология «Дипфейк» появилась в 2014 году. Базовый алгоритм данной технологии разработал студент Стэнфордского университета Ян Гудфеллоу, который уже является американским ученым, наиболее известным своими работами в области искусственных нейронных сетей и глубокого обучения. Термин «дипфейк» происходит от слов «deep learning», то есть «глубокое изучение» и «fake» - «подделка».
Как работает дипфейк?
Понятие «Дипфейк» — это результат работы ряда алгоритмов для синтеза изображений человеческого лица или голоса. Основные алгоритмы, применяемые для решения данной задачи основаны на генеративно-состязательных сетях. Посредством данной инновационной технологии можно копировать существующего человека, мимику и голос. Данная технология применяется на телевидении и в социальных сетях, когда искусственная digital-копия человека может скопировать телеведущего и блогера.
Дипфейки создаются путем наложения существующих изображений, аудио и видео на исходные медиафайлы с помощью передового метода глубокого обучения под названием (generative adversarial network, или GAN). Другими словами, GAN — это инновационная методика в области искусственного интеллекта, результатом которой является синтез искусственных изображений, неотличимых от подлинных. В методике GAN одновременно задействованы две нейросети: одна сеть, называемая «генератор», использует набор данных для создания образца, имитирующего их. Другая сеть, известная как «дискриминатор», оценивает, насколько генератору это удалось. Необходимо отметить, улучшение и совершенствование методики GAN привело к созданию ещё более реалистичных дипфейков, которые практически невозможно разоблачить гражданам.
Мошенничество с использованием генеративно-состязательных сетей – это серьезная угроза в информационном плане. Мировые эксперты в области IT-технологий считают, что уже в ближайшем будущем дипфейк может выйти на более серьезный уровень, который нанесет негативный след в общественно-политической жизни страны.
Способы мошенничества с использованием дипфейк
Злоумышленники в своих корыстных целях используют дипфейки для кражи персональных данных, digital-личности, к примеру, близкого родственника, знакомого, общественного инфлюенсера, распространения ложной информации в обществе, финансового шантажа и автоматизированных кибер-атак.
С помощью дипфейков злоумышленники:
- подделывают чужую личность для того, чтобы получить доступ к банковскому счету, обналичить его и оформить подставные кредиты;
- синтезируют нового «человека», которого не существует в природе, используя его для совершения крупных финансовых транзакций и изощренных схем кредитного мошенничества.
Также мошенники могут использовать данные ушедшего из жизни человека для получения доступа к его онлайн-сервисам и учетным записям или для подачи заявок на банковские карты, кредиты и т.д.
Как распознать дипфейк?
В первую очередь обратите внимание на неестественную мимику человека и на странное моргание, либо его отсутствие, нелогично выстроенную речь, легкое заикание или роботизированный тон. Ко всему, что кажется вам неестественным, вы должны отнестись с подозрением.
В интернете можно увидеть ролики, в котором публичная личность предлагает вам заработать много денег при минимальных усилиях. К примеру, мошенники используют digital-копию известных и авторитетных личностей для осуществления своих корыстных целей, путем привлечения максимального количества внимания и доверия простых граждан. Злоумышленники активно предлагают заработать на различных инвестиционных онлайн-платформах, для участия в которых нужно оставить свои данные на фейковых сайтах и перечислить организаторам небольшие суммы.
Будьте аккуратны, только мошенники заводят речь о деньгах и хотят получить от вас деньги в виде аванса, вступительного взноса, платы за дополнительные услуги. Теперь они могут делать это не напрямую, а через искусственный интеллект. Некоторые сервисы могут создать дипфейк-видео или аудио, пусть и не очень хорошего качества, только с помощью одного изображения или голосовой записи длиной в несколько секунд.
Основные правила безопасности по противодействию дипфейку:
Обращаем особое внимание граждан, что в последнее время данная технология прогрессирует и набирает обороты. С помощью технологии генеративно-состязательных сетей кибермошенники могут легко обмануть даже нынешнее поколение, которое выросло в эпоху активного роста инновационных и цифровых технологий.
Расскажите о данном виде мошенничества родным и близким, особенно пожилого возраста.
Fingramota.kz