2.03.2024, 10:00
Оқылды: 61

Дипфейк: digital алаяқтықтың жаңа деңгейі

Соңғы жылдары алаяқтар азаматтарды алдау үшін жаңа технологияларды белсенді қолданады. Дипфейк – бұл кибершабуылдар мен азаматтардың құпия деректерін ұрлаудың тамаша құралы, ол жоқ адамдарды «тірілтуге», кез келген дауысты, мимиканы бұрмалауға, сөйлеуге адам ешқашан айтпаған сөздерді қосуға мүмкіндік береді.

изображение_2024-03-02_091616861

Жоғары технологиялық алаяқтықтың осы түрін Fingramota.kz-пен бірге қарастырайық.

Дипфейк технологиясы ең қуатты нейрондық желілерге негізделген, олардың көмегімен кез келген фото және бейнекескіндерді жасай аласыз, дауыстың тоналдылығы, адамның бет әлпеті сияқты биометриялық деректерді басқаруға болады. Дипфейк арқылы ешқашан болмаған оқиғаларды жасауға, адамға жас қосып, егде адам қылып көрсетуге немесе керісінше, бірнеше ондаған жылдарға бейнесін жасартуға, қайтыс болған актермен фильм түсіруге, фотосуретті жандандыруға болады. Мұны продюсерлер, режиссерлер, маркетологтар, жарнама берушілер және алаяқтар белсенді түрде пайдаланады.

Ресми түрде «Дипфейк» технологиясы 2014 жылы пайда болды деп саналады. Бұл технологияның негізгі алгоритмін Стэнфорд университетінің студенті Ян Гудфеллоу әзірледі, ол қазірдің өзінде жасанды нейрондық желілер мен терең оқыту саласындағы жұмыстарымен танымал американдық ғалым. «Дипфейк»  деген термин «deep learning» деген сөздерден шығады, яғни «терең зерделеу»  және «fake» -  «жалған».

Дипфейк қалай жұмыс істейді?

«Дипфейк» деген ұғым – бұл адамның бет-әлпетін немесе дауысын синтездеуге арналған бірқатар алгоритмдердің нәтижесі. Бұл мәселені шешу үшін қолданылатын негізгі алгоритмдер генеративті-қарсылас желілерге негізделген. Осы инновациялық технология арқылы бар адамды, мимиканы және дауысты көшіруге болады. Бұл технология теледидар мен әлеуметтік желілерде адамның жасанды digital-көшірмесі тележүргізуші мен блогер бола алатын кезде қолданылады.

Дипфейктер (generative adversarial network немесе GAN) деп аталатын терең оқытудың озық әдісі арқылы бар кескіндерді, аудио және бейнелерді бастапқы медиафайлдарға қабаттастыру арқылы жасалады. Басқаша айтқанда, GAN – бұл жасанды интеллект саласындағы инновациялық әдістеме, оның нәтижесі түпнұсқа бейнелерден ерекшеленбейтін жасанды кескіндердің синтезі болып табылады. GAN әдістемесінде бір мезгілде екі нейрондық желі қамтылған: «генератор» деп аталатын бір желі оларды имитациялайтын үлгі жасау үшін деректер жинағын пайдаланады. «Дискриминатор» деп аталатын тағы бір желі генератордың қаншалықты жетістікке жеткенін бағалайды. GAN әдістемесін жақсарту мен жетілдіру одан да шынайы дипфейктердің жасауға әкелді, оларды азаматтар іс жүзінде әшкерелей алмайды.

Генеративті-қарсылас желілердегі алаяқтық – бұл ақпараттық тұрғыдан үлкен қауіп. IT-технологиялар саласындағы әлемдік сарапшылар жақын арада дипфейк елдің қоғамдық-саяси өмірінде теріс із қалдыратын аса маңызды деңгейге жетуі мүмкін деп санайды.

Дипфейкті пайдалана отырып жасалатын алаяқтық тәсілдері

Зиянкестер жеке деректерді, digital-тұлғаны, мысалы жақын туысын, танысын, қоғамдық инфлюенсерді ұрлау үшін, қоғамда жалған ақпарат тарату, қаржылық бопсалау және автоматтандырылған кибершабуылдар жасау үшін дипфейктерді өздерінің жеке мүдделері үшін пайдаланады.

Қаскүнемдер дипфейктердің көмегімен:

- банктік шотқа қол жеткізу, оны қолма-қол ақшаға айналдырып, жалған кредиттер ресімдеу үшін басқа адамның жеке басын қолдан жасайды;

- ірі қаржылық транзакциялар мен күрделі кредиттік алаяқтық схемаларын іске асыру мақсатында өмірде жоқ жаңа «адамды» жасап шығарады.

Сонымен қатар, алаяқтар онлайн-сервистер мен есептік жазбаларға немесе банктік карталар, кредиттер және т.б. қол жеткізу үшін қайтыс болған адамның деректерін пайдаланулары мүмкін.

Дипфейкті қалай танып-білуге болады?

Бірінші кезекте, адамның жасанды мимикасына және көзін біртүрлі жыпылықтатуына не керісінше оның мүлдем жоқтығына,  қисынсыз сөйлемдер құрастыруына, аздап тұтығуына немесе робот іспеттес сөйлеуіне назар аударыңыз. Сізге жасанды болып көрінгеннің барлығына  күдікпен қарау қажет.

Интернетте танымал тұлғаның аса көп күш салмай көп ақша табудың жолын айтатын роликтер көруге болады. Мәселен, алаяқтар өздерінің мақсаттарын жүзеге асыру үшін қарапайым азаматтардың сенімі мен назарын барынша тарта отырып, белгілі және беделді тұлғалардың digital-көшірмелерін пайдаланады. Қаскүнемдер түрлі инвестициялық онлайн-платформаларда ақша табу жолдарын ұсынады, оларға қатысу үшін жалған сайттарда өз деректеріңді қалдырып, ұйымдастырушыларға  шамалы сома аударсаңыз болды деп сендіреді.

Сақ болыңыз, тек алаяқтар ғана үнемі ақша жайлы сөз етіп, сізден аванс, кіру жарнасы, қосымша қызметтер үшін төлем түрінде ақша тартпақшы болады. Бұдан былай олар ойларын тікелей емес, жасанды интеллект арқылы іске асыра алады.

Кейбір сервистер сапасы тым жоғары болмаса да бірнеше секундқа ғана созылатын бір бейненің немесе дауыс жазбасының көмегімен дипфейк-бейне немесе аудио жасаулары мүмкін.

Дипфейкке қарсы іс-қимыл жөніндегі негізгі қауіпсіздік қағидалары:

  • Сізбен байланысқа шынайы адамның шыққанын ажырату үшін оған бірнеше сұрақтар қойыңыз, оның мимикасына, көзіне және қастарына назар аударыңыз. Шын өмірде көлеңке түсетін жерлерге көңіл бөліңіз. Дипфейк табиғи жарықты  көп жағдайда дәл көрсете алмайды;
  • Егер қоңырау соғушылар сізге аты-жөніңізді айтып, сіздің тұрғылықты мекенжайыңызды білетін болса, бұл адамдар ресми тұлғалар дегенді білдірмейді. Барлық қажетті деректерді түрлі тәсілдермен алуға болады, қазіргі уақытта деректерді интернеттен алу ешбір қиындыққа соқпайды;
  • Міндетті түрде қызметкердің аты-жөні мен лауазымын сұраңыз және оны қайта тексеру үшін олардың өкіліміз деген ұйымның байланыс орталығына қоңырау соғыңыз;
  • Егер телефоныңызда жақын адамның нөмірі шықса, алайда оның дауысы ақырын шығып, қиын жағдайға тап болдым, одан шығу үшін ақша аудару қажет деп сұраса, әңгімені доғарып, оған өзіңіз қоңырау шалыңыз;
  • Ешбір жағдайда және ешкімге дербес деректеріңізді, банк картаңыздың толық деректемелерін, соның ішінде картаның қолданыс мерзімін, CVC/CVV кодын, сондай-ақ код сөзін және картадағы ақша қаражатының қалдығын айтпаңыз;

Азаматтардың назарын соңғы уақытта бұл технологияның қарқынды дамып, күш алып келе жатқанына аударамыз.  Кибералаяқтардың күн сайын ойлап шығаратын технологияларының көмегімен тіпті инновациялық және цифрлық технологияның дәуірімен бірге өскен заманауи ұрпақтың өзін алдау қиынға соқпайды.

Алаяқтықтың бұл түрі жөнінде туыстарыңызға және жақындарыңызға, әсіресе егде жастағы адамдарға айтыңыз.

Fingramota.kz

Узнайте первым о важных новостях Западного Казахстана на нашей странице
в Instagram и нашем Telegram - канале