Щороку кількість відео Deepfake зростає на 900 відсотків

Кількість Deepfake відео зростає з кожним роком
Щороку кількість відео Deepfake зростає на 900 відсотків

Згідно з даними Всесвітнього економічного форуму (WEF), кількість дипфейків в Інтернеті щорічно зростає на 900%. Кілька відомих випадків шахрайства з глибокими фейками потрапили в заголовки новин із повідомленнями про переслідування, помсту та криптошахрайство. Дослідники Kaspersky проливають світло на три найбільші схеми шахрайства з використанням глибоких фейків, яких користувачам слід остерігатися.

Використання штучних нейронних мереж, глибокого навчання та, отже, методів обману deepfake дозволяє користувачам у всьому світі цифрово змінювати свої обличчя чи тіла, таким чином створюючи реалістичні зображення, відео та аудіоматеріали, де кожен може виглядати як хтось інший. Ці підроблені відео та зображення часто використовуються для поширення дезінформації та інших зловмисних цілей.

фінансове шахрайство

Deepfakes можуть бути предметом методів соціальної інженерії, які використовують зображення, створені злочинцями, щоб видавати себе за знаменитостей, щоб заманити жертв у свої пастки. Наприклад, минулого року швидко поширилося штучно створене відео Ілона Маска, який обіцяє високі прибутки від сумнівної схеми інвестування криптовалюти, через що користувачі втратили гроші. Шахраї використовують зображення знаменитостей, щоб створювати підроблені відео, як це, зшиваючи старі відео та запускаючи прямі трансляції на платформах соціальних мереж, обіцяючи подвоїти будь-які надіслані їм платежі в криптовалюті.

порнографічний дипфейк

Ще одне використання дипфейків – це порушення конфіденційності особи. Відео Deepfeke можна створювати шляхом накладення обличчя людини на порнографічне відео, що завдає великої шкоди та страждань. В одному випадку в мережі з’явилися відео-дипфейки, в яких обличчя деяких знаменитостей накладалися на тіла порноактор у відвертих сценах. Як наслідок, у таких випадках завдається шкода репутації жертв нападів та порушуються їхні права.

Бізнес ризики

Часто дипфейки використовуються для нападу на бізнес для таких злочинів, як вимагання з керівників компаній, шантаж і промислове шпигунство. Наприклад, за допомогою голосового дипфейку кіберзлочинцям вдалося обдурити менеджера банку в ОАЕ та викрасти 35 мільйонів доларів. У розглянутому випадку для створення переконливого дипфейку знадобився лише невеликий запис голосу його боса. В іншому випадку шахраї намагалися обдурити найбільшу криптовалютну платформу Binance. Керівник Binance сказав «Дякую!» про зустріч у Zoom, на якій він ніколи не був. Він був здивований, коли йому почали приходити повідомлення. Зловмисникам вдалося створити діпфейк із публічними зображеннями керівника та реалізувати його, виступаючи від імені керівника на онлайн-зустрічі.

ФБР попереджає менеджерів з персоналу!

Загалом, цілі шахраїв, які використовують дипфейки, включають дезінформацію та публічне маніпулювання, шантаж і шпигунство. Відповідно до попередження ФБР, керівники кадрових відділів уже попереджають про використання дипфейків кандидатами, які подають заявки на віддалену роботу. У випадку з Binance зловмисники використовували зображення реальних людей з Інтернету для створення дипфейків і навіть додавали їхні фотографії в резюме. Якщо їм вдасться таким чином обдурити менеджерів з персоналу, а потім отримати пропозицію, вони можуть згодом викрасти дані роботодавця.

Deepfakes продовжує залишатися дорогою формою шахрайства, яка потребує великого бюджету та зростає у кількості. Попереднє дослідження Касперського показує вартість дипфейків у темній мережі. Якщо звичайний користувач знаходить програмне забезпечення в Інтернеті і намагається його підробити, результат буде нереальним, а шахрайство очевидним. У неякісний діпфейк мало хто вірить. Він відразу може помітити затримку міміки або нечітку форму підборіддя.

Тому кіберзлочинцям для підготовки до атаки потрібні великі обсяги даних. Ставте лайки до фотографій, відео та голосів особи, яку вони хочуть видати. Різні ракурси, яскравість світла, міміка – усе це відіграє велику роль у кінцевій якості. Щоб результат був реалістичним, потрібна сучасна потужність комп’ютера та програмне забезпечення. Все це вимагає великої кількості ресурсів, і лише невелика кількість кіберзлочинців має доступ до цього ресурсу. Таким чином, deepfake все ще залишається надзвичайно рідкісною загрозою, незважаючи на небезпеку, яку він може становити, і лише невелика кількість покупців може собі це дозволити. В результаті ціна однохвилинного дипфейка починається від 20 XNUMX доларів.

«Іноді репутаційні ризики можуть мати дуже серйозні наслідки»

Дмитро Анікін, старший фахівець з безпеки Kaspersky, каже: «Однією з найсерйозніших загроз, які Deepfake становить для бізнесу, не завжди є крадіжка корпоративних даних. Іноді репутаційні ризики можуть мати дуже серйозні наслідки. Уявіть собі відео, на якому ваш менеджер робить суперечливі зауваження на (очевидно) делікатні теми. Для компанії це може призвести до стрімкого падіння цін на акції. Однак, хоча ризики такої загрози надзвичайно високі, шанси бути зламаним таким чином надзвичайно низькі через вартість створення deepfake, і дуже небагато зловмисників можуть створити високоякісний deepfake. Що ви можете зробити з цим, так це знати про ключові особливості deepfake відео та скептично ставитися до голосової пошти та відео, які надходять до вас. Також переконайтеся, що ваші співробітники розуміють, що таке дипфейк і як вони можуть його помітити. Наприклад, такі ознаки, як різкі рухи, зміни тону шкіри, дивне моргання або відсутність моргання, будуть показовими».

Постійний моніторинг ресурсів даркнету дає цінну інформацію про індустрію глибоких фейків, дозволяючи дослідникам стежити за останніми тенденціями та діяльністю загрозливих акторів у цьому просторі. Відстежуючи даркнет, дослідники можуть виявити нові інструменти, сервіси та ринки, які використовуються для створення та поширення дипфейків. Цей тип моніторингу є критично важливим компонентом дослідження deepfake і допомагає нам покращити наше розуміння ландшафту загроз, що розвивається. Служба Kaspersky Digital Footprint Intelligence включає цей тип моніторингу, щоб допомогти своїм клієнтам залишатися на крок попереду, коли мова йде про загрози, пов’язані з deepfake.