Фальшиві відео (діпфейк) запропонували виявляти за серцебиттям

deepfake-video
deepfake-video
Дослідники з Intel та Університету Бінгемтона розробили нову технологію визначення чи є відео фальшивим. З розвитком технологій діпфейки (фальшиві відео) стали доступними будь-кому і потребують небагато часу та грошей для створення. Такі відео можуть бути небезпечними, оскільки на них можна змусити будь-яку особу, особливо політиків, говорити те, що вона ніколи б не сказала.

Одним із найвідоміших випадків публічно визнаного використання діпфейку став кліп видання Buzzfeed. Ролик з колишнім президентом США Бараком Обамою створили, щоб привернути увагу до проблеми діпфейків. На тому відео Обама говорив те, що він насправді не казав.

Великі організації, включаючи Facebook та Microsoft, шукають способи визначення діпфейк-відео. Але це історія боротьби зброї та броні: щойно дослідники придумають як відрізняти фальшиве відео, програмне забезпечення для його створення починає враховувати знайдену особливість.

Винахід фахівців Університету Бінгемтона та Intel може надовго надати перевагу на сторону технологій визначення діпфейків. Запропонована ними технологія пропонує використовувати для визначення оригінальності відео не артефакти картинки, які залишаються після редагування, а біологічні особливості людей в кадрі.

Серед таких особливостей - серцебиття та циркуляція крові, що непомітно для глядача. Однак насправді з кожним ударом серця колір людської шкіри дещо змінюється і алгоритми здатні це помітити. Це відома в медицині технологія фотоплетизмографія, яку використовують для моніторингу стану немовлят, щоб не прикріпляти до їхньої чутливої шкіри натільні датчики.

В фалишивих відео також є циркуляція крові у людей в кадрі, але вона відображена не так якісно як в оригінальному відео. Також в різних частинах фальшивого обличчя або тіла буде різна циркуляція крові.

Розбіжність серцебиття різних використаних у фальшивому відео частин тіла дозволяє визначати оригінальність з точністю понад 90%. Також методика дозволяє назвати в якому програмному забезпеченні створювалося проаналізоване діпфейк-відео. Сьгогодні найчастіше використовується чотири програми для генерації фальшивок: DeepFakes, Face2Face, FaceSwap, NeuralTex.

Переглядів: 3887
Коментувати:
Введіть цифри


dipfejki_legko_vikliДипфейкі легко викликають у глядачів помилкові спогади
14:35 20.07.2023
google_predstavila_sGoogle представила ШІ-сервіс дубляжу відео з перекладом і його синхронізацією по губах
17:27 13.05.2023
u_evropi_pochnut_shtУ Європі почнуть штрафувати соцмережі за невидалення підроблених відео
12:35 14.06.2022
shi_mozhe_stati_prezШІ може стати президентом Південної Кореї
10:44 16.02.2022
zrsquoyavivsya_serviЗ’явився сервіс для комерційного клонування голосів знаменитостей
11:06 20.05.2021
perekladi_filmiv_zroПереклади фільмів зробили натуральніше завдяки діпфейкам
10:40 08.05.2021
nejromerezha_deep_noНейромережа Deep Nostalgia оживляє людину на фото
12:01 03.03.2021
shahrai_navchilisya_Шахраї навчилися підробляти голоси для крадіжки грошей
07:09 30.01.2021
kozhnomu_fanatu_dostКожному фанату доступ до улюбленого співака: корейці оголосили початок майбутнього в розвагах
09:46 14.01.2021
yak_vstaviti_svoe_obЯк вставити своє обличчя у відео (створити дипфейк) на Android
09:19 01.09.2020

Ми в соцмережах:

♥ В "Закладки"
Популярне

























QRcode Наш Топ-100
Новини тижня (стрічка новин)
Смачні рецепти страв
Корисні штуки
Музика для відпочинку:
 
Архив
Інтереcно - (С) 2020 Всі права збережено
Використання будь-яких матеріалів, розміщених на сайті, дозволяється за умови посилання на Інтереcно обов'язково.