Този сайт използва бисквитки (cookies). Ако желаете можете да научите повече тук. Разбрах

Новини ИТ сигурност

Как и защо работят фалшивите видео клипове?

Фалшивите видео клипове поставят лицата на знаменитостите в порно филми и приписват думи на политиците, но те могат да доведат до още по-страшни последствия

от , 06 август 2018 0 863 прочитания,

Как и защо работят фалшивите видео клипове?

Така наречените deepfakes представляват фалшиви аудио или видео записи, които изглеждат и звучат като истински. И ако преди подобни решения се използваха предимно от разузнавателните агенции и холивудските студия за специални ефекти, днес всеки може да си свали такъв софтуер и да създаде убедителни фалшиви видео клипове в свободното си време.

До момента deepfakes основно се използваха за това да се поставят лицата на знаменитостите в порно филми и да се припишат думи на политиците. Въпреки това би било също толкова лесно да се създаде фалшиво видео за предупреждение за незабавна атака или да се промени изборния вот като се пусне клип или запис с един от кандидатите само дни преди гласуването.

Прочетете още: Кибератаките - по-усъвършенствани и често дирижирани отвън

Това определено звучи плашещо, а Марко Рубио – сенатор от Републиканската партия от Флорида и кандидат за президент през 2016 – ги определи като модерен еквивалент на ядрените оръжия. „Преди, ако искахте да заплашите САЩ, то щяха да са ви нужни 10 самолетоносача, ядрени оръжия и ракети с дълъг обсег. Днес ви трябва само достъп до нашата интернет система, до нашата банкова система и до електоралната структура, както и способност да създавате изключително реалистични фалшиви видео клипове. Така могат да се компрометират изборите, страната да бъде хвърлена в ужасна вътрешна криза и това ще ни отслаби“.

Как работят фалшивите видео клипове?

Ако видите нещо с очите си, то обикновено го приемате за достатъчно достоверно. Хората обаче често търсят такава информация, която подкрепя това, в което те биха искали да вярват и игнорират всичко останало.

Тази склонност дава огромна власт на злонамерените актьори. Това вече се вижда с дезинформацията (така наречените „фалшиви новини“), които създават умишлени лъжи, които се разпространяват като истина.

Как и защо работят фалшивите видео клипове?

Deepfakes също използват това чрез генеративна състезателна мрежа (GAN – Generative Adversarial Network), в която два модела за машинно обучение се противопоставят. Единият модел се обучава чрез набор от данни и след това създава фалшифицирани видео клипове, докато другият се опитва да открие заблудите. Колкото по-голям е наборът от данни за обучение, толкова по-лесно е за фалшификатора да създаде клип, който изглежда достоверно.

Кой е заплашен?

Способността да се фалшифицират новини вече е достъпна за всеки един потребител, който има лаптоп.

Разбира се, GAN може да се използва за доста други неща – мрежата е голяма крачка напред към това, което е известно като „неконтролирано обучение“ (unsupervised learning), когато моделите се обучават сами. Това може да подобри значително способността на автономните превозни средства да разпознават пешеходците и колоездачите и да позволи на гласовите асистенти като Аlexa и Siri да водят истински разговори. Някои определят генеративните състезателни мрежи като възхода на „AI въображението“.

Обикновените потребители могат да свалят FakeApp и да започнат да създават свои собствени фалшиви видео клипове на момента. Използването на приложението не е особено лесно, но за онези, които имат малко опит, няма да бъде сложно.

Според някои специалисти днес има и доста по-евтини начини да се заблуди обществото, без да се използва дълбочинно или машинно обучение. Например, снимането на видео клип, в който хора бият някого на улицата, и създаването след това фалшива история – с твърдението, че нападателите са имигранти в САЩ – не изисква сложни алгоритми, а само история и видео запис, които изглеждат и звучат достоверно.

Как да се идентифицират deepfakes

Идентифицирането на deepfakes е доста трудно. Аматьорските фалшиви клипове, могат лесно да бъдат разпознати с невъоръжено око. Други белези, които машините могат да забележат са липсата на мигане или сянка, която не изглежда правилно. Генеративните състезателни мрежи, които създават фалшиви видео клипове, стават обаче все по-добри с времето и скоро ще трябва да се разчита само на дигиталните методи за откриването им – ако въобще е възможно да бъдат открити.

Това представлява толкова сложен проблем, че DARPA (Defense Advanced Research Projects Agency) – американската агенция към Департамента по отбраната на САЩ – инвестира големи суми, за да открие по-добри начини за идентифицирането на подобни видео клипове. Въпреки това, тъй като GAN мрежите могат сами да се обучават как да избегнат подобно разпознаване, не е ясно дали тази битка може да бъде спечелена. На теория, ако GAN получи всички техники, които знаем за откриване, те мрежата ще може да ги преодолее, обясняват експертите от DARPA.

Ако не можем да различаваме фалшивите видео клипове, ние скоро ще бъдем принудени да се съмняваме във всичко, което чуем и видим, предупреждават критиците. Интернетът обхваща всеки един аспект от нашия живот и неспособността да се доверяваме може да доведе до „края на истината“. Това заплашва не само вярата в нашата политическа система, но в дългосрочен план и в споделената обективна реалност. Ако не можем да се съгласим за това какво е истина и какво не е, то как въобще ще можем да обсъждаме политически въпроси.

В края на краищата – еуфорията около deepfakes може да се окаже най-добрата защита, с която разполагаме. Ако знаем, че видео клиповете могат да са фалшиви по някакъв начин, то това ще бъде достатъчен удар срещу разпространението на deepfakes.

КОМЕНТАРИ ОТ  

Полезни страници
    За нас | Аудитория | Реклама | Контакти | Общи условия | Декларация за поверителност | Политика за бисквитки |
    Действителни собственици на настоящото издание са Иво Георгиев Прокопиев и Теодор Иванов Захов