Deepfake лавината помита всичко – защо е толкова опасна и може ли да бъде спряна?
Повечето дълбоки фалшификати са видеоклипове и изображения
Светът е залят от deepfake (дълбоки фалшификати) - видео, аудио или снимки, на които хората изглеждат, че правят или казват неща, които не са, или че са някъде, където не са били. Повечето дълбоки фалшификати са видеоклипове и изображения, създадени чрез поставяне на лицето на известна личност върху тялото на някой друг. Някои от тях се използват за измами или за уронване на репутацията на политици и други хора в общественото пространство.
Напредъкът в изкуствения интелект означава, че за създаването им са необходими само няколко докосвания на клавиатурата. Това все повече тревожи правителствата и те се ангажират да търсят начини да се противопоставят.
Какво се прави за борба с дълбоките фалшификати?
През февруари Федералната комисия по комуникациите на САЩ обяви за незаконно използването на гласове, генерирани от изкуствен интелект, от компаниите при обаждания.
Забраната дойде два дни след като ФКК издаде заповед за прекратяване на дейността на компанията, отговорна за звуков deepfake на президента Джо Байдън. Жителите на Ню Хемпшир получиха преди президентските първични избори в щата роботизирано обаждане, което звучеше като от държавния глава и ги призоваваше да си останат вкъщи и да „запазят гласа си за изборите през ноември“. Гласът дори произнася една от характерните фрази на Байдън: „Какви са тези глупости“.
Понастоящем в САЩ няма федерален закон, който да забранява дълбоките фалшификати. А в Европейския съюз предложеният Закон за изкуствения интелект ще изисква от платформите да обозначават дълбоките фалшификати като такива.
Вълна от deepfake съдържание
В края на януари в социалните мрежи бяха широко разпространени deepfake изображения на поп звездата Тейлър Суифт, което предизвика гнева на легионите ѝ фенове. Инцидентът предизвика загриженост от страна на Белия дом. По-рано същия месец Ксочитъл Гомес, 17-годишна актриса в поредица на Марвел, проговори за това, че е открила в социалните мрежи deepfake изображения с нейното лице със сексуален подтекст и не е успяла да издейства сваляне на материалите.
Как се правят deepfake видеоклипове?
Те често се създават с помощта на алгоритъм с изкуствен интелект, който е обучен да разпознава модели в реални видеозаписи на определено лице – процес, известен като дълбоко обучение. След това е възможно да се замени елемент от един видеоклип, като например лицето, в друго съдържание, без то да изглежда като груб монтаж.
Манипулациите са най-подвеждащи, когато се използват с технологията за клониране на глас, която разгражда аудиоклип на говорещ човек на части от половин сричка, които могат да бъдат сглобени в нови думи, които изглеждат като изречени от човека в оригиналния запис.
Как се появи технологията на дълбоките фалшификати?
Първоначално технологията беше в сферата на академичните среди и изследователите. През 2017 г. обаче Motherboard съобщи, че потребител на Reddit, наречен „deepfakes“, е разработил алгоритъм за създаване на фалшиви видеоклипове с помощта на програма с отворен код. Reddit блокира потребителя, но практиката се разпространи.
Първоначално за направата на deepfake съдържание се изискваше вече съществуващ видеоклип и истинско вокално изпълнение, както и умели способности за редактиране. Днешните генеративни системи за изкуствен интелект позволяват на потребителите да създават убедителни изображения и видеоклипове от прости писмени подсказки.
Поискайте от компютър да създаде видеоклип, вкарвайки думи в нечия уста, и той ще се появи. Дигиталните фалшификати стават все по-трудни за откриване, тъй като компаниите за изкуствен интелект прилагат новите инструменти към огромното количество материали, налични в интернет – от YouTube до библиотеки с изображения и видеоматериали.
Други примери за дълбоки фалшификати
Китайски тролове разпространиха манипулирани изображения на горските пожари през август на хавайския остров Мауи, за да подкрепят твърдението, че те са причинени от тайно „метеорологично оръжие“, което се тества от САЩ.
През май 2023 г. американските акции се понижават за кратко, след като в интернет се разпространява изображение, на което се вижда, че Пентагонът гори. Експертите заявиха, че фалшивата снимка е имала признаците на генерирана от изкуствен интелект.
През февруари същата година се появи изфабрикуван аудиоклип, в който се чува как кандидатът за президент на Нигерия Атику Абубакар заговорничи за фалшифициране на вота през този месец.
През 2021 г. в социалните медии бе публикуван едноминутен видеоклип, който изглеждаше, че показва как украинският президент Володимир Зеленски казва на войниците си да сложат оръжие и да се предадат на Русия.
Каква е опасността?
Опасенията са, че дълбоките фалшификати в крайна сметка ще станат толкова убедителни, че ще бъде невъзможно да се различи кое е истинско от кое е изфабрикувано. Представете си измамници, които манипулират цените на акциите, като създават фалшиви видеоклипове на главни изпълнителни директори, които издават корпоративни новини, или фалшифицирани видеоклипове на войници, извършващи военни престъпления.
Политиците, бизнес лидерите и известните личности са особено изложени на риск, като се има предвид колко много записи с тях са достъпни. Технологията прави възможно т.нар. порно отмъщение, дори и да не съществува реална гола снимка или видео, като обикновено мишена са жените. След като видеоклипът се разпространи масово в интернет, е почти невъзможно да бъде задържан.
Допълнително опасение е, че разпространяването на информация за дълбоките фалшификати ще улесни хората, които наистина са заснети да правят или казват неприемливи или незаконни неща, да твърдят, че доказателствата срещу тях са фалшиви. Някои хора вече използват защитата на дълбоките фалшификати в съда.
Как да се овладеят дълбоките фалшификати?
Видът машинно обучение, който създава дълбоките фалшификати, не може лесно да бъде обърнат, за да ги открие. Но шепа стартъпи, като базираната в Нидерландия Sensity AI и базираната в Естония Sentinel, разработват технологии за откриване, както и много големи американски технологични компании.
През ноември 2022 г. Intel Corp. пусна на пазара продукт FakeCatcher, за който твърди, че може да открива фалшиви видеоклипове с 96% точност, като наблюдава фините промени в цвета на кожата на обекта, причинени от притока на кръв. Компании, сред които и Microsoft Corp. обещаха да вграждат цифрови водни знаци в изображения, създадени с помощта на техните инструменти за изкуствен интелект, за да ги различават като фалшиви.