W dzisiejszym świecie technologia redefiniuje sposób, w jaki odbierana jest rzeczywistość. Jednym z najbardziej fascynujących, a zarazem niepokojących osiągnięć sztucznej inteligencji jest deep fake – technika zdolna do generowania fałszywych, ale niezwykle realistycznych treści wideo i dźwiękowych.
Mechanizm ten pozwala na tworzenie nagrań, w których znane osoby są przedstawiane w sytuacjach, które nigdy nie miały miejsca – na przykład polityk wygłaszający kontrowersyjne oświadczenia lub celebryta pojawiający się w skandalizującym kontekście. Tego rodzaju manipulacje mogą wpływać na opinię publiczną, destabilizować sytuację społeczną i podważać zaufanie do autentycznych materiałów medialnych: treści wizualnych i dźwiękowych.
Technologia deep fake opiera się na zastosowaniu sieci neuronowych, takich jak Generative Adversarial Networks (GAN). Są to modele uczenia maszynowego, w których dwie sieci neuronowe – generator i dyskryminator – współpracują ze sobą w celu tworzenia coraz bardziej realistycznych materiałów. Generator tworzy syntetyczne obrazy, dźwięki lub wideo, a dyskryminator ocenia ich autentyczność, wskazując na niedoskonałości. Powtarzany wielokrotnie proces pozwala na doskonalenie się algorytmu, co skutkuje wytwarzaniem obrazów, wideo i dźwięków niemal niemożliwych do odróżnienia od oryginału. Dzięki tej technologii możliwe staje się naśladowanie mimiki, ruchów ust i tonu głosu dowolnej osoby.
Zastosowania i potencjalne zagrożenia
Technologia deep fake znajduje zastosowanie zarówno w pozytywnym kontekście, jak i w tym budzącym poważne kontrowersje.
Pozytywne zastosowania znajdziemy m.in. w branży kreatywnej. W przemyśle filmowym deep fake pozwala na tworzenie zaawansowanych efektów specjalnych, takich jak odmładzanie aktorów czy cyfrowa rekonstrukcja wizerunków osób, które już nie żyją. Przykładem takiego zastosowania jest film „Łotr 1. Gwiezdne Wojny – Historie” („Rogue One: A Star Wars Story”) z 2016 roku, w którym za pomocą tej technologii odtworzono postać Wilhuffa Tarkina, pierwotnie granego przez nieżyjącego już Petera Cushinga oraz młodszą wersję księżniczki Lei, w którą wcieliła się Carrie Fisher. Sceny te, niemożliwe do zrealizowania tradycyjnymi metodami, stały się kluczowym elementem fabuły.
Jednak technologia bywa wykorzystywana także w sposób etycznie wątpliwy.
W mediach społecznościowych deep fake służy do tworzenia fałszywych materiałów, które często ukazują znane osoby w kompromitujących sytuacjach. Tego rodzaju filmy mogą być narzędziem dezinformacji, manipulować opinią publiczną i wpływać np. na decyzje wyborcze. Znanym przykładem jest nagranie z 2018 roku przypisujące byłemu prezydentowi USA Barackowi Obamie wypowiedzi, których nigdy nie sformułował. Film stworzono w celach edukacyjnych, aby podkreślić potencjał manipulacyjny technologii deep fake. Nagranie to wywołało szeroką dyskusję na temat zaufania do materiałów wideo i możliwości ich wykorzystania do szerzenia dezinformacji, podkreślając znaczenie narzędzi do wykrywania tego typu manipulacji.
W obszarze cyberprzestępczości deep fake znajduje zastosowanie w oszustwach finansowych oraz szantażu. W jednym z udokumentowanych przypadków z 2019 roku fałszywie odtworzono głos dyrektora firmy, co doprowadziło do nieautoryzowanego przelewu na kwotę 200 tysięcy dolarów. Takie incydenty pokazują skalę zagrożeń związanych z niewłaściwym użyciem tej technologii. W rękach przestępców staje się ona narzędziem destabilizującym bezpieczeństwo ekonomiczne i społeczne.
Jak rozpoznać deep fake?
Rozpoznawanie fałszywych treści wymaga wnikliwej analizy zarówno wizualnej, jak i dźwiękowej. Kluczowym krokiem jest obserwacja ruchów twarzy, które w przypadku deep fake mogą zdradzać nieprawidłowości. Algorytmy często mają trudności z odwzorowaniem naturalnych mikroekspresji, takich jak subtelne napięcia mięśni czy zmarszczki wokół oczu. Nienaturalne ruchy gałek ocznych lub ich bezruch stanowią kolejny sygnał, że nagranie może być zmanipulowane.
Niespójność dźwięku z ruchem ust to inny częsty błąd w deep fake. Gdy synchronizacja między wypowiadanymi słowami a ruchem warg jest zaburzona, łatwo zauważyć różnice, szczególnie podczas szczegółowej analizy. Opóźnienia, nieregularności lub niezgodności dźwięku z obrazem są typowymi oznakami fałszerstwa.
Oprócz ruchów twarzy należy zwrócić uwagę na cienie i oświetlenie. Fałszywe nagrania często zawierają nieprawidłowo wygenerowane cienie, które nie pasują do źródła światła lub są rozmieszczone w nienaturalny sposób. Również tło nagrania może budzić podejrzenia – nierealistyczne szczegóły, przesadne rozmycia czy brak harmonii między tłem a postaciami na pierwszym planie mogą wskazywać na manipulację.
Dodatkowo należy zwrócić uwagę na artefakty w obrazie. Rozmycia na krawędziach twarzy, zmiany tekstury skóry czy inne nienaturalne detale często ujawniają ingerencję algorytmów.
Analiza metadanych plików również stanowi istotne narzędzie – nietypowe zmiany w kompresji, brak zgodności daty nagrania z datą edycji czy inne anomalie techniczne mogą wskazywać na manipulację.
Połączenie tych technik – od obserwacji mikroekspresji po analizę techniczną – umożliwia bardziej skuteczne rozpoznawanie nawet zaawansowanych deep fake.
Ochrona przed deep fake
Wykrywanie deep fake to jedno, ale równie ważna jest ochrona przed zagrożeniami wynikającymi z ich użycia. Kluczowym elementem jest edukacja społeczna, która uświadamia, jakie zagrożenia niosą ze sobą fałszywe treści oraz jak można je rozpoznawać. Promowanie krytycznego myślenia pomaga w bardziej świadomej ocenie materiałów publikowanych w internecie i mediach.
Jednocześnie rozwój zaawansowanych technologii detekcyjnych odgrywa główną rolę w przeciwdziałaniu manipulacjom. Algorytmy potrafią analizować mikroruchy twarzy i wykrywać niespójności w ruchach warg, co czyni je skutecznym narzędziem w identyfikacji fałszerstw. Wykorzystanie systemów wykrywających subtelne różnice w obrazie i dźwięku pozwala także na wychwytywanie artefaktów, które mogą umknąć ludzkiemu oku.
Nie mniej istotna jest współpraca międzynarodowa, która umożliwia wymianę wiedzy, zasobów i technologii między krajami. Globalne działania w zakresie detekcji deep fake przyczyniają się do zwiększenia skuteczności w walce z dezinformacją i manipulacją.
Połączenie edukacji, nowoczesnych technologii oraz globalnej współpracy tworzy kompleksowe podejście, które nie tylko ułatwia wykrywanie fałszywych treści, ale również minimalizuje ich wpływ na społeczeństwo.
Narzędzia do wykrywania deep fake
Opracowywane są zaawansowane narzędzia, które mają na celu wykrywanie fałszywych treści. Jednym z najbardziej znanych rozwiązań jest Microsoft Video Authenticator. Narzędzie to wykorzystuje algorytmy zdolne do identyfikacji nienaturalnych wzorców w obrazie i dźwięku, takich jak niespójności w oświetleniu czy synchronizacji dźwięku z ruchem ust.
Program Deepfake Detection Challenge wspierany przez Facebooka stanowi platformę współpracy międzynarodowej w zakresie tworzenia skutecznych metod detekcji deep fake. W ramach tego projektu badacze z całego świata dostarczają narzędzia zdolne do analizy i wykrywania syntetycznych treści.
Innym ważnym narzędziem jest Sensity AI oferujące zaawansowane rozwiązania do monitorowania i identyfikowania syntetycznych treści w mediach społecznościowych.
W obszarze badawczym rozwijane są także modele oparte na analizie mikroruchów twarzy i oczu, które są trudnością dla algorytmów generujących fałszywe nagrania. Przykładem takich badań jest projekt naukowy prowadzony przez MIT, w którym analizowane są naturalne mikroruchy gałek ocznych, takie jak drobne drgania lub nieświadome zmiany kierunku spojrzenia. Te cechy, trudne do odwzorowania przez algorytmy, pozwalają na identyfikację deep fake z wysoką skutecznością. Dodatkowo badania prowadzone przez Stanford University koncentrują się na szczegółowej analizie synchronizacji mimiki twarzy z ruchem ust, co również stanowi obszar, gdzie algorytmy często popełniają błędy.
Nad zagadnieniami związanymi z deep fake aktywnie pracują także naukowcy z Wojskowej Akademii Technicznej. Wypracowane przez nich wyniki stanowią wartościowe źródło wiedzy o technikach podmiany twarzy. Badacze w swojej pracy zwracają uwagę na konieczność promowania odpowiedzialnego korzystania z technologii zamiany twarzy. Technologii, która – jak podkreślają autorzy z WAT – jest obszarem pełnym nie tylko wyzwań, lecz także niezwykle obiecujących możliwości.
Edukacja to podstawa
Deep fake to jedno z najbardziej zaawansowanych osiągnięć sztucznej inteligencji, które zmienia sposób postrzegania treści wizualnych i dźwiękowych. Technologia ta oferuje ogromny potencjał, w związku z tym niesie również poważne zagrożenia. Z tego powodu, aby skutecznie walczyć z manipulacją i dezinformacją, jaką może wywoływać, jeśli trafi w „złe ręce”, trzeba edukować w tym zakresie, doskonalić narzędzia detekcyjne oraz rozwijać współpracę globalną w ramach prac naukowo-badawczych, jak również organów ścigania.
Julia Ołowniuk
projekt graficzny: Katarzyna Puciłowska