Informacje dotyczące danych osobowych są wartościowym przedmiotem i kluczowym obszarem bezpieczeństwa narodowego. Wzrost znaczenia informacji na przełomie XX i XXI wieku przyczynił się do konieczności jej ochrony, a wraz z digitalizacją informacji i ich globalizacją ochrona ta nabrała nowego wymiaru. We współczesnych czasach, zdominowanych przez Internet, który stał się dla wielu głównym źródłem informacji, trudno jest rozróżnić prawdziwe informacje od ‘fake news’.

Jednak cyfryzacja nie poprzestała na generowaniu fałszywych informacji. Powstały również fałszywe wideo czyli deepfake. Jest to spreparowane przy użyciu sztucznej inteligencji nagranie, w którym twarz konkretnej osoby można ‘wkleić’ na dowolny materiał wideo. Termin ten może się również odnosić do innych cyfrowych materiałów, wytwarzanych przy użyciu algorytmów sztucznej inteligencji. Pod koniec 2017 roku zaczęły pojawiać się pierwsze spreparowane filmy, jednak nie znamy konkretnej daty powstania deepfake’ów. Chociaż na początku wydawały się zabawne i łatwe do zidentyfikowania, z biegiem czasu stały się problemem. Powiązane zostały zarówno z polityką, jak i oszustwami finansowymi, które mogą mieć ogromny wpływ na społeczeństwo i naszą tożsamość.

Jak powstaje deepfake?

By stworzyć przekonujące wideo potrzeba tysięcy zdjęć i nagrań, na których deepfake będzie bazował. Konieczna jest też wiedza dotycząca algorytmów deep learning i mapowania twarzy. Wykorzystując te dane i algorytmy, program komputerowy uczy się jak naśladować głos i mimikę danej osoby, ruchy, manieryzmy, intonację, a także słownictwo, którego dana osoba używa. Robi to poprzez sztuczną sieć neuronową, która symuluje proces uczenia się, który zachodzi w mózgu.

Deepfake, a kradzież tożsamości

Podobnie jak w przypadku innych rodzajów kradzieży tożsamości, używając deepfake’ów, oszuści podszywają się pod kogoś, aby otworzyć konto, uzyskać dostęp do niego lub do jakiejś usługi. Cyberprzestępcy zbierają dane do kradzieży tożsamości na wiele sposobów, między innymi poprzez media społecznościowe. Kradzież tożsamości przy użyciu technologii deepfake może przybierać różne formy np. użycie głosu ofiary do zmiany hasła w banku lub prośba do podwładnych albo rodziny o natychmiastowy przelew. Takie wydarzenie miało miejsce w sierpniu 2019 roku, kiedy to pracownik brytyjskiej firmy został nakłoniony do wysłania cyberprzestępcom 200 tysięcy funtów. Ofiara była przekonana, że rozmawia ze swoim szefem i wykonuje jego polecenie, dotyczące pilnego przelewu do dostawcy. Głos szefa był tak dobrze podrobiony (odpowiedni akcent, ton głosu, styl mówienia), że nie wzbudził w pracowniku żadnych podejrzeń.

Deepfake i weryfikacja tożsamości

Czy zjawisko deepfake rzeczywiście stanowi realne zagrożenie dla konsumentów? Wiele organizacji i firm zastanawia się, czy techniki te stanowią zagrożenie dla procesów eKYC i czy takie filmy mogłyby zostać stworzone w celu fałszowania tożsamości w procesach nawiązywania kontaktu z klientami.

Ci, którzy używają do wdrażania klientów rozwiązań wideoweryfikacyjnych nie muszę się nimi martwić. Wideoweryfikacje wsparte przez specjalistę i procesy biometryczne, które są w stanie zweryfikować tożsamość osób za pomocą zaawansowanych technik, potrafią rozpoznać, czy nagranie jest rejestrowane w czasie rzeczywistym, czy jest generowane komputerowo. Ponadto aby wytrenować algorytmy, wymagane są tysiące różnorodnych i wysokiej jakości próbek wideo, zdjęć i dźwięku. Uzyskanie tych próbek wyłącznie z mediów społecznościowych jest prawie niemożliwe, a rezultatem byłoby bardzo niskiej jakości wideo.

Załóżmy jednak, że zdołano stworzyć wideo, które oszukało filtry biometryczne. Nie jest to jednak jedyna część procesu weryfikacji tożsamości. Konieczne jest okazanie ważnego dokumentu tożsamości. Dokumenty te, zabezpieczane są przez hologramy i wiele innych elementów, które bardzo utrudniają ich podrabianie. Największą jednak przeszkodą w procesie weryfikacji jest przekonanie wykwalifikowanego specjalisty, który sprawdza nagranie, że wideo nie zostało spreparowane.

Wideoweryfikacja

W wideoweryfikacji, która przeprowadzana jest na żywo podczas połączenia wideo, oszukanie procedury używając deepfake’ów jest niemożliwe. Sztuczna inteligencja, która wspiera proces, wiedziałaby, że wideo zostało wygenerowane komputerowo już wcześniej. Podczas połączenie specjalista zwraca uwagę na tło i to jak z nim współgra postać na połączeniu, czy światło i cienie wyglądają realistycznie oraz czy nie ma dziwnych zakłóceń na nagraniu. Mając do czynienia z deepfake’ami, warto zwrócić też uwagę na wygląd zębów, oczu, a także na szczegóły związane z ubiorem. Są to często problematyczne do animowania elementy. Dodatkowo stworzenie wideo, które idealnie wpasowałoby się w procedurę przeprowadzoną na żywo jest praktycznie niemożliwe.

Regulacje prawne

Nie potrafimy przewidzieć dalszego rozwoju technologii deepfake. Wiadomym jest, że zyskała na popularności i zostanie w użyciu na dłużej. Według Technology Review, deepfake został okrzyknięty największym zagrożeniem w sieci w 2019 roku. Istniejące normy prawne często nie nadążają za postępem technologicznym, a próby radzenia sobie z tym problemem podejmuje coraz więcej państw. Chiny wprowadziły nowe regulacje rządowe dotyczące fake newsów i deepfake’ów. Muszą one być odpowiednio oznaczone pod kątem wykorzystania sztucznej inteligencji. Nie ujawnienie tego faktu ma być traktowane jako przestępstwo. Stany Zjednoczone wprowadziły na czas wyborów, w poszczególnych stanach, sankcje za rozpowszechnianie deepfake’ów przedstawiających polityków. Zwolnione z tego zakazu zostały media jak i filmy, które tworzone są jako satyra bądź parodia. W Europie, działania dotyczące stworzenia praw regulujących sztuczną inteligencję prowadzi specjalna komisja, European Group on Ethics.

Jak sobie radzić z deepfakeami?

Kiedy mamy do czynienia z żartem, a kiedy możemy rozpoznać manipulację czyimś wizerunkiem? Co można zrobić, by deepfake’i nie były używane w szkodliwy sposób? Wiadomo już, że nie da się zapobiec tworzeniu deepfake’ów albo zakazać ich udostępniania w mediach społecznościowych. Wyjściem mogłoby być stworzenie technologii, która wykrywałaby sfałszowane filmy w oparciu o sztuczną inteligencję. Aby czuć się bezpiecznie i pewnie, warto zaufać firmom specjalizującym się w weryfikacjach tożsamości, które używają sztucznej inteligencji i są w stanie zapobiec kradzieżom i oszustwom.


Obrazy: Freepik.com (1, 2), zasoby własne (3)

Related Post

Leave a Comment

Fully-Verified was created as answer to its founders collectively losing over $150 000 to various types of fraud in their eCommerce businesses.