Tworzenie obrazów przy pomocy sztucznej inteligencji to codzienność dla wielu z nas. Możliwości, które kiedyś miały tylko najpotężniejsze superkomutery, drzemią teraz w każdym smartfonie. Jak więc rozpoznawać deepfake’i?
Deepfake czy nie deepfake – oto jest pytanie
Im bardziej zaawansowanymi narzędziami dysponują oszuści, tym łatwiej jest im tworzyć fałszywe zdjęcia i filmy, przedstawiające sławne osoby w okolicznościach, w których nigdy się one nie znalazły. Tego typu materiały rozchodzą się w Internecie z prędkością błyskawicy.
Niektóre grafiki i klipy powstają w celach czysto humorystycznych i wystarczy chwila, byśmy zorientowali się, że przedstawione elementy obrazu nie zgrywają się ze sobą. Część z takich prac jest wręcz komicznie groteskowa, więc nie mamy trudności, by orzec, że oto mamy do czynienia z wypaczeniem rzeczywistości lub kompletną fikcją. Gorzej, kiedy deepfake jest realistyczny i na przykład przedstawia jakąś sławną osobę. Jak stwierdzić, czy mamy do czynienia ze zdjęciem prawdziwego człowieka?
Popatrz androidowi w oczy
Okazuje się, że całkiem niezłym sposobem, by rozpoznać, czy mamy przed sobą fałszywy obraz, jest przyjrzenie się oczom danego człowieka ze zdjęcia lub filmu – o ile jego wzrok skierowany jest „w stronę kamery”.
Być może niektórym nasunie się tu skojarzenie z filmu Łowca androidów, gdzie w jednej z początkowych scen zaprezentowano działanie maszyny pomagającej określić prawdziwe pochodzenie indywiduum podającego się za człowieka. Aparatura była wyposażona w czujnik, który sprawdzał źrenice badanego obiektu, by pomóc w wykrywaniu emocjonalnych reakcji typowych dla ludzi. Maszyny, choć wizualnie nieodróżnialne od ludzkich postaci, mogły być na tym etapie rozpoznane.
To oczywiście fikcja, a jak to działa w rzeczywostości? Ciekawym odkryciem podzielono się na spotkaniu Royal Astronomical Society’s National Astronomy w Hull. Sugeruje ono, że generowane przez AI fałszywe obrazy można wykryć, analizując ludzkie oczy, które się na tych obrazach pojawiają. I że proces badawczy jest podobny do analizowania zdjęć galaktyk przez astronomów. Najważniejszym jego elementem jest przyjrzenie się odbiciom w gałkach ocznych człowieka.
Jak wytłumaczył profesor astrofizyki Kevin Pimbblet, odbicia w gałkach ocznych są spójne dla prawdziwej osoby, ale nieprawidłowe (z punktu widzenia fizyki) dla wygenerowanej postaci. W uproszczeniu AI, tworząc obraz czyjejś twarzy lub próbując ją imitować, „nie pamięta”, by te odbicia w obu oczach były takie same. Jak to się ma do astronomii?
„Aby zmierzyć kształty galaktyk, analizujemy, czy są one centralnie zwarte, czy są symetryczne i jak gładkie. Analizujemy rozkład światła” — powiedział profesor Pimbblet. Ta sama metoda sprawdza się w wyszukiwaniu podobieństw i rozbieżności na obrazach przedstawiających ludzi.
![Rozpoznawanie deepfake'a](https://www.tabletowo.pl/wp-content/uploads/2024/07/Pimbblet-comparison-big.jpg)
![Rozpoznawanie deepfake'a](https://www.tabletowo.pl/wp-content/uploads/2024/07/Obtained-Specular-Reflections-Reals.jpg)
![Rozpoznawanie deepfake'a](https://www.tabletowo.pl/wp-content/uploads/2024/07/Obtained-Specular-Reflections-F.jpg)
Niestety, choć metoda ta wydaje się być skuteczna, na pewno nie jest niezawodna. Podczas testowania jej, pojawiały się pomyłki. Nie zyskaliśmy więc narzędzia ostatecznego, które zawsze wskazywałoby, czy mamy do czynienia z fałszywym klipem wideo czy zdjęciem. W miarę rozwoju technologii, będzie to zapewne jeszcze trudniejsze. Zupełnie jak dla Ricka Deckarda, który musiał umieć rozpoznawać, czy ma przed sobą androida, czy człowieka…