App Store iPhone
(fot. Mateusz Budzeń | Tabletowo.pl)

Apple ma poważny problem. Można go złagodzić, ale raczej nie usunąć

App Store to dość bezpieczne miejsce, ale nie mamy do czynienia z fortecą nie do zdobycia. Apple ma problem z aplikacjami „podwójnego zastosowania”.

Aplikacje „podwójnego zastosowania” w App Store

Na wstępie wypada wyjaśnić, czym są te aplikacje „podwójnego zastosowania”. Jak sugeruje już sama nazwa, mówimy o aplikacjach mających jedno główne zastosowanie, a także drugie, dodatkowe. Warto dodać, że to drugie zastosowanie jest niekoniecznie dobrze widziane przez Apple.

Tego typu oprogramowaniem mogą być aplikacje do modyfikacji i zmiany twarzy. Za sprawą sztucznej inteligencji takie apki zaczęły zapewniać całkiem interesujące możliwości, jak chociażby zmianę płci osoby na zdjęciu, a nawet wstawienie twarzy do znanego obrazu, przykładowo słynnego Mona Lisa. Wystarczy wykonać kilka kliknięć, aby nasza twarz wyglądała prawie jakby została namalowana przez Leonarda da Vinci. Co więcej, użytkownik może wstawić twarz też do filmów, a całość będzie prezentować się realistycznie.

Wspomniane aplikacje zaczęły cieszyć się sporą popularnością, co oczywiście przełożyło się na ich wysyp w App Store. Niestety, niektóre z nich, oprócz reklamowanej funkcjonalności, mogą zostać wykorzystane w brzydki sposób. Niewinnie wyglądająca aplikacja może bowiem posłużyć do generowania pornografii.

Reklama aplikacji do zmiany twarzy

Autor raportu umieszczonego na 404 Media skarży się, że podczas przeglądania Reddita natrafił na reklamę aplikacji, która oferuje zmianę twarzy w filmach. Mogłoby się wydawać, że to kolejna tego typu aplikacja, których ostatnio jest sporo w App Store. Podejrzenia wzbudziła już jednak sama treść w reklamie.

Otóż reklama wideo przedstawiała tańczące młode kobiety i użytkownika wybierającego filmy i obrazy zapisane w galerii smartfona, aby na ich podstawie dokonać zmiany twarzy. W reklamie pojawiły się również informacje, że aplikacja umożliwia wstawianie twarzy do filmów pobranych z różnych źródeł, w tym YouTube. Co prawda w reklamie nie było wyraźnego podania popularnej strony z filmami dla dorosłych, ale niestety krótka wzmianka zasugerowała, że można wykorzystać filmy „nawet z ulubionej strony”. Dodatkowo na wideo można było zobaczyć stronę, która wyglądała prawie jak kopia tej popularnej strony.

Aplikacja do zmiany twarzy reklama
Kontrowersyjna reklama aplikacji (źródło: 404 Media)

Jak zauważa autor omawianego raportu, aplikacja faktycznie pozwała w łatwy sposób wygenerować deepfake z twarzą dowolnej osoby umieszczonej w filmie dla dorosłych. Wystarczyło wykonać kilka kliknięć, aby pobrać film ze znanej strony i następnie wstawić tam twarz innej osoby, korzystając z zaledwie jednego zdjęcia.

Oczywiście reklama została zgłoszona i Reddit szybko ją usunął. Następnie skontaktowano się z Apple i – owszem – firma Tima Cooka wyrzuciła szkodliwą aplikację z App Store. Początkowo jednak Apple poprosiło o link do aplikacji, co sugeruje, że producent iPhone’ów nie był świadomy, że tego typu oprogramowanie znajduje się w App Store.

Jak to możliwe, że taka aplikacja trafiła do App Store?

Regulamin App Store zabrania oferowania aplikacji, które zawierają treści pornograficzne i funkcje z nimi związane. Oprogramowanie, które umożliwia pobranie filmu ze strony dla dorosłych, aby następnie stworzyć deepfake, jak najbardziej narusza wytyczne Apple. Jak to więc możliwe, że taka apka trafiła do App Store? Tutaj należy powrócić do terminu aplikacji „podwójnego zastosowania”.

Otóż aplikacja mogła dostać się do App Store, bowiem oficjalnie była kolejnym narzędziem do niewinnego podmieniania twarzy. Natomiast drugie, zaszyte głębiej i płatne funkcje, umożliwiały podmienianie twarzy w filmach dla dorosłych. Mamy więc jedno, oficjalnie zastosowanie i drugie, niezgodne z regulaminem Apple.

Niepokoi jednak fakt, że aplikacja umożliwiała pobieranie filmów ze stron dla dorosłych. To wszystko oczywiście bezpośrednio w apce, co nie zostało wychwycone przez Apple. Firma Tima Cooka powinna więc zadbać o usprawnienie obecnie stosowanych mechanizmów, których zadaniem jest weryfikacja oprogramowania przed umieszczeniem go w App Store.

Problem jest złożony i trudny do rozwiązania

Ulepszony mechanizm nie poradzi sobie jednak w sytuacji, gdy podobna aplikacja będzie wykorzystana niezgodnie z założeniami jej twórców. W końcu użytkownik nie musi pobierać żadnych filmów i może oprzeć się wyłącznie na materiałach umieszczonych w galerii smartfona. Aplikacja nie musi mieć też żadnych ukrytych głębiej funkcji. Może to być normalna apka do zmiany twarzy, którą ktoś zamiast do zwykłego filmu wykorzysta do tworzenia treści pornograficznych.

Apple ma tutaj poważny problem i raczej się go nie pozbędzie. Owszem, można wyrzucić z App Store wszystkie bardziej złożone aplikacje do zmiany twarzy, ale przecież nie ma to większego sensu. Nawet zwykłe aplikacje do edycji zdjęć można wykorzystać do generowania treści dla dorosłych, ale nie oznacza to, że należy zabronić korzystania z nich. Zresztą, aplikacja Facebook Messenger może posłużyć do napisania komuś obraźliwych słów, ale przecież nikt nie tworzył jej w takim celu – w założeniach ma ułatwiać komunikację.

Nie zmienia to jednak faktu, że faktycznie należy poprawić mechanizmy weryfikacji w App Store, aby nie dopuszczać oprogramowania, które ma zaszyte funkcje stworzone wyłącznie do generowania deepfakeów w treściach pornograficznych. Niestety, ten problem nie dotyczy tylko App Store, ale też innych sklepów, w których obecne mechanizmy weryfikacji są dziurawe.