Apple zamierza aktywnie włączyć się do walki z wykorzystywaniem dzieci za pomocą specjalnych algorytmów haszujących, które będą działać lokalnie na iPhone’ach użytkowników.
System Apple kontra dziecięca pornografia
Kiedy jest się jedną z najbardziej wpływowych firm technologicznych świata, pojawiają się możliwości, których nigdy nie osiągnęłyby pojedyncze osoby czy mniejsze organizacje. Z pewnością Apple jest w stanie zrobić wiele dobrego, ale z drugiej strony gigant z Cupertino nie chce zajmować stanowiska w sprawach, które mogłyby okazać się zbyt kontrowersyjne. Jednak kwestia wykorzystywania dzieci jest jednym ze zjawisk, z walką z którym Apple chce pomóc, a podobno nawet planuje uruchomienie specjalnego programu, który by to umożliwił.
Apple szykuje się do ogłoszenia nowych funkcji identyfikacji zdjęć. Specjalne algorytmy analizowałyby zawartość fotografii użytkowników iPhone’ów, aby porównywać je ze znanymi materiałami ukazującymi wykorzystywanie dzieci, do którego zalicza się dziecięcą pornografię. Rzecz działałaby lokalnie, bez łączenia się z internetem, więc system zapewniałby wysoki poziom prywatności użytkownika. Wszelkie dopasowania byłyby jednak najpewniej weryfikowane przez człowieka, zatem trzeba by założyć, że przynajmniej kopie niektórych zdjęć opuszczałyby telefon.
Podobny system jest już wykorzystywany przez Apple w usłudze Zdjęć, gdzie algorytmy uczenia maszynowego rozpoznają obiekty i sceny, by ułatwić użytkownikowi wyszukiwanie konkretnych fotografii. Mamy tu jednak do czynienia z całkowicie innym celem, w jakim zdjęcia w galerii iPhone’a byłyby skanowane.
Apple musi być bardzo ostrożne
Aktualnie Apple przechowuje zdjęcia użytkowników w iCloud i szyfruje zawartość dysków w chmurze. Nie jest to jednak metoda zabezpieczania treści end-to-end, charakterystyczna na przykład dla WhatsAppa czy innych komunikatorów, których celem jest zapewnienie maksymalnej poufności przesyłanych treści. W szczególnych okolicznościach, organy ścigania mogą wystosować prośbę do Apple o ujawnienie materiałów zgromadzonych na dysku iCloud danego klienta i firma często na to się zgadza, jednocześnie zachowując dla siebie chronione informacje użytkownika w postaci hasła do jego konta czy danych biometrycznych.
Matthew Green, ekspert ds. kryptografii, który jest jednym ze źródeł powyższych informacji, jest zdania, że prace nad systemem wspierającym walkę z pornografią dziecięcą jest przejawem dążenia do zastosowania przez Apple metody szyfrowania danych użytkowników iCloud metodą end-to-end. W ten sposób firma z jednej strony nie zamykałaby drogi działania dla organów ścigania, celujących w wykorzystywanie dzieci i rozpowszechnianie dziecięcej pornografii, a z drugiej byłaby w stanie zapewnić użytkownikom wyższy poziom ochrony plików.