To niezwykłe, ale jeden z oficjeli Apple przyznaje, że funkcja usuwania z fotografii w iPhone’ach jest mniej dokładna od rozwiązań konkurencji. Skąd ta szczerość?
Ograniczenia sztucznej inteligencji Apple
Apple Intelligence to zestaw funkcji sztucznej inteligencji, który dostępny będzie dla użytkowników urządzeń Apple już niebawem. Nawet użytkownicy w Stanach Zjednoczonych musieli czekać długo na wdrożenie tych nowości, ponieważ zostały one zaprezentowane w czerwcu 2024 roku. A zbliżamy się do końcówki października.
Posiadacze sprzętu projektowanego w Cupertino zamieszkujący Europę mają mniej powodów do wyczekiwania Apple Intelligence. W obrębie Unii Europejskiej większość funkcji AI będzie mocno ograniczona, że nie wspomnę już o tym, że po tylu latach Tim Cook i spółka mają ogromną trudność z wprowadzeniem polskojęzycznej Siri.
Ten kontekst jest jeszcze bardziej bolesny w kontekście ducha wypowiedzi, których Craig Federighi udzielił podczas wywiadu dla The Wall Street Journal. Przyznaje w nim, że narzędzie Clean Up, które rozpoznaje i usuwa niepotrzebne elementy ze zdjęć, nie ma takich możliwości jak podobne rozwiązania konkurencji. I że opóźnienia w uruchamianiu Apple Intelligence rzeczywiście są spore.
Chcemy „prawdziwych” zdjęć
Joanna Stern z The Wall Street Journal wskazała, że narzędzia edycji Google pozwalają na o wiele więcej w kontekście dodawania i zastępowania obiektów na fotografii niż Clean Up w iPhone’ach. Na przykład Pixele potrafią tworzyć zupełnie nowe elementy na zdjęciach. Federighi przyznał jej rację. Wyjaśnił jednak, że ograniczenia Apple są celowe, a nie wynikają z ubytków technologicznych. Stwierdził:
Ludzie postrzegają treść fotograficzną jako coś, na czym mogą polegać jako na wskaźniku rzeczywistości. Dla nas ważne jest, abyśmy pomagali przekazywać dokładne informacje, a nie fantazje. [Podczas testów – przyp. res.] liczba osób, które chciały usunąć ze zdjęcia zbędne szczegóły, które zasadniczo nie zmieniają znaczenia ogólnej fotografii, była bardzo, bardzo wysoka, więc byliśmy gotowi podjąć ten mały krok.
Wychodzi więc na to, że Apple intencjonalnie nie umożliwi użytkownikom tak dalekiej edycji zdjęć, by tworzyć z nich obrazki scen, które nigdy się nie wydarzyły. Federighi uważa, że w ten sposób oddaje się hołd temu, czym fotografia właściwie jest: uchwyceniem rzeczywistych wydarzeń.
Jeśli chodzi o proces twórczy, to równie ostrożne podejście zastosowano do Image Playground, czyli narzędzia tworzącego obrazy na podstawie danych wejściowych użytkownika, takich jak szkic, tekst lub zdjęcie. Ponownie: Apple nie celuje w tworzenie realistycznych obrazów, a bardziej „komiksowych” i symbolicznych, jasno przekazujących swoją formą, że mamy do czynienia z wygenerowaną treścią.
Wyjaśnienia te wydają się sensowne, choć tchną nieco duchem wypowiedzi Tima Cooka, który stwierdził, że nie chce, by Apple Intelligence było pierwsze, tylko żeby było najlepsze. I to ponoć jest powód, dla którego część funkcji jest ograniczana, a inne pojawią się dopiero później. Czy kupujemy tę narrację?