Zdjęcia Google
(źródło: Google)

Zdjęcia Google pomogą Ci edytować zdjęcia bez utraty jakości HDR

Google pochwaliło się nową technologią rekonstrukcji obrazów w aplikacji Zdjęcia. Ujęcia nawet po zaawansowanej edycji zachowają format HDR. Nowość skierowana jest do wybranych smartfonów z serii Pixel.

Uczenie maszynowe w Pixelach zadba o zdjęcia

Zdjęcia Google to popularne narzędzie, w którym nie tylko zgromadzimy i przechowamy nasze ujęcia, ale także je ulepszymy. Technologiczny gigant z Mountain View sukcesywnie uzupełnia listę funkcji w aplikacji Zdjęcia i coraz częściej opiera nowości o sztuczną inteligencję. Teraz pokazał nową technikę złożonej edycji obrazów HDR, korzystającą z uczenia maszynowego (ML).

Zdjęcia wykonywane z użyciem HDR charakteryzują się zakresem jasności porównywalnym do zakresu, jakie może zobaczyć człowiek. Google w 2023 roku opracował nowy format – Ultra HDR, dzięki któremu zdjęcia z Pixeli 7 są jeszcze bardziej realistyczne w porównaniu do SDR. O ile smartfony są w stanie wykonywać zdjęcia z użyciem tej technologii, o tyle problem pojawia się, gdy dane ujęcie jest edytowane. Jeśli np. zdecydowałeś się na użycie złożonej funkcji, takiej jak np. Magic Eraser, Twój obraz zapisywany jest w formacie SDR. Oznacza to, że grafika traci odwzorowanie HDR wraz z kontrastem i jasnością.

Dlatego też przedsiębiorstwo opracowało technikę uczenia maszynowego, dzięki której problem ma zostać zażegnany, a zmienione obrazy nadal pozostaną w formacie HDR. Nowość ma działać w aplikacji Zdjęcia Google na smartfonach Pixel 8 i nowszych.

Po lewej: Obraz HDR z realistycznymi ciemnymi cieniami i jasnymi światłami. Po prawej: Ten sam obraz zapisany z zakresem dynamiki skompresowanym do wyświetlania SDR
Po lewej: Obraz HDR z realistycznymi cieniami i oświetleniem. Po prawej: Ten sam obraz zapisany z zakresem dynamiki skompresowanym do wyświetlania SDR (źródło: Google)

Jak działa nowa technologia w aplikacji Zdjęcia Google?

O ile wykonanie prostych czynności edycyjnych na zdjęciach, takich jak przycinanie czy obracanie, nie powoduje zapisywania obrazów do formatu SDR, o tyle użycie zaawansowanych funkcji typu Magiczna Gumka czy Magiczny Edytor już tak. Dzieje się tak dlatego, że narzędzia te zostały opracowane właśnie dla grafik w formacie SDR jako wejściowych, a co za tym idzie – również wyjściowych.

Google znalazło jednak sposób, aby pokonać ten problem. Nowy model uczenia maszynowego jest odpowiedzialny za zrekonstruowanie brakujących regionów w zakresie tzw. mapy wzmocnienia. W oparciu o zdjęcie oryginalne i edytowane, uczenie maszynowe oblicza maskę edycji na podstawie pikseli SDR. Dodatkowo model w oparciu o edytowany obraz, otrzymaną maskę i oryginalną mapę wzmocnienia przewiduje nową mapę wzmocnienia. Połączenie jej z maską edycji i oryginalną mapą wzmocnienia pozwala na wygenerowanie obrazu w formacie HDR. Aby łatwiej było zrozumieć zachodzący proces warto spojrzeć na poniższą grafikę.

Zasada działania rekonstrukcji obrazów HDR przez uczenie maszynowe w aplikacji Zdjęcia Google
Rekonstrukcja obrazu HDR (źródło: Google)

Otrzymany model został wytrenowany na kilku tysiącach obrazów HDR. Rekonstrukcja mapy wzmocnienia zajmuje mniej niż 1 MB. Według informacji przekazanych przez Google żadne z funkcji edycji, które wykorzystują do działania uczenie maszynowe, nie wymaga niestandardowych przepływów pracy i ma sprawdzić się dla każdego efektu edycyjnego (również w przyszłości dla funkcji, które jeszcze nie powstały).

Technologiczny gigant udostępnił galerię obrazów HDR, gdzie można przyjrzeć się fotografiom przed i po rekonstrukcji, wykonanych za pomocą nowego modelu.

Po lewej: Oryginalne obrazy z ich mapami wzmocnienia. Po prawej: Edytowane obrazy, przy użyciu różnych narzędzi do edycji opartych na uczeniu maszynowym w Google Photos, każdy z mapami wzmocnienia zrekonstruowanymi nową metodą ML
Po lewej: Oryginalne obrazy z ich mapami wzmocnienia. Po prawej: Obrazy edytowane przy użyciu narzędzi Zdjęć Google. Każde ujęcie z mapami wzmocnienia zrekonstruowanymi nową metodą ML (źródło: Google)