Photoshop Lightroom zyskuje funkcje oparte o sztuczną inteligencję
(źródło: Adobe Photoshop Lightroom)

Adobe wkurzyło artystów. W tle: sztuczna inteligencja

To, czego używać do trenowania sztucznej inteligencji, pozostaje kwestią sporną. W Adobe najwyraźniej uznano, że można wykorzystać w tym celu dzieła samych użytkowników. Mówiąc krótko: ci nie są z tego faktu zadowoleni.

Adobe i sztuczna inteligencja trenowana na dziełach użytkowników

Firma Adobe zaktualizowała ostatnio swoje regulaminy i tym, co w nich zawarła, nieźle wkurzyła użytkowników. Bez akceptacji nowych zasad, nie mogą uruchomić wykupionych aplikacji. Akceptacja zaś oznacza przyznanie amerykańskiemu przedsiębiorstwu prawa dostępu do tworzonych treści zarówno metodami ręcznymi, jak i automatycznymi. W dalszej części można doczytać, że jednym z celów jest „uczenie maszynowe na potrzeby ulepszania usług i oprogramowania”.

Krótko mówiąc: użytkownicy Photoshopa, Illustratora i innych aplikacji z pakietu Adobe Creative Cloud obawiają się, że ich dzieła będą teraz wykorzystywane do szkolenia narzędzi generatywnej sztucznej inteligencji. A Amerykanie mają ich co najmniej kilka, na czele z Generative Fill (generatorem obrazów w stylu Midjourney i DALL-E) oraz Firefly (generatorem wideo będącym odpowiedzią na Sorę firmy OpenAI).

Artyści obawiają się, że wobec tego ich prace mogą być plagiatowane, a zawarte przez nich umowy o zachowaniu poufności w pewien sposób naruszane. Nie są też zadowoleni z języka wykorzystanego w regulaminie – tłumaczy on bowiem niewiele i tak naprawdę każe się domyślać, co Adobe może robić z pracami użytkowników i co z nimi robić zamierza.

Kwestia prywatności i praw autorskich jest w światku sztucznej inteligencji poruszana nie od wczoraj. Narzędzia tego typu nie są w stanie niczego wymyślić same – zamiast tego łączą najdrobniejsze fakty z informacji, którymi się je „nakarmi”. Dobór tych danych może budzić kontrowersje, szczególnie gdy pochodzą one bezpośrednio od użytkowników. I choć wydaje się to naturalne, to wcale jednak nie musi tak być.

DuckDuckGo pokazuje, że można to robić inaczej

W ten sposób przechodzimy do DuckDuckGo, które kojarzysz pewnie z wyszukiwarki internetowej stawiającej na prywatność. W obrębie tego serwisu pojawił się ostatnio chatbot wykorzystujący sztuczną inteligencję i to nie byle jaką, bo bazującą na modelach GPT-3.5 Turbo, Claude, Meta Llama 3 i Mixtral. To, co go wyróżnia, to fakt, że czaty są całkowicie prywatne.

DuckDuckGo AI chat (sztuczna inteligencja z anonimizacją)
źródło: DuckDuckGo

Co oznacza prywatność w tym przypadku? Ukrywanie IP, nieprzechowywanie treści czatów i uniemożliwianie wykorzystywania ich do dalszych treningów sztucznej inteligencji. A nawet gdyby jakimś sposobem twórcy narzędzi zdołali uzyskać treść, to nie będą w stanie powiązać jej z konkretnym użytkownikiem. Serwis DuckDuckGo bierze bowiem od niego zapytanie, następnie usuwa wszystkie metadane i dopiero przesyła je dalej. Funkcja jest bezpłatna.

Aktualizacja, 11 czerwca 2024:

Firma Adobe nareszcie odniosła się do sprawy, a jej wyjaśnienia powinny uspokoić artystów. Amerykanie zapewniają, że kontrowersyjne zapiski pojawiły się w regulaminie przez przypadek, a właściwie, że tezy zostały niewłaściwie sformułowane, co mogło prowadzić do błędnej interpretacji. Równocześnie ogłosili, że już w przyszłym tygodniu opublikowany zostanie zaktualizowany dokument.

Producent złożył także deklarację, że nigdy nie będzie uzyskiwać dostępu do treści użytkowników pakietu Creative Cloud i poszczególnych aplikacji, w celu szkolenia modeli generatywnej sztucznej inteligencji. Do jej trenowania wykorzystywane będą wyłącznie licencjonowane obrazy stockowe. Zapewnia też, że nigdy nie postępował inaczej, także po ostatniej aktualizacji regulaminu.