To, czego używać do trenowania sztucznej inteligencji, pozostaje kwestią sporną. W Adobe najwyraźniej uznano, że można wykorzystać w tym celu dzieła samych użytkowników. Mówiąc krótko: ci nie są z tego faktu zadowoleni.
Adobe i sztuczna inteligencja trenowana na dziełach użytkowników
Firma Adobe zaktualizowała ostatnio swoje regulaminy i tym, co w nich zawarła, nieźle wkurzyła użytkowników. Bez akceptacji nowych zasad, nie mogą uruchomić wykupionych aplikacji. Akceptacja zaś oznacza przyznanie amerykańskiemu przedsiębiorstwu prawa dostępu do tworzonych treści zarówno metodami ręcznymi, jak i automatycznymi. W dalszej części można doczytać, że jednym z celów jest „uczenie maszynowe na potrzeby ulepszania usług i oprogramowania”.
Krótko mówiąc: użytkownicy Photoshopa, Illustratora i innych aplikacji z pakietu Adobe Creative Cloud obawiają się, że ich dzieła będą teraz wykorzystywane do szkolenia narzędzi generatywnej sztucznej inteligencji. A Amerykanie mają ich co najmniej kilka, na czele z Generative Fill (generatorem obrazów w stylu Midjourney i DALL-E) oraz Firefly (generatorem wideo będącym odpowiedzią na Sorę firmy OpenAI).
Artyści obawiają się, że wobec tego ich prace mogą być plagiatowane, a zawarte przez nich umowy o zachowaniu poufności w pewien sposób naruszane. Nie są też zadowoleni z języka wykorzystanego w regulaminie – tłumaczy on bowiem niewiele i tak naprawdę każe się domyślać, co Adobe może robić z pracami użytkowników i co z nimi robić zamierza.
Kwestia prywatności i praw autorskich jest w światku sztucznej inteligencji poruszana nie od wczoraj. Narzędzia tego typu nie są w stanie niczego wymyślić same – zamiast tego łączą najdrobniejsze fakty z informacji, którymi się je „nakarmi”. Dobór tych danych może budzić kontrowersje, szczególnie gdy pochodzą one bezpośrednio od użytkowników. I choć wydaje się to naturalne, to wcale jednak nie musi tak być.
DuckDuckGo pokazuje, że można to robić inaczej
W ten sposób przechodzimy do DuckDuckGo, które kojarzysz pewnie z wyszukiwarki internetowej stawiającej na prywatność. W obrębie tego serwisu pojawił się ostatnio chatbot wykorzystujący sztuczną inteligencję i to nie byle jaką, bo bazującą na modelach GPT-3.5 Turbo, Claude, Meta Llama 3 i Mixtral. To, co go wyróżnia, to fakt, że czaty są całkowicie prywatne.
Co oznacza prywatność w tym przypadku? Ukrywanie IP, nieprzechowywanie treści czatów i uniemożliwianie wykorzystywania ich do dalszych treningów sztucznej inteligencji. A nawet gdyby jakimś sposobem twórcy narzędzi zdołali uzyskać treść, to nie będą w stanie powiązać jej z konkretnym użytkownikiem. Serwis DuckDuckGo bierze bowiem od niego zapytanie, następnie usuwa wszystkie metadane i dopiero przesyła je dalej. Funkcja jest bezpłatna.
Aktualizacja, 11 czerwca 2024:
Firma Adobe nareszcie odniosła się do sprawy, a jej wyjaśnienia powinny uspokoić artystów. Amerykanie zapewniają, że kontrowersyjne zapiski pojawiły się w regulaminie przez przypadek, a właściwie, że tezy zostały niewłaściwie sformułowane, co mogło prowadzić do błędnej interpretacji. Równocześnie ogłosili, że już w przyszłym tygodniu opublikowany zostanie zaktualizowany dokument.
Producent złożył także deklarację, że nigdy nie będzie uzyskiwać dostępu do treści użytkowników pakietu Creative Cloud i poszczególnych aplikacji, w celu szkolenia modeli generatywnej sztucznej inteligencji. Do jej trenowania wykorzystywane będą wyłącznie licencjonowane obrazy stockowe. Zapewnia też, że nigdy nie postępował inaczej, także po ostatniej aktualizacji regulaminu.