CEO Microsoft AI wywołał kontrowersje swoim stwierdzeniem, że internet jest jak „freeware” dla treningu modeli AI. Według niego treści dostępne online mogą być swobodnie wykorzystywane przez sztuczną inteligencję, co spotkało się z ostrą krytyką ze strony twórców i użytkowników, którzy obawiają się o swoje prawa autorskie i etyczne aspekty wykorzystanie ich pracy.
Microsoft i „społeczny kontrakt” internetu
Podczas wywiadu na Aspen Ideas Festival, Mustafa Suleyman poruszył temat wykorzystywania treści internetowych do trenowania modeli AI. Stwierdził, że internet od lat 90. funkcjonuje na zasadzie „społecznego kontraktu”, który pozwala na swobodne korzystanie z publicznie dostępnych danych. Według niego wszelkie treści dostępne online można kopiować, przetwarzać i odtwarzać w ramach uczciwego użytku.
Takie podejście spotkało się z dużą krytyką. Społeczność internetowa szybko zareagowała podkreślając, że traktowanie treści jako „freeware” jest błędnym zrozumieniem zasad wspominanego już uczciwego użytku oraz lekceważeniem praw autorskich twórców. „Fair use” pozwala na ograniczone korzystanie z materiałów chronionych prawem autorskim, na przykład w celach krytycznych, edukacyjnych lub badawczych, ale masowe wykorzystanie treści do komercyjnych celów zdecydowanie wykracza poza te ramy.
Jak podkreśla portal Android Authority, znane postacie z branży technologicznej, takie jak Tom Warren, publicznie piętnowały podejście Microsoftu, pytając, czy firma zgodziłaby się na traktowanie swojego systemu operacyjnego Windows jako freeware. Z kolei artysta Denman Rooke, zaznaczył różnicę między oglądaniem czy pobieraniem dzieł sztuki online a ich komercyjnym wykorzystywaniem bez zgody twórców, co według niego jest oczywistą formą kradzieży.
Sztuczna inteligencja wyprzedza regulacje
Kontrowersje wokół wypowiedzi Suleymana uwypuklają potrzebę wypracowania jasnych wytycznych i standardów prawnych, ale także etycznych w dziedzinie sztucznej inteligencji. Obecnie internet jest pełen treści tworzonych przez dziennikarzy, artystów i zwykłych użytkowników. Kiedy firmy tworzące algorytmy AI wykorzystują te treści bez odpowiedniego wynagrodzenia dla ich twórców, w pewien sposób odbierają ich źródło dochodu.
Dyskusja ta jest szczególnie istotna w kontekście ostatnich działań OpenAI, które aktywnie zawiera umowy licencyjne z dużymi mediami i platformami internetowymi, aby legalnie korzystać z ich treści do trenowania swoich modeli. Czy tak wielki gracz jak Microsoft AI po prostu uznał, że wszystko, co nie jest jasno i wprost zakazane, jest po prostu legalne? Niestety na to wygląda.