Walka z mową nienawiści to idea, której jednoznacznie przyklaskuję. Internet powinien być w mniejszym stopniu obciążony hejtem. Gorzej, jeśli za rozpoznawanie materiałów bierze się algorytm, bowiem nagle może okazać się, że piękna idea niesie za sobą szereg komplikacji.
Historia rozpoczyna się w chwili, gdy YouTube opublikował nowe zasady, które – w swoim założeniu – miały walczyć z mową nienawiści, wliczając w to rasizm, dyskryminację ze względu na światopogląd, wiek, religię czy orientację seksualną. Jak pisałem wcześniej, idea godna pochwały. Mechanizm został uruchomiony zaledwie kilka dni temu, a już okazało się, że pośrednio uderzył on w osoby, które w swoich materiałach wykorzystywały fragmenty takich treści, prezentując przy tym ich negatywne działanie na wybrane grupy.
YouTube Music i YouTube Premium wreszcie w Polsce! Oto najważniejsze informacje
Jednym z poszkodowanych jest niezależny dziennikarz, Ford Fischer, który w swojej działalności wykorzystuje YouTube’a. Dziennikarz nakręcił szereg materiałów z wydarzeń, które – zdaniem algorytmu – można sklasyfikować jako mowę nienawiści. Warto tu dopowiedzieć, że z pracy Fischera ochoczo korzystali dokumentaliści, którzy poświęcają swoją uwagę takim zjawiskom jak nacjonalizm w Stanach Zjednoczonych.
Dostało się też Jaredowi Holtowi, reporterowi śledczemu w Right Wing Watch, który sporo uwagi poświęcał materiałom, które w swojej tezie zahaczały o antysemityzm. TheVerge poprosił przedstawicieli YouTube’a o komentarz w sprawie, jednak firma wskazała tylko na dokument, wedle którego „brudną robotę” wykonuje algorytm, ale ostateczna decyzja o usunięciu treści jest podejmowana przez zespoły moderatorów.
Pozostaje mieć nadzieję, że firma wyciągnie należyte wnioski i nakaże swoim pracownikom nieco dokładniejszą weryfikację treści, które – zdaniem algorytmu – kwalifikują się do usunięcia. W ostatecznym rozrachunku, przy tak dużej popularności serwisu, bardzo łatwo byłoby wylać dziecko wraz z kąpielą.
źródło: TheVerge, opr. własne