Organizacja UNESCO wydała obszerny raport na temat sztucznej inteligencji oraz generowanych przez nią informacji na temat Holokaustu. Okazuje się, że boty AI często zakrzywiają rzeczywistość, wprowadzają w błąd i przekazują treści niezgodne z prawdą o ludobójstwie.
Sztuczna inteligencja może wprowadzać w błąd
O Holokauście słyszał każdy. Jest to określenie dotyczące ludobójstwa około sześciu milionów Żydów w Europie, dokonanego podczas drugiej wojny światowej przez III Rzeszę. Okazuje się jednak, że modele sztucznej inteligencji zostały wyszkolone na materiałach, które mogą ograniczać prawdę, wprowadzać w błąd czy generować fałszywe informacje. Głos w tej sprawie zabrało UNESCO.
W obszernym raporcie opracowanym przez organizację oraz Światowy Kongres Żydów wyjaśniono, że narzędzia AI mogą prowadzić do szerzenia się antysemityzmu i narażać na prezentację zniekształconej historii. Szczególnie zagrożeni są ludzie młodzi, którzy podczas nauki, rozrywki czy odrabiania zadań domowych korzystają ze sztucznej inteligencji. Jak wynika z artykułu UNESCO, aż 80% osób w wieku 10 do 24 lat korzysta z narzędzi generatywnych nawet kilka razy dziennie.
Holokaust „oczami” AI
Jak wiemy, modele sztucznej inteligencji zasilane są niezwykle dużymi zbiorami danych, również pochodzącymi z internetu. Materiały nie zawsze są weryfikowane pod względem poprawności, co oznacza, że mogą wprowadzać w błąd i szkodzić użytkownikom, a także konkretnym społecznościom. Tak zdarza się w przypadku poszukiwania informacji u botów na temat Holokaustu.
UNESCO wspomina, że AI mogła korzystać z witryn, które przekazywały fałszywy obraz wydarzeń historycznych. Jedną z kontrowersyjnych aplikacji jest Historical Figures, która pozwala na przeprowadzenie konwersacji z botem, podającym się za konkretną postać historyczną, w tym m.in. z Adolfem Hitlerem. Wydawać by się mogło, że takie oprogramowanie może czegoś nauczyć, jednak wprowadzało w błąd, twierdząc na przykład, iż Joseph Goebbels nie był zaangażowany w Holokaust czy nawet próbował zapobiec przemocy. UNESCO wspomina, że AI ma tzw. halucynacje – generuje treści, które nie są związane z prawdą, przez brak wystarczającej ilości informacji.
Organizacja zachęca przedsiębiorstwa oraz rządy do wdrożenia zasad, które zostały opracowane i przyjęte w 2021 roku w postaci dokumentu Zalecenia Organizacji w sprawie etyki sztucznej inteligencji. W lutym br. ośmiu gigantów technologicznych zobowiązało się do zaleceń UNESCO. Były to firmy Lenovo Group, LG AI Research, Mastercarc, Microsoft, a także Salesforce, Telefonica, GSMA i INNIT.
Organizacja apeluje też, aby tworzenie narzędzi AI związanych z przekazywaniem faktów o historii nowożytnej było konsultowane ze specjalistami, ze społecznością żydowską oraz ekspertami w dziedzinie antysemityzmu. Prośby kierowane są także do edukatorów, którzy powinni dzielić się faktami o Holokauście oraz uświadamiać młode osoby, że narzędzia oparte o sztuczną inteligencję mogą wprowadzać w błąd.