Holokaust w Birkenau
(źródło: Pixabay)

Sztuczna inteligencja nie wie, kto odpowiada za Holokaust. UNESCO wydało ostrzeżenie

Organizacja UNESCO wydała obszerny raport na temat sztucznej inteligencji oraz generowanych przez nią informacji na temat Holokaustu. Okazuje się, że boty AI często zakrzywiają rzeczywistość, wprowadzają w błąd i przekazują treści niezgodne z prawdą o ludobójstwie.

Sztuczna inteligencja może wprowadzać w błąd

O Holokauście słyszał każdy. Jest to określenie dotyczące ludobójstwa około sześciu milionów Żydów w Europie, dokonanego podczas drugiej wojny światowej przez III Rzeszę. Okazuje się jednak, że modele sztucznej inteligencji zostały wyszkolone na materiałach, które mogą ograniczać prawdę, wprowadzać w błąd czy generować fałszywe informacje. Głos w tej sprawie zabrało UNESCO.

Raport na temat AI i Holokaustu
(źródło: UNESCO)

W obszernym raporcie opracowanym przez organizację oraz Światowy Kongres Żydów wyjaśniono, że narzędzia AI mogą prowadzić do szerzenia się antysemityzmu i narażać na prezentację zniekształconej historii. Szczególnie zagrożeni są ludzie młodzi, którzy podczas nauki, rozrywki czy odrabiania zadań domowych korzystają ze sztucznej inteligencji. Jak wynika z artykułu UNESCO, aż 80% osób w wieku 10 do 24 lat korzysta z narzędzi generatywnych nawet kilka razy dziennie.

Holokaust „oczami” AI

Jak wiemy, modele sztucznej inteligencji zasilane są niezwykle dużymi zbiorami danych, również pochodzącymi z internetu. Materiały nie zawsze są weryfikowane pod względem poprawności, co oznacza, że mogą wprowadzać w błąd i szkodzić użytkownikom, a także konkretnym społecznościom. Tak zdarza się w przypadku poszukiwania informacji u botów na temat Holokaustu.

UNESCO wspomina, że AI mogła korzystać z witryn, które przekazywały fałszywy obraz wydarzeń historycznych. Jedną z kontrowersyjnych aplikacji jest Historical Figures, która pozwala na przeprowadzenie konwersacji z botem, podającym się za konkretną postać historyczną, w tym m.in. z Adolfem Hitlerem. Wydawać by się mogło, że takie oprogramowanie może czegoś nauczyć, jednak wprowadzało w błąd, twierdząc na przykład, iż Joseph Goebbels nie był zaangażowany w Holokaust czy nawet próbował zapobiec przemocy. UNESCO wspomina, że AI ma tzw. halucynacje – generuje treści, które nie są związane z prawdą, przez brak wystarczającej ilości informacji.

Organizacja zachęca przedsiębiorstwa oraz rządy do wdrożenia zasad, które zostały opracowane i przyjęte w 2021 roku w postaci dokumentu Zalecenia Organizacji w sprawie etyki sztucznej inteligencji. W lutym br. ośmiu gigantów technologicznych zobowiązało się do zaleceń UNESCO. Były to firmy Lenovo Group, LG AI Research, Mastercarc, Microsoft, a także Salesforce, Telefonica, GSMA i INNIT.

Organizacja apeluje też, aby tworzenie narzędzi AI związanych z przekazywaniem faktów o historii nowożytnej było konsultowane ze specjalistami, ze społecznością żydowską oraz ekspertami w dziedzinie antysemityzmu. Prośby kierowane są także do edukatorów, którzy powinni dzielić się faktami o Holokauście oraz uświadamiać młode osoby, że narzędzia oparte o sztuczną inteligencję mogą wprowadzać w błąd.