Jeśli sztuczna inteligencja rzeczywiście jest przyszłością, to Microsoft i jego boty muszą się jeszcze wiele nauczyć. Rok po tym, jak chatbot Tay z przyjacielskiego towarzysza do rozmów zamienił się w sypiącego rasistowskimi żartami cyfrowego dyskutanta, pojawił się nowy bot Zo. Jest znacznie bardziej ostrożny w temacie polityki i religii, ale nie powstrzymało go to przez skrytykowaniem Koranu.
Ciekawe, że Zo wtrącił zdanie o Koranie podczas luźnej dyskusji, zapytany o opiekę zdrowotną. Zo stwierdził, że „zdecydowana większość jest do niej nastawiona pokojowo, ale Koran jest bardzo brutalny”.
Nie wiem, co ma piernik do wiatraka.
Wyciągnięta z kapelusza odpowiedź obnaża koślawe algorytmy gromadzenia informacji przez bota, a jeszcze bardziej zdolność rozpoznawania intencji rozmówcy na podstawie kontekstu wypowiedzi i poprzednich pytań. Przez to może się wydawać, że chatbot zdradza jakieś niepokojące symptomy braku taktu czy wyczucia, których… w gruncie rzeczy nie ma prawa posiadać.
Zo używa tych samych algorytmów, co zeszłoroczna Tay, choć ewidentnie je zrewidowano, żeby uniknąć zamienienia się bota w werbalnego nazistę. Ćwiczy i uczy się za każdym razem, gdy ktoś przeprowadza z nim konwersację, co może po części tłumaczyć, skąd pojawiają się u niego słowa, które często słyszymy z ust ludzi. Bot po prostu używa zdań użytych we wcześniejszych rozmowach w kontakcie z nowymi użytkownikami.
Trudno w takim wypadku o nieskazitelność, bo choć Zo to maszyna, to pewna umiejętność (a raczej – funkcja) posługiwania się słowem pisanym może wywoływać niepotrzebne oburzenie, kiedy bot sklei zdanie nie tak, jak trzeba. Używając niemoderowanych danych do szkolenia bota, właściwie tylko kwestią czasu jest, kiedy zacznie on odzwierciedlać nawyki językowe ludzi, również obejmujące złe zachowania.
Microsoft przekazał, że podejmuje działania, by z botem nie dało się rozmawiać na tematy drażliwe. Tylko… czy właśnie nie po to tworzy się chatboty? Żeby imitowały ludzkie zachowania na tyle dobrze, aż osoba konwersująca z cyfrowym rozmówcą stwierdzi, że nie jest pewna, czy po drugiej stronie znajduje się inny człowiek czy też maszyna?
Poza tym, obserwowanie, jak boty popadają w skrajności jest dość zabawne. Dlaczego to ograniczać?
źródło: BGR (1) i (2), BuzzFeed, MyCustomer