Wielu nie spodobało się to, że Google współpracuje z amerykańską armią w zakresie wykorzystania sztucznej inteligencji w projektach czysto militarnych. Choć Pentagon dalej będzie korzystał z pomocy badaczy z Mountain View, postarali się oni o opublikowanie zestawu zasad, którym włodarze Google będą kierować się przy wybieraniu, w których projektach wojskowych firma będzie brać czynny udział.
Swego rodzaju kodeks sztucznej inteligencji Google opublikowano na blogu firmy. Wyjaśniono tam, że Google nigdy nie zaprojektuje sztucznej inteligencji do użycia w broni, w technikach inwigilacji lub innej technologii, która spowodowałaby szkody. Jednocześnie podkreślono, że nie oznacza to całkowitej rezygnacji z udziału w projektach rządowych lub wojskowych.
Wytyczne, zatytułowane „SI w Google: nasze zasady”, składają się z siedmiu celów sztucznej inteligencji oraz sekcji o kierunku rozwoju SI, do którego Google nie zamierza dążyć. W tekście firma przyznaje, że inteligentne algorytmy mają już teraz silny wpływ na społeczeństwo, oraz że poczuwa się do odpowiedzialności za to, by sztuczna inteligencja rozwijała się w odpowiedni sposób.
Post na stronie Google’a pojawił się jakiś czas po kontrowersjach, jakie wywołała nowina, że Google współpracuje z Pentagonem przy projekcie Maven. Jego założenia obejmują dostarczenie sztucznej inteligencji do dronów wojskowych, która pomagałaby rozpoznawać obiekty na obrazie odbieranym przez kamery. Ponad 3000 pracowników Google podpisało petycję z prośbą do zarządu firmy o wycofanie się z projektu, a co najmniej 12 z nich odeszło od swojego pracodawcy na znak protestu.
https://www.tabletowo.pl/2018/05/15/odchodza-z-google-bo-nie-chca-wspolpracowac-z-pentagonem/
Google podkreślało od początku, że współpraca nie obejmuje badań nad implementacją sztucznej inteligencji w dronach bojowych, a chodzi jedynie o ich pracę rozpoznawczą, ale najwyraźniej albo Pentagon wyjaśnił Google, do czego tak naprawdę będą używane drony, albo nacisk pracowników był na tyle silny, że firma zdecydowała o opuszczeniu projektu Maven zaraz po zakończeniu obecnego kontraktu. Współpraca Google ze strukturami wojskowymi obejmować będzie nadal „cyberbezpieczeństwo, szkolenia, rekrutację wojskową, opiekę zdrowotną – w tym nad weteranami, oraz ratownictwo”.
Siedem celów dla Sztucznej Inteligencji wg Google to:
- Bądź społecznie korzystny
- Unikaj tworzenia lub umacniania podziałów i uprzedzeń
- Bądź budowany i testowany pod kątem bezpieczeństwa
- Bądź odpowiedzialny przed ludźmi i przez nich kontrolowany
- Uwzględniaj obowiązujące zasady zachowania prywatności
- Zachowuj wysokie standardy naukowe
- Bądź powszechnie dostępny do użytku zgodnie z powyższymi zasadami
Przypomina mi to trochę trzy fikcyjne prawa robotyki, określone przez amerykańskiego pisarza Isaaca Asimova. Rzecz jasna, w wypadku Google mamy do czynienia z zasadami, których muszą się trzymać ludzie pracujący nad narzędziem, jakim jest sztuczna inteligencja, a nie prawami autonomicznych maszyn, ale występują w nich pewne podobieństwa.
Sundar Pichai, wypowiadający się w omawianym poście, wydaje się być zarówno ostrożny i jednocześnie optymistycznie nastawiony do zastosowań sztucznej inteligencji. Wcześniej w tym roku przyrównał SI do ognia, który można wykorzystać dla dobra ludzkości.
Pełny tekst zasad Google dotyczący Sztucznej Inteligencji można znaleźć na oficjalnym blogu firmy.
źródło: Google przez AndroidAuthority