Google ogłosiło powstanie koalicji, której celem będzie wdrażanie kompleksowych środków bezpieczeństwa w zakresie sztucznej inteligencji. Składa się z ona wielu czołowych firm technologicznych. Co planuje gigant z Mountain View?.
Nowa koalicja Google
Nie trzeba być ekspertem, żeby zauważyć, że sztuczna inteligencja rozwija się obecnie w niesamowicie szybkim tempie. W odpowiedzi na to Google zainicjowało powstanie specjalnej koalicji na rzecz bezpiecznej sztucznej inteligencji. W jej skład weszły takie firmy, jak Amazon, Anthropic, Chainguard, Cisco, Cohere, GenLab, IBM, Intel, Microsoft, Nvidia, OpenAI, Paypal i Wiz, czyli jak widać „śmietanka” technologicznego świata. Grupa ma działać pod auspicjami OASIS Open, międzynarodowego konsorcjum standaryzacyjnego i open source.
Nowopowstała koalicja skupi się na trzech głównych obszarach: bezpieczeństwie łańcucha dostaw oprogramowania dla systemów AI, przygotowaniu obrońców na zmieniający się krajobraz cyberbezpieczeństwa oraz zarządzaniu bezpieczeństwem AI.
W ramach tych obszarów firmy będą pracować nad rozszerzeniem istniejących zasad bezpieczeństwa oprogramowania, takich jak SLSA (Supply Chain Levels for Software Artifacts), na modele AI. Ostatnim celem jest stworzenie „taksonomii ryzyka i kontroli, listę kontrolną i kartę wyników, aby pomóc praktykom w ocenie gotowości, zarządzaniu, monitorowaniu i raportowaniu bezpieczeństwa ich produktów AI”.
Jaka będzie przyszłość AI?
Google i inne firmy zrzeszone w nowej koalicji zobowiązały się do bliskiej współpracy z organizacjami, takimi jak Frontier Model Forum, Partnership on AI, Open Source Security Foundation i ML Commons. Jej celem ma być promowanie odpowiedzialnego rozwoju AI i zapewnienie, że nowe technologie będą wprowadzane w sposób bezpieczny. Jak podkreśla gigant z Mountain View w swoim komunikacie, kolejnym krokiem w dążeniu do bezpiecznego rozwoju AI jest zachęcanie deweloperów i użytkowników do przyjęcia standardów bezpieczeństwa opracowanych przez koalicję.
Szybki rozwój technologii AI pokazuje jak potrzebne są inicjatywy takie jak ta, które mają dążyć do zapewnienia, że rozwój ten będzie bezpieczny i odpowiedzialny. Naturalnie pojawią się tutaj pewne wątpliwości ile w tych szlachetnych hasłach prawdy, a ile po prostu czystych działań marketingowych.
Szczególnie w obliczu faktu, że niedawno zarówno Apple, jak i Microsoft, zostały oskarżone o bezprawne wykorzystanie danych do trenowania swoich modeli sztucznej inteligencji.