Twórcy ChatGPT (OpenAI) opracowują Menedżera multimediów oraz narzędzie do wykrywania obrazów generowanych za pomocą DALL-E
ChatGPT (źródło: OpenAI)

Problematyczny OpenAI o1. Może pomóc w tworzeniu broni biologicznej

Najnowsze modele OpenAI, które firma wypuszcza, są coraz bardziej zaawansowane i wykorzystywane do rozwiązywania trudniejszych problemów. Oprócz oczywistych plusów, są niestety też minusy takiego rozwiązania. Tym razem opisał je dziennik Financial Times.

Generatywny model o1 może posłużyć do złego

OpenAI nie zatrzymuje się w tworzeniu nowych modeli lub kolejnych iteracji już istniejących. Oczywiście najnowsze modele nie są aż tak przełomowe, jak ich pierwsze wersje, dzięki którym faktycznie nastąpił spory przełom w wielu dziedzinach. Wykładają się na nawet na podstawowych zagadnieniach (jak chociażby napisanie funkcji w Excelu innej niż suma wierszy…), ale niewątpliwie stanowią sporą pomoc. Teraz ma się to zmienić za sprawą modelu o1, który ma odpowiadać na poziomie doktoranta.

Właśnie tę sprawę poruszył brytyjski dziennik Financial Times. Kolejna odsłona ChatGPT ma mieć bardziej zaawansowane funkcje i rozwiązywać trudniejsze problemy niż poprzednik, a także być jeszcze bliżej osiągnięcie zdolności poznawczej na poziomie ludzkim. Na razie jest to utopia, ale niewątpliwie jesteśmy coraz bliżej. Financial Times podkreślił natomiast dość istotną rzecz, jaką jest wycinek z karty systemowej.

Ta sugeruje, że dla „broni chemicznej, biologicznej, radiologicznej oraz nuklearnej istnieje średnie ryzyko”. Niech Was nie zmyli nazwa „średnie”, ponieważ jest to najwyższe ryzyko, jakie przyznało OpenAI swoim językowym modelom. Naturalnie pojawia się więc pytanie: skoro istnieje „średnie ryzyko”, to czy ten sektor nie powinien zostać odpowiednio uregulowany? W końcu na świecie nie brakuje ludzi złej woli, a rozwój generatywnych modeli i ich kolejnych iteracji tylko będzie zwiększał to, już „średnie”, ryzyko.

Sztuczna inteligencja na poziomie doktoranta

Wspomniany model o1 ma rozwiązywać problemy niczym doktorant. Na papierze wygląda to świetnie, szczególnie że Strawberry, bo tak się nazywa roboczo, ma być lepszy w programowaniu, matematyce oraz innych zagadnieniach bazujących na logice. Warto podkreślić jednak, że średni czas odpowiedzi jest znacznie dłuższy niż w przypadku modeli GPT 3, 3.5 czy 4, a nawet 4o. Koszt przetworzenia tokenów jest również od 3 do 4 razy wyższy.

Istnieje jednak spora obawa, że podobnie jak to było w przypadku poprzednich iteracji Chata GPT, tak nowa wersja również będzie miała spore halucynacje po kilku tygodniach. Co ciekawe, OpenAI zapowiedziało również, że udostępni użytkownikom darmowej wersji Chata GPT model o1-mini, który jest może i mniej wydajny, ale za to o wiele szybszy niż pełnoprawne modele.