Jak AI uczy się myślenia: Przełom w modelowaniu języka z Quiet-STaR
Kiedy myślimy o sztucznej inteligencji (AI), często wyobrażamy sobie maszyny, które działają na podstawie sztywno zaprogramowanych instrukcji. Jednak postęp w dziedzinie uczenia maszynowego zmierza w kierunku, który zaciera granice między maszynowym przetwarzaniem a ludzkim rozumowaniem. Projekt Quiet-STaR to pionierskie podejście, dzięki któremu modele językowe uczą się „myśleć przed mówieniem”, otwierając nowe horyzonty dla AI.
Era nowego rozumowania
Podstawą projektu Quiet-STaR jest idea, że AI może i powinna „myśleć”, zanim poda odpowiedź. W marcu 2024 roku, zespół naukowców z Uniwersytetu Stanforda oraz Notbad AI Inc. przedstawił wyniki swojej pracy nad algorytmem Quiet-STaR, zastosowanym do modelu Mistral 7B. Mistral 7B, będący otwartoźródłowym, wielkojęzykowym modelem (LLM), dzięki temu podejściu zyskał zdolności, które wcześniej były nieosiągalne dla maszyn.
Skok jakościowy w rozumowaniu
Zastosowanie Quiet-STaR do Mistrala 7B zaowocowało znaczącym wzrostem zdolności rozumowania modelu – z 36,3% do imponujących 47,2% poprawy w testach rozumowania. Co więcej, w testach z zakresu matematyki, Mistral 7B osiągnął wynik 10,9%, co stanowi niemal dwukrotną poprawę w stosunku do pierwotnego wyniku 5,9%. Wyniki te, opublikowane w bazie danych arXiv, choć wciąż czekają na recenzję, rzucają nowe światło na potencjał i przyszłość sztucznej inteligencji.
Jak to działa?
Quiet-STaR wprowadza model do procesu generowania wewnętrznych myśli lub uzasadnień po każdym tokenie tekstu. To rodzaj wewnętrznego dialogu, który pomaga AI lepiej zrozumieć i przewidzieć przyszły tekst. Model miesza swoje prognozy z uzasadnieniami, aby optymalnie wykorzystać zarówno bazowe predykcje, jak i te wzbogacone przez proces rozumowania.
Dlaczego to ważne?
Do tej pory modele językowe opierały się głównie na naukach z dużych zbiorów danych tekstowych, bez głębszego zrozumienia kontekstu czy zdolności do rozumowania. Quiet-STaR zmienia ten stan rzeczy, ucząc maszyny, jak rozwinąć swoje „myślenie”, zanim udzielą odpowiedzi. Taki model nie tylko radzi sobie lepiej z zadaniami wymagającymi rozumowania, ale także otwiera drogę do tworzenia bardziej zrozumiałych i koherentnych odpowiedzi przez AI.
Podsumowanie
Quiet-STaR to nie tylko krok naprzód w dziedzinie sztucznej inteligencji, ale też zaproszenie do refleksji nad tym, co AI może osiągnąć w przyszłości. Ucząc maszyny myślenia przed działaniem, zbliżamy się do tworzenia AI, której działania są bardziej przemyślane, zrozumiałe i, co najważniejsze, bardziej ludzkie. Pomimo, że Mistral 7B nadal zmaga się z testami szkolnymi z matematyki, progres, jaki udało się osiągnąć, pokazuje, że nawet najtrudniejsze wyzwania są w zasięgu ręki.