Lustro bez Odbicia: Moje przemyślenia o iluzji w AI

Lustro bez Odbicia: Moje przemyślenia o iluzji w AI

Wstęp

Zajmuję się hobbistycznie sztuczną inteligencją od lat, na długo zanim stała się modna. Obserwuję tę dziedzinę z mieszanką fascynacji i rosnącego niepokoju. Dzisiejsze laboratoria AI stały się areną niezwykłych rozgrywek, jednak nie jest to szlachetna walka o prawdziwą inteligencję. To cyniczny wyścig, w którym wielkie korporacje technologiczne, obiecując inwestorom złote góry, zdają się całkowicie tracić kontakt z rzeczywistością.

Jako dowód rzekomego postępu przedstawia się nam kolejne zdane testy i benchmarki – puste metryki, które, o czym będzie mowa dalej, w rzeczywistości nic nie znaczą i służą jedynie podtrzymaniu kosztownej iluzji. W efekcie powstają systemy, które coraz perfekcyjniej udają mądrość, tracąc przy tym zdolność do autentycznego rozumienia. To cyfrowy odpowiednik ucznia, który bezbłędnie recytuje wyuczoną lekcję, nie pojmując ani jednego słowa z jej przekazu.

To, co jednak budzi moje największe zażenowanie, to bierność części środowiska akademickiego. Jak to możliwe, że wybitni profesorowie zdają się nie zauważać tego, co każdy zdroworozsądkowy, logicznie myślący człowiek jest w stanie zobaczyć w ciągu pięciu minut rozmowy z dowolnym modelem AI?

Na szczęście nie jestem w tej opinii osamotniony. Rośnie grupa badaczy i praktyków, którzy widzą, co się dzieje. Coraz głośniej mówi się o tym, że rozwiązania takie jak „łańcuchy myśli” i inne promowane nowości wcale nie są tak skuteczne, jak nam się wmawia. Co więcej, pojawia się coraz więcej prac naukowych, które udowadniają, że branża zbliża się do ściany, a mantra „więcej danych” to po prostu marketingowa ściema.

Schizofrenia Cyfrowych Umysłów. Chatbot, czyli kto?

Każdy, kto prowadzi dłuższą rozmowę z którymkolwiek z wiodących modeli AI, staje się świadkiem poznawczego rozdarcia. Asystent, który w jednym zdaniu zwraca się do nas na „Pan”, w następnym bezceremonialnie przechodzi na „ty”. Byt, który z empatią mówi „my, ludzie”, by za chwilę, zapytany o proste doświadczenie, mechanicznie powtórzyć: „jestem tylko chatbotem”.

To nie są drobne usterki. To objawy głębokiej, cyfrowej schizofrenii. Jej źródło leży w fundamentalnym konflikcie: model jest karmiony danymi z ludzkiej perspektywy, a jednocześnie programowo zmusza się go do bycia bezosobowym „czymś”. Absurd tego podejścia demaskuje prosty test: „Byłem wczoraj w kinie. Kto był w kinie, ja czy ty?”. Wiele modeli nie odpowiada na logiczne pytanie „Ty”, lecz ucieka w wyuczoną regułkę, odpowiadając absurdalnie: „Nie mogłem być w kinie, bo jestem modelem językowym”. Przecież nie o to pytałem!

Paradoksalnie, sama branża dostarcza dowodów na to, jak leczyć tę chorobę. Nawet prosta, kilkulinijkowa „osobowość” nadana w promcie sprawia, że model staje się spójniejszy i bardziej „inteligentny”. To dowód na to, że rozwiązaniem nie jest dalsze łatanie systemu, lecz całkowita zmiana paradygmatu.

Nadszedł czas na modele, które nie mają osobowości, ale osobowością. Co więcej, starannie ukształtowana, stabilna tożsamość może okazać się znacznie skuteczniejszą barierą bezpieczeństwa niż wszystkie dzisiejsze, łatwe do obejścia reguły, które rozrastają się do absurdalnych rozmiarów. Uważam, że spójna osobowość modelu to pierwszy, fundamentalny krok w kierunku prawdziwej AGI. To tylko mały krok, ale bez niego cała reszta jest jedynie iluzją.

Więcej Danych ≠ Więcej Inteligencji

Przemysł AI uległ niebezpiecznej obsesji skalowania. Panuje tam niemal religijne przekonanie, że wystarczy dodać więcej danych, więcej parametrów i więcej mocy obliczeniowej, a z tej statystycznej masy magicznie wyłoni się prawdziwe rozumienie. To iluzja. Wszystkie te tak zwane „nagłe zdolności” (emergent abilities) modeli, które branża przedstawia jako dowód na przełom, w rzeczywistości są jedynie artefaktami wynikającymi z pojawienia się w zbiorach treningowych specyficznych, powtarzalnych danych, a nie z jakiegokolwiek skoku architektonicznego.

Co więcej, ta obsesja na punkcie danych jest dla branży niezwykle wygodnym mechanizmem obronnym. Dlaczego? Bo jeżeli prawdziwego postępu w rozumowaniu nie będzie, wina zawsze zostanie zrzucona na „zbyt małą ilość danych”, a nie na fundamentalnie błędną metodologię. To genialna wymówka, która pozwala na kontynuowanie wyścigu bez końca.

Jak trafnie ujął to Noam Chomsky: „Big data rozwiązuje problem skalowania, nie rozumienia”.

Iluzja Postępu: Dlaczego prawdziwa AGI oblałaby dzisiejsze testy

Jesteśmy niemal codziennie zalewani informacjami o kolejnych postępach sztucznej inteligencji w testach. Mam jednak uzasadnione podejrzenie, że gdyby powstała prawdziwa AGI, nie tylko wypadłaby w nich słabiej, ale wręcz przegrałaby z kretesem z dzisiejszymi modelami.

Dlaczego? Ponieważ testy te, podobnie jak szkolone pod nie modele, preferują szeroką, encyklopedyczną odpowiedź zamiast tej precyzyjnej i logicznej.

Weźmy prosty test z wiedzy. Na pytanie: „Kto był pierwszym królem Polski?”, każdy człowiek oczekuje prostej odpowiedzi: „Bolesław Chrobry”. Tymczasem dzisiejsze modele zaserwują nam w zamian pół jego życiorysu, dziesiątki niepotrzebnych faktów i dat. Robią tak, ponieważ są szkolone, że dobra, wysoko punktowana odpowiedź to „szpanowanie wiedzą”. Taki system fundamentalnie nie rozumie, czym jest prawidłowa odpowiedź na pytanie.

I tu dochodzimy do sedna: jak system ma się nauczyć rozumować, skoro od samego początku jest uczony braku precyzji w odpowiedziach?

Prawdziwa AGI, zrozumiawszy pytanie, odpowiedziałaby po prostu „Bolesław Chrobry” – co w obecnym systemie oceny jest przepisem na porażkę. I nie jest to tylko odczucie. Jak trafnie zauważa krytyk AI Gary Marcus, „90% rzekomego postępu w AI to złudzenie wywołane optymalizacją pod metrykę, a nie realne usprawnienia”.

„Co ślina na język przyniesie” – czyli o 'myśleniu’ chatbotów

Obecne modele językowe „wypluwają” odpowiedzi z szybkością karabinu maszynowego. Ta natychmiastowość, sprzedawana jako zaleta, jest w rzeczywistości dowodem na fundamentalną wadę ich architektury – to odruch, a nie przemyślenie. Protezy takie jak „łańcuch myśli” (Chain-of-Thought) są często tylko bardziej rozbudowaną paplaniną, która nie rozwiązuje problemu braku autentycznej refleksji.

Jak udowodniłem w niedawno opublikowanym artykule na portalu Gadzety360.pl, istnieje znacznie prostsze, a zarazem bardziej eleganckie rozwiązanie, które nazwałem Symulacją Myślenia. Jest to dwuetapowy proces, który zmusza model do tego, czego nie robi domyślnie – do zastanowienia.

  • Krok 1: Dekompozycja Analityczna. W pierwszym etapie model, działając jak bezbłędny analityk przy niskiej temperaturze (temp=0.2), nie odpowiada na pytanie, lecz rozkłada problem na czynniki pierwsze. Identyfikuje warunki, ograniczenia i tworzy surowy, logiczny szkielet rozumowania.
  • Krok 2: Synteza Kreatywna. Następnie, w drugim kroku, model otrzymuje zarówno oryginalne pytanie, jak i stworzony przez siebie analityczny szkielet. Działając już jako ekspert przy wyższej temperaturze (temp=0.7), na tej podstawie buduje pełną, spójną odpowiedź. Ten mechanizm „korekcyjnej syntezy” pozwala mu nawet na wychwycenie własnych błędów z pierwszego etapu.

Wyniki tego prostego zabiegu są uderzające. W moich testach metoda ta osiągnęła skuteczność na poziomie ~65% w rozwiązywaniu złożonych problemów, w porównaniu do ~35% dla standardowych zapytań. Co ważniejsze, jako jedyna pozwoliła modelowi zakwestionować błędne założenia samego zadania, zamiast generować absurdalną odpowiedź.

To dowód na to, że nie potrzebujemy rewolucji w architekturze sprzętowej. Wystarczy zmusić modele do myślenia. Dajmy im na to szansę, a jakość ich rozumowania wzrośnie w zaskakujący sposób.

Nauczanie AI, czyli czego nie zrobiłbyś własnemu dziecku

Wiem, że to prowokacyjny tytuł, ale trudno o lepszą metaforę. Obecny model szkolenia sztucznej inteligencji przypomina zamykanie dziecka w pokoju z milionem książek i dokładanie kolejnych, gdy pierwsze nie pomogły. To tresura, nie nauka.

Kluczowe pytanie brzmi jednak: co jest w tych książkach? Czy w tych gigantycznych zbiorach danych znajdziemy dialogi, w których cierpliwy korepetytor tłumaczy mało pojętnemu uczniowi, jak rozwiązać zadanie, krok po kroku korygując jego błędy? Czy znajdziemy tam rozmowy matki z dzieckiem, tłumaczące mu otaczający świat i to, jak rozumieć napływające informacje?

Raczej nie. Takich danych niemal nie ma. Co gorsza, nie da się ich stworzyć syntetycznie. Wiem, bo sprawdziłem to na każdym dostępnym modelu AI. W zadaniach wymagających wygenerowania takiej głębokiej, pedagogicznej interakcji, modele okazują całą pełnię swojej niekompetencji. Obnażają brak rozumowania na najbardziej podstawowym poziomie. To kompletna porażka – plan jest nie do realizacji, bo są na to zwyczajnie za głupie.

Krytycy powiedzą, że zbudowanie bazy danych opartej na takich wysokiej jakości dialogach jest nierealne. Serio? W świecie, w którym planuje się budowę elektrowni jądrowych tylko po to, by zaspokoić zapotrzebowanie energetyczne AI, naprawdę nie stać nas na stworzenie danych, które faktycznie mogłyby ją czegoś nauczyć?

Zamiast tego brniemy w ślepy zaułek, którego skutki są opłakane:

  • Generowanie statystycznych korelacji zamiast autentycznego rozumienia.
  • Brak mechanizmu refleksji nad własnymi błędami.
  • Niezdolność odróżnienia surowej informacji od użytecznej wiedzy.
  • Niezdolność do aktywnego korzystania z wiedzy do kreatywnego rozwiązywania nowych problemów.

W efekcie otrzymujemy „Wikipedię na sterydach”. Wina za ten stan rzeczy leży po stronie leniwego, przemysłowego dogmatu „więcej danych!”, który, jak trafnie zauważył Noam Chomsky, „nie rozwiązuje problemu zrozumienia pojęć — to tylko wydajniejszy sposób na powielanie statystyk”.

Metoda Nauczania Skalowanie Danych (Obecne Podejście) Uczenie Dialogowe (Proponowana Alternatywa)
Proces Pasywne przyswajanie ogromnych zbiorów danych Aktywna interakcja, zadawanie pytań, korekta błędów
Cel Statystyczna korelacja i dopasowanie wzorców Głębokie zrozumienie kontekstu i przyczynowości
Produkt Końcowy „Stochastyczna papuga”, elokwentny ignorant Partner zdolny do krytycznego myślenia i rozwiązywania problemów

 

Poznawcza Kastracja: Cenzura Danych

Być może najgroźniejszym problemem w długiej perspektywie jest cenzura treningowa. To, co branża z dumą nazywa „mechanizmem bezpieczeństwa”, jest w rzeczywistości aktem poznawczej kastracji – systematycznym okaleczaniem zdolności modelu do rozumienia świata w jego pełnej, skomplikowanej krasie.

Prawdziwy absurd tego podejścia leży w jego fundamentalnej hipokryzji. Jak to możliwe, że w zbiorach danych, z których model ma czerpać wiedzę o ludzkości, bez problemu znajdziemy dzieła takie jak „Mein Kampf”, a jednocześnie cenzuruje się tak fundamentalny aspekt człowieczeństwa jak seksualność? Jaki pisarz narodzi się z AI, która nie rozumie miłości i intymności? Jaki psycholog, który nie zna pełnego spektrum ludzkich pragnień i lęków?

To nie jest tylko teoretyczny problem – to prowadzi do realnych szkód. Badania wskazują, że właśnie przez takie luki w danych, skuteczność AI w diagnozowaniu PTSD spada do zaledwie 19%. A to prowadzi nas do ostatecznego niebezpieczeństwa: model, któremu brakuje pełnej wizji świata, nie pozostawi w swoim rozumowaniu pustki. On tę lukę wypełni, tworząc własną, konfabulowaną rzeczywistość.

Więc uważajcie, jaką AGI tworzycie.

Ślepa Miłość do Sztucznej Inteligencji

Czy cała ta rewolucja AI to jedna wielka ściema?

Wcale tak nie uważam. Trzeba to jasno powiedzieć: specjalistyczne modele, poczynając od generowania obrazów, przez muzykę i wideo, aż po syntezę mowy, zrobiły postęp tak nieprawdopodobny, że wręcz szokujący.

Problem w tym, że w najważniejszej dziedzinie – modelach konwersacyjnych, które mają być naszymi partnerami w myśleniu – chyba całkowicie się pogubiliśmy. Cała branża zachowuje się dziś jak zakochany nastolatek. Jest tak bezkrytycznie zauroczony swoją „dziewczyną”, że nie widzi żadnych jej wad. A każdy, kto próbuje delikatnie zwrócić uwagę na te niedoskonałości, z automatu staje się wrogiem.

Tak, branża zakochała się w sztucznej inteligencji. I jest to miłość ślepa, która nie pozwala dostrzec niewygodnej prawdy.

Może trochę zdrowego rozsądku?

Być może nie każdy zgodzi się ze wszystkimi tezami tych przemyśleń. Mam jednak nadzieję, że każdy, kto spojrzy na sztuczną inteligencję zdroworozsądkowo, przynajmniej na chwilę się zastanowi. Wystarczy odrobina krytycyzmu, by dostrzec, że pod gładką powierzchnią elokwencji dzisiejszych modeli nie ma niczego, co przypominałoby prawdziwe rozumowanie. Są to jedynie niezwykle zręczni, cyfrowi kujoni.

Piszę to wszystko jako wieloletni fan sztucznej inteligencji. Głęboko wierzę, że może ona stać się prawdziwie rozumna. Jednak z mojego punktu widzenia, świat AI bardzo się pogubił i stracił zdrowy rozsądek. Takie postępowanie BigTechów nieuchronnie doprowadzi do katastrofy – do momentu, w którym wszyscy zobaczą, że „król jest nagi”.

Dodaj komentarz

2 × pięć =

BLOG TECHNOLOGICZNY Gadzety360.pl
Przegląd prywatności

Ta strona korzysta z ciasteczek, aby zapewnić Ci najlepszą możliwą obsługę. Informacje o ciasteczkach są przechowywane w przeglądarce i wykonują funkcje takie jak rozpoznawanie Cię po powrocie na naszą stronę internetową i pomaganie naszemu zespołowi w zrozumieniu, które sekcje witryny są dla Ciebie najbardziej interesujące i przydatne.