W laboratoriach Harvardu i MIT rozegrała się niedawno scena przypominająca filozoficzny dramat naukowy. Wyobraźmy sobie najpotężniejszy kalkulator wszechświata, zdolny z matematyczną precyzją przewidzieć ruch planet w Układzie Słonecznym na miliony lat. Gdy jednak zapytamy go: „Dlaczego planety krążą wokół Słońca?”, otrzymujemy jedynie ciszę lub pseudonaukowy bełkot. To odkrycie rzuca niepokojące światło na fundamentalne ograniczenie współczesnej sztucznej inteligencji: jej niezdolność do prawdziwego rozumienia świata.
Naukowcy postawili przed zaawansowanymi systemami AI – w tym dużymi modelami językowymi i specjalnie zaprojektowanymi sieciami neuronowymi – pozornie proste zadanie: naucz się ruchu planet. Zasilili je obszernymi zbiorami symulowanych danych: współrzędnymi, prędkościami i masami ciał niebieskich, generowanymi zgodnie z prawami fizyki. Modele osiągnęły imponującą dokładność predykcyjną – w testach przewidywania pozycji planet na przestrzeni stulecia ich błędy były kilkukrotnie niższe niż klasycznych algorytmów numerycznych.
Iluzja pęka jednak przy próbie zrozumienia mechanizmów. Gdy badacze zajrzeli w głąb tych pozornie genialnych modeli, odkryli coś niepokojącego. Zamiast wyabstrahować uniwersalne prawo grawitacji, modele opracowywały własne, wewnętrzne „błędne prawa fizyki”. Analiza wykazała, że obliczane przez nie wektory sił były chaotyczne i drastycznie odbiegały od równań Newtona. Co więcej, te „prawa” okazały się wysoce niestabilne – zmieniały się radykalnie w zależności od zestawu treningowego. Model wytrenowany na danych z jednego układu planetarnego generował sprzeczną heurystykę z modelem uczonym na innym symulowanym układzie. Nawet zaawansowane architektury nie potrafiły samodzielnie odkryć formuły odwrotności kwadratu odległości bez zewnętrznych podpowiedzi.
To nie błąd obliczeń, lecz fundamentalny brak zdolności do uogólniania zasad. Sieci neuronowe doskonale dopasowują się do wzorców w danych, lecz nie potrafią wywnioskować leżących u ich podstaw przyczynowych mechanizmów. Analizowane modele nie identyfikowały kluczowych stałych ani funkcjonalnej postaci praw fizycznych, mimo trenowania na setkach tysięcy przypadków.
„To jak kalkulator podający poprawne wyniki mnożenia bez pojęcia, czym jest mnożenie – po prostu zapamiętał miliony konkretnych par liczb” – obrazuje jeden z badaczy. Systemy świetnie dopasowują się do wzorców, lecz nie potrafią wnioskować o przyczynowych mechanizmach rządzących rzeczywistością.
Problem głębszy niż skalowanie
Odkrycie to dotyka sedna debaty o przyszłości AI i drodze do sztucznej inteligencji ogólnej. Wybitni badacze jak Yann LeCun (Meta AI) od dawna ostrzegają przed pułapką „iluzji zrozumienia” w obecnych modelach. Wyniki z Harvardu i MIT dostarczają twardych dowodów na poparcie tych tez.
„Wiara, że większe modele językowe i więcej danych nagle zapewnią ludzkie rozumienie świata, jest błędna” – komentuje LeCun. „Skalowanie nie rozwiąże problemu przyczynowości. Obecne architektury są z natury ograniczone w budowaniu spójnych modeli świata”. François Chollet (twórca Keras) dodaje, że sukcesy LLM w generowaniu tekstu czy kodu bywają mylnie interpretowane jako głębsze rozumienie, podczas gdy opierają się głównie na statystycznych korelacjach.
Architektoniczne słabości
Większość współczesnych modeli AI działa jako narzędzia statystycznej regresji: dopasowują funkcje do wzorców danych, lecz rzadko odkrywają rzeczywiste prawa rządzące systemem. Ich reprezentacje są heurystyczne i nieodporne na zmiany – model wytrenowany na jednym zestawie danych gubi się w nowych sytuacjach. AI nie radzi sobie z uogólnianiem poza rozkład treningowy, a próby ekstrapolacji prowadzą do fizycznie nierealnych wyników.
Co istotne, systemy te nie potrafią identyfikować ukrytych zmiennych ani rozpoznawać rozbieżności między obserwacjami a teoriami – zdolności kluczowych dla naukowych odkryć. AI jest „ślepa” na konieczność poszukiwania głębszych wyjaśnień, gdy dane przeczą znanym regułom.
Nowe kierunki: od aktywnego wnioskowania do neuro-symboliki
Badania wskazują na potrzebę fundamentalnie nowych paradygmatów. Kluczowe kierunki obejmują:
- Aktywne wnioskowanie: Modeluje AI jako agenta aktywnie formułującego hipotezy, projektującego eksperymenty i iteracyjnie aktualizującego modele przyczynowe na podstawie wyników. Pozwala to symulować skutki działań i rozwijać dynamiczne modele przyczynowo-skutkowe.
- Systemy neuro-symboliczne: Integrują symboliczne rozumowanie (logika, reguły) z uczeniem maszynowym. Takie hybrydy umożliwiają jawną reprezentację i manipulację strukturami przyczynowymi, poprawiając interpretowalność i umożliwiając rozumowanie kontrfaktyczne.
- Modele z wbudowanymi priorytetami fizycznymi: Osadzanie w architekturach fundamentalnych ograniczeń wynikających z praw fizyki (jak zasady zachowania energii). Wymusza to zgodność z rzeczywistością już na etapie projektowania, zwiększając stabilność i odporność na dane spoza rozkładu treningowego.
Praktyczne konsekwencje
Implikacje wykraczają poza astronomię. Skoro obecna AI nie potrafi wywnioskować podstawowych praw Newtona – odkrytych przez ludzkość wieki temu – jak mogłaby dokonywać przełomów w medycynie czy klimatologii? Oznacza to, że współczesne modele są skuteczne w rozpoznawaniu wzorców i interpolacji w ramach znanych danych, lecz niezdolne do fundamentalnych odkryć czy teoretycznego uogólniania.
Brak rozumienia pojęciowego uniemożliwia AI rozpoznawanie własnych ograniczeń, identyfikację luk w wiedzy czy samodzielne formułowanie pytań badawczych. W praktyce pozostaje narzędziem wspomagającym naukowców: analizuje literaturę, generuje hipotezy, sugeruje eksperymenty, lecz nie prowadzi samodzielnego procesu naukowego wymagającego kreatywnej konceptualizacji.
Droga naprzód
Ścieżka do AI zdolnej do autentycznych odkryć naukowych wymaga przełomu w myśleniu o inteligencji maszyn. Kluczowe wyzwania obejmują:
- Rozwój architektur łączących uczenie statystyczne z symbolicznym rozumowaniem
- Nowe testy mierzące zdolność do uogólniania zasad i rozumowania kontrfaktycznego
- Wprowadzenie filozoficznych i kognitywistycznych koncepcji do projektowania AI
Odkrycia z Cambridge stanowią wezwanie do pokory. Pokazują, że choć współczesna sztuczna inteligencja jest potężnym narzędziem predykcyjnym, pozostaje kalkulatorem bez głębszego zrozumienia. Wyzwanie dla nowej generacji badaczy brzmi: jak zbudować maszynę, która nie tylko oblicza orbitę, ale rozumie, dlaczego planeta w ogóle krąży wokół Słońca?
Na to pytanie wciąż nie znamy odpowiedzi. Granica między rozpoznawaniem wzorców a prawdziwym rozumieniem wciąż pozostaje po stronie człowieka. AI jest naszym narzędziem – szybkim, wydajnym, lecz ślepym na głębię praw rządzących rzeczywistością.
na podstawie: https://arxiv.org/pdf/2507.06952