Leszek Sokołowski, W poszukiwaniu teorii ostatecznej
Transcript of Leszek Sokołowski, W poszukiwaniu teorii ostatecznej
Leszek M. Sokołowski
Obserwatorium Astronomiczne Uniwersytetu Jagiellońskiego
W POSZUKIWANIU TEORII OSTATECZNEJ 1
Księdzu Profesorowi Michałowi Hellerowi, który zawsze pasjonował się kwestią ostatecznych granic poznania
1.
Temat i tytuł zaczerpnąłem z ostatniej książki wybitnego fizyka amerykańskiego,
Stevena Weinberga, Sen o teorii ostatecznej. O koncepcji teorii ostatecznej mówi się w fizyce
od szeregu lat i sporo uwagi poświęcił jej w swojej równie sławnej co kontrowersyjnej książce
Krótka historia czasu inny wybitny fizyk współczesny, Stephen Hawking. Jednak dopiero
rozważania Weinberga przekonały mnie, że idea ta wyszła poza domysły wąskiego kręgu
fizyków-teoretyków i że warto przedyskutować ją w środowisku filozofów. W samej rzeczy
Weinberg napisał Sen... w celu agitacyjnym – miała to być apologia i propaganda budowy
największego akceleratora cząstek elementarnych, nazwanego Superconducting Super
Collider (SSC), najkosztowniejszego przedsięwzięcia czysto naukowego w dziejach ludzkości.
Projekt jego budowy zatwierdzono w 1987 roku i w rok później rozpoczęto prace wstępne; w
październiku 1993, po wydaniu dwu miliardów dolarów, Kongres USA ostatecznie zarządził
jego likwidację. Pierwsze wydanie książki ukazało się, gdy toczyły się jeszcze zaciekłe boje w
obronie akceleratora, drugie – już po jego kasacji. Do drugiego wydania Weinberg dopisał
epilog o smutnym końcu wielkiego projektu; zrobił to pośpiesznie i w głównym tekście nie
poprawił stwierdzeń, że akcelerator będzie budowany. Zwracam na to uwagę, gdyż przy
pobieżnej lekturze apologetyczny charakter książki rzuca się w oczy. Byłoby jednak błędem
przypisywać jej tylko taki charakter i cel czysto doraźny. Chcąc rzetelnie uzasadnić propozycję
wydania ponad ośmiu miliardów dolarów, Weinberg daleko wyszedł poza ten cel i przedstawił
w sposób jasny i klarowny poglądy wielu czołowych fizyków na samą istotę fizyki. Odpo-
wiedział na pytanie: czym jest i do czego zmierza fizyka. Jak nikt od czasów Einsteina, potrafi
on wyjaśnić, czego chcą fizycy i jak postrzegają przyrodę. Z tej racji każdemu, kogo interesują
te kwestie, polecam obok filozoficznych tekstów Einsteina, tę i poprzednią (Pierwsze trzy
minuty) książkę Weinberga.
2.
Koncepcja finalnej teorii fizyki jest w pewnym sensie bardzo stara i całkiem świeża. Jest
nowa, bo fizycy zaczęli ją traktować serio nie dalej niż dwadzieścia lat temu. Jest stara, bo
pierwsze jej sformułowanie pochodzi od Newtona (Principia oraz Optyka), a jej dalekim
poprzednikiem były wyobrażenia jońskich filozofów przyrody. Pojęciami ściśle z nią
związanymi, chociaż nietożsamymi, są unifikacja i redukcjonizm.
Fundamentalnym, nieusuwalnym założeniem wstępnym greckich filozofów przyrody,
czyniącym możliwym i sensownym jakiekolwiek racjonalne dociekanie o Naturze było, że za
oszałamiającym bogactwem i różnorodnością obiektów i zjawisk przyrodniczych stoi jakaś
11 AArrttyykkuułł uukkaazzaałł ssiięę ww kkssiiąążżccee PPrrzzeessttrrzzeenniiee kkssiięęddzzaa CCooggiittoo,, KKssiięęddzzuu MMiicchhaałłoowwii HHeelllleerroowwii ww sszzeeśśććddzziieessiiąąttąą
rroocczznniiccęę uurrooddzziinn,, ppoodd rreeddaakkccjjąą SSttaanniissłłaawwaa WWsszzoołłkkaa,, WWyydd.. BBiibbllooss,, TTaarrnnóóww 11999966,, ssttrr.. 8888––111133..
uniwersalna zasada wprowadzająca w to pozornie chaotyczne rojowisko przedmiotów i
zdarzeń pewien ład i porządek. Każdy filozof inaczej sobie tę zasadę wyobrażał, lecz
wszystkim wspólna była wiara w istnienie reguł rządzących światem naturalnym. Jest to rzecz
dobrze znana z filozofii i nie trzeba jej szerzej omawiać.
W tym sensie pogląd, że podstawową zasadą i początkiem wszechrzeczy jest woda
(Tales), powietrze (Anaksymenes) czy ogień (Heraklit), był odległym przodkiem ostatecznej
teorii fizyki. Innym przodkiem była całkiem odmienna koncepcja – hipoteza atomów
Demokryta i Leucypa. Były to doktryny opierające świat na jednej zasadzie, zatem dokonujące
pełnej unifikacji. W porównaniu z nim fizyka Arystotelesa, choć bardziej konkretna i
precyzyjna, była krokiem wstecz – z założenia świat dzielił się na część translunarną i
sublunarną, z których każda miała własny system praw fizyki i nie było prawa
fundamentalnego, prawdziwie uniwersalnego.
Wbrew popularnemu poglądowi szerzonemu przez podręczniki szkolne, atomizm
Demokryta nie był wcale lepszy od doktryn Talesa i innych Jończyków. Ta czy inna zasada
fundamentalna miała charakter czysto filozoficzny, nie dawała żadnego opisu ilościowego,
niczego nie przewidywała i niczego nie wykluczała. To jeszcze nie była fizyka. Pierwsza
koncepcja prawa fizyki, bardzo ograniczona, pochodzi od Archimedesa i, pomimo jego sławy,
pozostała niedoceniona aż po czasy najnowsze. Koncepcja prawa fizyki, teorii fizycznej i
fizykalnego obrazu świata, tak jak je dziś pojmujemy, zaczęła się kształtować u Galileusza i
Newtona.
Prawo fizyki to sformułowane w języku matematyki twierdzenie ogólne odnoszące się
do dość obszernej klasy zjawisk. Mówiąc ściślej, jest to twierdzenie matematyczne, w którym
pojęciom matematycznym przypisano empiryczny sens fizyczny. Dzięki temu opis danego
zjawiska jest ilościowy, a nie tylko jakościowy (np. prawo grawitacji Newtona, prawa
Coulomba i Ohma, prawa optyki geometrycznej), a pewne procesy są wykluczone (prawami
zachowania energii i ładunku elektrycznego, zasadą wzrostu entropii).
Żadne twierdzenie matematyczne nie jest izolowane, każde należy do pewnej teorii
(dziedziny) matematycznej – algebry, geometrii, analizy itp.; podobnie każde prawo fizyki jest
twierdzeniem pewnej teorii fizycznej (mechaniki, termodynamiki, optyki, mechaniki
kwantowej) i tylko w jej ramach jest prawdziwe. Teoria fizyczna ma logicznie hierarchiczną
strukturę teorii matematycznej. Punktem wyjścia są niedefiniowane pojęcia pierwotne (którym
muszą towarzyszyć określone procedury empiryczne pozwalające mierzyć te wielkości), np.
masa, pole elektryczne i magnetyczne, ładunek elektryczny. Pojęciom pierwotnym
przypisujemy właściwości zawarte w aksjomatach teorii: istnienie układów inercjalnych,
pierwsza i druga zasada dynamiki Newtona, stałość prędkości światła, aksjomaty mechaniki
kwantowej. Z aksjomatów dowodzimy twierdzeń o dalszych własnościach pojęć pierwotnych,
nie zawartych jawnie w aksjomatach. Dalej za pomocą pojęć pierwotnych definiujemy rozmaite
pojęcia wtórne (energia, moment pędu, moment magnetyczny) i dowodzimy twierdzeń o ich
własnościach. Ten proces wprowadzania nowych pojęć i dowodzenia twierdzeń o ich
własnościach można w zasadzie ciągnąć dowolnie długo. Prototypem tego procesu jest geo-
metria Euklidesa, tyle że w teorii fizycznej należy wykonać następny, kluczowy dla niej krok:
pojęciom matematycznym przyporządkować pojęcia fizyczne odnoszące się do konkretnych
obiektów materialnych. Ten ostatni krok jest działaniem czysto intuicyjnym, nie podlegającym
żadnym regułom matematycznym (wbrew niekiedy wypowiadanym poglądom nie jest to
odwzorowanie – tak jak się je rozumie w matematyce – zbioru pojęć matematycznych w zbiór
obiektów fizycznych), jest to swobodna gra wyobraźni fizyka, która albo prowadzi do
wartościowych wyników, albo zwodzi na manowce. Dla przykładu: najbardziej fundamentalną
cechą grawitacji jest jej uniwersalność – każde ciało doznaje działania sił ciężkości – zatem
wydaje się oczywiste, że podstawowym pojęciem teorii grawitacji winna być siła (rozumiana
jako wektor w fizycznej przestrzeni) i tak jest w teorii Newtona. Natomiast w ogólnej teorii
względności pojęciami kluczowymi są metryka czasoprzestrzeni i jej krzywizna, a siła ma
znaczenie drugorzędne, właściwie jest z teorii wyeliminowana. Siłą, którą najczęściej
odczuwamy, jest właśnie siła ciężkości, tymczasem wynikająca stąd doniosłość tego pojęcia
jest myląca. Czytelników zainteresowanych głębszym przedstawieniem tych zagadnień odsyłam
do dzieł Einsteina. Trzeba też dodać, że aksjomatyczna struktura teorii fizycznych jest na ogół
bardziej złożona i finezyjna, niż ją przedstawiłem powyżej; subtelności te nie będą nam dalej
potrzebne.
Gdyby teorię fizyczną przyrównać do żywego organizmu, to matematyka byłaby jego
strukturą – szkieletem, systemem nerwowym i układem krążenia. I tu nasuwa się pierwsza
wątpliwość. Gatunki są rozmaite, lecz nie ma wśród nich najważniejszego, fundamentalnego
czy elementarnego. Nie jesteśmy przecież konieczną konsekwencją bakterii czy
pierwotniaków. Oczywiście to tylko analogia, lecz w matematyce dostrzegamy podobną
sytuację. Matematyka nie jest luźną konfederacją działów matematyki. Poszczególne jej działy
przenikają się wzajemnie i są głęboko powiązane. Nawet pozornie odległe gałęzie splatają się
w najważniejszych punktach – doniosłe twierdzenia teorii liczb (np. wielkie twierdzenie
Fermata) wymagają do udowodnienia użycia głębokich wyników z topologii, teorii grup i teorii
funkcji analitycznych. Tym niemniej nie ma w matematyce działu (teorii) będącego odpo-
wiednikiem teorii fundamentalnej w fizyce. U samych podstaw matematyki leżą logika
matematyczna i teoria mnogości i w tym sensie są one tworzywem całej matematyki, jednak
geometria, algebra i analiza są wobec nich autonomiczne, tzn. nie wynikają z nich logicznie.
Wiadomo obecnie, że matematyki nie da się zredukować logicznie do jej podstaw. Nawet
zwolennicy platońskiego spojrzenia na matematykę, według którego obiekty matematyczne są
bytami obiektywnie istniejącymi, odkrywanymi, a nie wymyślanymi przez matematyków, nie
sądzą, by istnienie tych tworów było konieczną konsekwencją teorii mnogości i ewentualnie
topologii ogólnej.
Dlaczegóżby więc w fizyce miała istnieć teoria fundamentalna i ostateczna, z której
pozostałe miałyby wynikać? W dziewiętnastowiecznej fizyce niewiele wskazywało na jej
istnienie. Naturalnie najważniejszą, wzorcową, kształtującą światopogląd teorią była
mechanika. Obok niej istniało kilka teorii (akustyka, elektrodynamika, termodynamika), które
tylko częściowo pasowały do mechanistycznej wizji przyrody. Mechanika nie mogła być teorią
ostateczną, bowiem właściwie nie jest teorią zjawisk fizycznych, lecz ogólnym schematem
tworzenia teorii fizycznych. Ten schemat trzeba dopiero wypełnić konkretną treścią fizyczną:
wybrać klasę obiektów, które teoria ma opisywać i ustalić jakie są ich oddziaływania. W
ówczesnej fizyce było więc kilka teorii niezależnych choć związanych tkwiącymi w nich
elementami mechaniki. Skoro redukcjonizm działał w ograniczonym zakresie na gruncie fizyki,
tym bardziej niewiele mógł zdziałać na polu pozostałych nauk przyrodniczych. Chemia i
biologia wydawały się autonomiczne względem siebie oraz fizyki. Sytuacja zmieniła się dopiero
pod koniec naszego stulecia.
3.
Postęp w fizyce zawsze dokonywał się na drodze unifikacji: rozmaitych zjawisk w klasy
opisywane poszczególnymi modelami (teoriami) oraz łączenia modeli w jednolitą i bardziej
ogólną teorię. Newton obalił podział na świat sublunarny i translunarny i wprowadził ideę
uniwersalności opisu zjawisk niezależnie od tego, gdzie i kiedy zachodzą. W dziewiętnastym
wieku ogół zjawisk optycznych udało się dobrze opisać modelem zwanym falową teorią
światła. Pozornie odmienne zjawiska elektryczne i magnetyczne ujęto w jedną teorię –
elektromagnetyzm. Procesy cieplne opisano termodynamiką. Na początku naszego wieku
Einstein dokończył dzieło Maxwella i ostatecznie zunifikował za pomocą szczególnej teorii
względności zjawiska elektryczne, magnetyczne i optyczne w jednolitej teorii –
elektrodynamice klasycznej. W dziesięć lat później wprowadził idee relatywistyczne do opisu
zjawisk grawitacyjnych i stworzył relatywistyczną teorię grawitacji. Powstają kolejne wielkie
teorie fizyki. Mechanika kwantowa wyjaśnia budowę atomów i molekuł, a przez to budowę
ciał makroskopowych. Teoria ta uzupełniona elektrodynamiką opisuje oddziaływania
wszelkich ciał z promieniowaniem elektromagnetycznym, między innymi wyjaśnia, jak świeci
rozgrzane ciało o określonej temperaturze (prawo promieniowania Plancka). Początkowo
sprzężenie mechaniki kwantowej (rozumianej jako teoria nierelatywistyczna) z
elektrodynamiką było dość luźne. W latach czterdziestych zunifikowano teorię kwantów z
elektrodynamiką klasyczną, otrzymując teorię w pełni relatywistyczną, opisującą oddziaływania
elektronów i fotonów – elektrodynamikę kwantową.
W pierwszej połowie naszego wieku ogromnie rozszerzył się zakres zjawisk badanych
przez fizykę. Do końca dziewiętnastego wieku fizyka zajmowała się jedynie pewnymi własnoś-
ciami ciał makroskopowych i światła. W tym półwieczu fizycy zwrócili się w stronę obiektów
najmniejszych – molekuł, atomów i jąder atomowych oraz obiektów największych – gwiazd,
galaktyk i Wszechświata traktowanego jako całość. Tak olbrzymiemu wzrostowi dziedziny
fizyki nie towarzyszył znaczny wzrost liczby fundamentalnych (autonomicznych) teorii
fizycznych. Wkraczając na zupełnie nowe pola badań fizycy tworzyli teorie, które unifikowały
opis nowych zjawisk z istniejącymi już teoriami zjawisk "klasycznych". Około roku 1950
istniały dwie najbardziej fundamentalne i uniwersalne teorie fizyki: elektrodynamika kwantowa
i ogólna teoria względności.
W tym też czasie stało się jasne, że wszelkie oddziaływania w przyrodzie, jakich by
obiektów nie dotyczyły, dadzą się rozłożyć na cztery oddziaływania elementarne i w tym sensie
fundamentalne: elektromagnetyczne, grawitacyjne, silne (jądrowe) oraz słabe. Pierwsze dwa
opisane były dwiema teoriami fundamentalnymi, dla pozostałych dwu teorii nie było. Powstał
problem: czy należy zbudować dwie nowe teorie, niezależne od siebie i od tamtych, czy też
próbować jakiejś unifikacji? Innymi słowy, czy te cztery oddziaływania są rzeczywiście
niezależne od siebie i odpowiadają im cztery teorie fundamentalne, czy też niektóre z tych
oddziaływań lub nawet wszystkie są w rzeczywistości odmiennymi przejawami jednego,
bardziej fundamentalnego oddziaływania, tak jak siły elektrostatyczne ładunków oraz siły
magnetyczne magnesów i prądów są różnymi przejawami oddziaływania elektromagne-
tycznego? Unifikacja elektryczności i magnetyzmu w elektromagnetyzm (elektrodynamikę)
była i jest wzorcem procedury unifikującej. Możliwych odpowiedzi jest wiele: można na sześć
sposobów wybrać parę oddziaływań, które chcemy zunifikować oraz na cztery sposoby trzy
oddziaływania do połączenia. Jest to podstawowy problem fizyki cząstek elementarnych w
drugiej połowie dwudziestego wieku; problem, wokół którego będzie się kręcić fizyka jeszcze
długo w nadchodzącym tysiącleciu.
Sama idea unifikacji pojawiła się wcześniej; jeżeli pominąć licznych jak zwykle
prekursorów, to jako twórców wymienić należy fizyka fińskiego Gunnara Nordströma (1914)
oraz matematyków niemieckich, Hermanna Weyla (1918) i Theodora Kaluzę (1919).
Zdecydowanie największy rozgłos zdobyły jednak w tej dziedzinie wysiłki Einsteina.
Poczynając od wczesnych lat dwudziestych aż do śmierci w 1955 roku, niezmordowanie,
niemal co roku publikował kolejną wersję tzw. jednolitej teorii pola, by ją wkrótce odrzucić i
przystąpić do konstruowania następnej. Ogromna sława i popularność Einsteina sprawiły, że o
jego pomysłach informowała wielokrotnie prasa i idea unifikacji fizyki za pomocą jednej teorii
ostatecznej dotarła do szerszej publiczności, która momentami kibicowała mu niemal jak
sportowcowi usiłującemu samotnie dokonać niezwykłego wyczynu. Ogół fizyków odnosił się
do tej idei raczej sceptycznie. Ciekawość fizyków pochłaniała bez reszty fizyka atomowa i
jądrowa. Einstein natomiast, podobnie jak jego trzej poprzednicy oraz nieliczni inni fizycy
poszukujący jednolitej teorii pola (Arthur Eddington, Erwin Schrödinger), uznawał tylko jedną
możliwość: unifikację sił grawitacyjnych z elektromagnetycznymi. Początkowo innych
możliwości po prostu nie było, o siłach jądrowych i słabych wiedziano zbyt mało, by kusić się
o ich opis teoretyczny. Einstein zakładał, że oba oddziaływania są przejawem jednej siły
opisanej klasycznym, czyli niekwantowym polem, dla którego szukał teorii będącej
uogólnieniem ogólnej teorii względności. Odrzucenie mechaniki kwantowej ze schematu
szukanej teorii nie wynikało wcale z jego negatywnego do niej nastawienia. Wbrew
powszechnemu poglądowi, Einstein nie był wcale przeciwnikiem teorii kwantów – twierdził
jedynie, że jest to teoria niekompletna i mylnie zinterpretowana. Ogromne triumfy mechaniki
kwantowej w świecie atomowym spowodowały, że zastrzeżenia Einsteina uznano za
niezdolność konserwatysty do zrozumienia i uznania rewolucyjnej przemiany, jaką niosła. Sam
Einstein twierdził, że na właściwe zrozumienie mechaniki kwantowej poświęcił dużo więcej
czasu niż na zbudowanie teorii względności (pamiętajmy, że nad teorią grawitacji pracował z
wielkim natężeniem osiem lat!). Skoro mechanika kwantowa jest – jego zdaniem –
niekompletna, to nie może być elementem teorii prawdziwie fundamentalnej. Z tymi poglądami
płynął pod prąd rozwoju fizyki. W ostatnich latach życia Einsteina stosunek większości
fizyków do niego był czystą hipokryzją: publicznie składano hołdy jego geniuszowi, zaś
prywatnie nazywano go naukowym dinozaurem.
Od tego czasu sporo się zmieniło. Dostrzeżono, że w zarzutach Einsteina wobec
interpretacji kopenhaskiej mechaniki kwantowej tkwi racjonalne jądro. Inaczej dziś patrzymy
na największy spór naukowy stulecia – polemikę Einsteina z Bohrem. Rozpowszechnia się
(chociaż daleko mu do powszechności) pogląd, że mechanika kwantowa, mimo doskonałości
jej działania w świecie atomowym i nie tylko, jest w pewnym sensie niekompletna i wymaga
jakiejś modyfikacji – nie wiemy jakiej. Przewartościowania te nie ratują jednak w żadnym
stopniu Einsteinowskiej jednolitej teorii pola. Wszystkie jej wersje są bezwartościowe i nic nie
wskazuje, by znaczący fragment którejś z nich przydał się gdzieś indziej w fizyce. Trzydzieści
lat pracy genialnego umysłu poszło na marne. Powodów jest parę. Po pierwsze, powszechnie
uważa się, iż niezależnie od tego, jak niekompletne czy nawet błędne jest nasze rozumienie
mechaniki kwantowej, to świat obiektywnie jest kwantowy i takie też muszą być teorie
oddziaływań fundamentalnych. To, co uważamy za klasyczne pole sił, jest tylko uśrednieniem
wielu elementarnych oddziaływań kwantowych – np. dwa elektrony oddziałują wymieniając
między sobą elektromagnetyczne kwanty – fotony – a nie wytwarzając klasyczne pole sił. Po
drugie, wcale nie jest jasne, czy można zunifikować dowolne dwa oddziaływania elementarne
pomijając pozostałe. Obecnie uważa się, że tak robić nie można, w szczególności łączenie
elektromagnetyzmu z grawitacją jest błędem. Od końca lat trzydziestych wielokrotnie
zwracano uwagę Einsteinowi, że coraz liczniej odkrywane cząstki elementarne pozostają poza
jego programem unifikacji, że jednolita teoria pola nie będzie miała nic do powiedzenia o
budowie jądra atomowego, które najbardziej fizyków interesowało. Einstein odpowiadał, że
nie ma ambicji stworzenia "teorii wszystkiego", że jego cel jest skromniejszy. Tu tkwił błąd,
unifikacji nie da się dokonać małymi krokami. Po trzecie, paradoksalnie, Einstein nie docenił
oryginalności swojej teorii grawitacji, zwiodły go jej liczne podobieństwa do teorii Maxwella.
Dziś rozumiemy ogólną teorię względności głębiej niż jej twórca, ponadto zastępujemy teorię
Maxwella elektrodynamiką kwantową i jasno widzimy konceptualną odmienność obu teorii.
Einstein poniósł klęske, gdyż jego próby były przedwczesne.
W latach sześćdziesiątych sytuacja była dość złożona. Z jednej strony mechanika
kwantowa czyniła stałe postępy na polu tradycyjnie zajętym przez chemię (powstała chemia
kwantowa). Teoria kwantów wyjaśniła wszystkie własności chemiczne atomów i prostych
molekuł. Dla bardziej złożonych molekuł organicznych trudności obliczeniowe związane z
rozwiązywaniem równania Schrödingera rosły tak bardzo, że fizyka była bezradna i
pozostawały tylko metody chemii. Już wówczas było jednak jasne, że są to trudności czysto
rachunkowe a nie konceptualne – wielkie molekuły, takie jak DNA, różnią się od wody,
benzenu czy naftalenu jedynie ilościowo stopniem złożoności i nie ma różnic jakościowych
niedostępnych mechanice kwantowej. Udoskonalenie metod obliczeń przybliżonych, a przede
wszystkim szybki wzrost mocy obliczeniowej komputerów sprawia, że z roku na rok
wyprowadzamy z zasad pierwszych, czyli z mechaniki kwantowej, własności chemiczne coraz
bardziej skomplikowanych związków. Uzbrojeni w dostatecznie duży i szybki komputer i dużą
dozę cierpliwości, będziemy mogli wyprowadzić bez reszty właściwości dowolnie wielkich
molekuł. W tym sensie chemia jako nauka traci autonomiczność i własności chemiczne ciał
dają się wyprowadzić z własności fizycznych. Nie oznacza to wcale likwidacji chemii jako
takiej – wręcz przeciwnie, chemia bardzo się rozwinęła dzięki inwazji metod fizycznych. Co
więcej, i ten aspekt sprawy jest najbardziej tu istotny, ta redukcja chemii do fizyki ma
znaczenie konceptualne, natomiast w większości przypadków jest zupełnie niepraktyczna.
Gdybyśmy odrzucili aparat pojęciowy chemii (np. klasyfikację związków – kwasy, zasady, sole
itp.), a na ich miejsce wprowadzili te własności, które prosto i bezpośrednio da się wydeduko-
wać metodami mechaniki kwantowej, to stracilibyśmy większość pożytecznej informacji przez
nią niesionej. Nikt czegoś takiego robić nie chce. Fizyka wzbogaca chemię, która pozostaje
nieuszczuplona w swoich metodach i aparacie pojęciowym; fizyka wyjaśnia te własności
chemiczne, które na gruncie chemii są niemożliwe do uzasadnienia. Weźmy dla przykładu
benzen. Jest znacznie prościej, szybciej i wygodniej badać własności benzenu i jego pochod-
nych metodami chemicznymi niż odtwarzając je za pomocą mechaniki kwantowej. Chemia
ustala eksperymentalnie, że molekuła benzenu tworzy pierścień w kształcie sześciokąta, ale
wyjaśnienie dlaczego jest to pierścień, wykracza poza jej możliwości. Ten kształt molekuły jak
również istnienie i własności izomerów benzenu wynika z podlegających mechanice kwantowej
oddziaływań elektromagnetycznych elektronów walencyjnych atomów molekuły.
Z jednej więc strony redukcjonizm święcił triumfy wyjaśniając własności chemiczne za
pomocą fizyki. Odnosił też sukcesy na gruncie biologii: biochemia i biologia molekularna
ustaliły, że wiele zasadniczych cech organizmów tak złożonych jak ludzki, daje się wyjaśnić na
poziomie molekularnym (chemicznym). Przykładem choćby odkrycie kodu genetycznego,
wspólnego wszystkim organizmom żywym. Chemia odsłoniła tu jedną z "tajemnic życia". Z
drugiej strony redukcjonizm natknął się na przeszkodę w fizyce cząstek elementarnych.
Trzydzieści lat temu oddziaływania silne i słabe opisywano za pomocą dość prymitywnych
modeli fenomenologicznych; ogół fizyków zajmujących się cząstkami elementarnymi uważał,
że ulepszanie tych modeli jest szczytem ludzkich możliwości. Sceptycznie odnoszono się do
idei opisania każdego z tych oddziaływań za pomocą teorii tak uniwersalnej, eleganckiej i
spójnej jak elektrodynamika kwantowa czy ogólna teoria względności. A już pomysł
zunifikowania ich w jedno oddziaływanie prawdziwie fundamentalne uważano za bzdurną
mrzonkę. Einsteinowska idea unifikacji osiągnęła najniższe notowania.
Zmiana trendu przyszła niespodziewanie. W latach 1967-1968 Amerykanin Steven
Weinberg i Pakistańczyk Abdus Salam zaproponowali niezależnie, by zunifikować
oddziaływania elektromagnetyczne ze słabymi. Na pozór dalekosiężne siły elektromagnetyczne
są całkiem odmienne od krótkozasięgowych (działających do odległości nie większych niż
promień protonu) sił słabych, jednak obaj fizycy dostrzegli głęboko ukryte ich podobieństwa.
Istnieje zatem jedno fundamentalne oddziaływanie elektrosłabe, które w pewnych warunkach
przenoszone jest przez fotony i wtedy przejawia się jako elektromagnetyzm; w innych
okolicznościach nośnikami oddziaływania są ciężkie cząstki: bozony W i Z, wówczas
obserwujemy siły słabe, odpowiedzialne za rozpady większości cząstek elementarnych. Teoria
tego oddziaływania opiera się na koncepcji tzw. pól cechowania. Teoria sił elektrosłabych nosi
fachową nazwę "modelu Weinberga-Salama"; termin "model", oznaczający konstrukcję
teoretyczną niższej rangi niż teoria jest na miejscu, bowiem teoria ta jest niekompletna: zawiera
szereg dowolnych parametrów, których wartości trzeba ustalać eksperymentalnie. Początkowo
model Weinberga-Salama nie wzbudził większego zainteresowania: wielu fizyków nie
wierzyło, by taka unifikacja była poprawna; inni zwrócili uwagę, że teoria ta będzie mieć
wartość praktyczną, czyli będzie dawać ilościowy opis reakcji pomiędzy cząstkami
elementarnymi jeżeli jest teorią "renormalizowalną", w co wątpiono. Własność tę wykazali
Holendrzy G. t Hooft i M. Veltman parę lat później.
Piszący te słowa usłyszał po raz pierwszy o tej teorii w maju 1972. Na którymś z
zebrań zespołu fizyki teoretycznej Uniwersytetu Jagiellońskiego, przy końcu, jeden z najmłod-
szych adiunktów oznajmił: „Wiecie co? Słyszałem mrożącą krew w żyłach wiadomość.
Podobno zrenormalizowano oddziaływania słabe!” – „Niesamowite!” – skomentował jeden z
docentów i wszyscy rozeszli się do swoich zajęć. W ciągu następnych dwu lat "mrożąca krew
w żyłach wiadomość" odmieniła oblicze fizyki cząstek elementarnych. Przekonano się, że
oszałamiające bogactwo typów cząstek i ich reakcji da się opisać solidną teorią z gatunku
kwantowych teorii pola; zarzucono tworzenie fenomenologicznych modeli oddziaływań
silnych, opisujących faktycznie wąskie klasy reakcji miedzy hadronami. Koncepcja pól
cechowania, na której opiera się teoria sił elektrosłabych, jest dość ogólna i giętka, toteż
naturalny był pomysł, by zastosować ją do ostatniego z oddziaływań elementarnych, nie
opisanego dotąd teorią pola (kwantową lub klasyczną) – do sił jądrowych. W połowie lat
siedemdziesiątych powstaje dla nich taka teoria – chromodynamika kwantowa. Potwierdzenie
eksperymentalne jest tak jednoznaczne, ze powszechny staje się termin "model standardowy"
na oznaczenie sumy prostej modelu Weinberga-Salama i chromodynamiki kwantowej. Odżywa
niegdyś wyśmiana i odrzucona idea unifikacji oddziaływań elementarnych. Stara idea Einsteina
wraca do łask, jest traktowana jako wiodący kierunek badań. Cztery oddziaływania, trzy
teorie. Trzeba unifikować dalej, ale zupełnie inaczej, niż to czynił Einstein. Przede wszystkim
unifikacja na bazie teorii kwantów. To wyklucza grawitację, bo dla niej mamy teorię czysto
klasyczną. Ogólna teoria względności jest zadziwiająco odporna na próby kwantowania, czyli
przekształcenia jej w teorię zgodną z mechaniką kwantową (na podobieństwo
przetransformowania elektrodynamiki klasycznej w kwantową). Pod koniec lat
siedemdziesiątych powstaje teoria, której na wyrost dano dumne imię Wielkiej Unifikacji.
Ponownie na bazie koncepcji pól cechowania skonstruowano teorię pewnego oddziaływania,
która w jednych okolicznościach redukuje się do modelu Weinberga-Salama, a w innych – do
chromodynamiki kwantowej. Połączono w jedno oddziaływania elektrosłabe i silne, poza
unifikacją pozostała tylko grawitacja.
Wielka Unifikacja może być sformułowana w różnych wersjach; wersja najprostsza
wydaje się najbardziej fizyczna. Trzeba podkreślić, że dążenie do unifikacji nie wynika wcale z
przesadnego zamiłowania fizyków do porządku polegającego na zmniejszaniu liczby teorii. To
przyroda stanowi jedność i proces unifikacji teorii cząstkowych ma to odzwierciedlać. Teoria
unifikująca nigdy nie jest sklejeniem dwu teorii – ona jest czymś dużo więcej, jest znacznie od
nich bogatsza, tzn. opisuje całe klasy zjawisk, które tamtym teoriom nie podlegały. Np.
elektrodynamika jest istotnie szersza od elektrostatyki i magnetostatyki, teorii prądów stałych i
optyki – obejmuje promieniowanie elektromagnetyczne o wszystkich długościach fal. Zarówno
teoria sił elektrosłabych jak i elektrodynamika kwantowa utrzymują, że proton jest cząstką
trwałą. Najprostsza wersja Wielkiej Unifikacji wprowadza nowe reakcje, w wyniku których
proton może się rozpaść. Nie jest to praktycznie groźne: czas życia protonu winien być dużo
większy od wieku Wszechświata, nie musimy się więc obawiać, że się rozsypiemy na elektrony
(pozytony) i fotony. Wynik trwających od kilkunastu lat eksperymentów nie budzi wątpliwości
– proton nie rozpada się (czyli jego czas życia jest dużo większy od przewidywanego przez
teorię). Wielka Unifikacja, a przynajmniej jej najprostsza wersja, akceptowana przez fizyków,
jest fałszywa. Po raz trzeci sukcesu na tej samej drodze odnieść się nie udało.
To, że doświadczenie odrzuca Wielką Unifikację, stało się jasne już w roku 1980. Czy
to znaczy, że trzy oddziaływania elementarne są niezależne? Nie, w tym czasie fizycy, niczym
Einstein pół wieku wcześniej, już mocno wierzyli w słuszność idei unifikacji. Trzeba radykalnie
zmienić sposób konstruowania teorii unifikującej. W ciągu następnych 15 lat przebadano dwie
koncepcje. Przedstawiam je w maksymalnym skrócie, tyle ile jest potrzebne do głównego
tematu. Pierwsza z nich to teoria Kaluzy-Kleina. Jest to idea raczej niż teoria sensu stricto.
Idea dość stara, bo pochodzi od wspomnianego wcześniej Theodora Kaluzy z 1919 roku. Jest
to pomysł unifikacji za pomocą wyższych wymiarów czasoprzestrzeni. Pełna unifikacja elek-
tryczności z magnetyzmem w elektromagnetyzm nastąpiła dopiero na gruncie szczególnej
teorii względności, bowiem pole elektromagnetyczne jest obiektem istniejącym w
czterowymiarowej czasoprzestrzeni, natomiast w trójwymiarowej przestrzeni istnieją dwa pola:
elektryczne i magnetyczne. Unifikacja zachodzi dzięki dodaniu czwartego wymiaru – czasu.
Kaluza (przed nim jeszcze Nordström) wpadł na pomysł, by wprowadzając dodatkowy
(czwarty) wymiar przestrzeni zunifikować grawitację z elektromagnetyzmem. Mówiąc
obrazowo i nieściśle, tak jak wynurzająca się z wody dłoń ukazuje pięć pozornie oddzielnych
palców, tak grawitacja Einsteinowska istniejąca w pięciowymiarowej czasoprzestrzeni rozpada
się, przy przejściu z niej do zwykłej czterowymiarowej czasoprzestrzeni, na grawitację i
elektromagnetyzm. Oddziaływaniem fundamentalnym jest więc grawitacja w pięciu wymiarach.
Czym jest ten dodatkowy wymiar, dlaczego go nie widzimy, dlaczego ogół doświadczeń mówi
nam, że żyjemy w świecie czterowymiarowym? Fizycy (pierwszym był Oscar Klein) znaleźli
pomysłową odpowiedź, ale omawianie jej nie jest tu potrzebne.
Teoria Kaluzy-Kleina przeżywała wzloty i upadki. Początkowo Einstein odniósł się do
niej niechętnie i nawet opóźnił publikację pracy Kaluzy o dwa lata, potem przekonał się do niej
i zajmował nią przez szereg lat. Była jednym z paru głównych kierunków poszukiwań jego
jednolitej teorii pola. Zmieniał o niej zdanie – parokrotnie kolejno przekonywał się do niej i
zniechęcał. W latach czterdziestych, gdy elektrodynamika kwantowa święciła triumfy w
świecie cząstek elementarnych, a fizycy słyszeć nie chcieli o jednolitej teorii pola, Einstein
ostatecznie zarzucił ideę Kaluzy i Kleina. Dowiedziałem się o jej istnieniu we wczesnych latach
siedemdziesiątych jako o idei całkowicie chybionej. Tymczasem jej renesans miał niebawem
nastąpić. Około roku 1980 nieliczni fizycy zajmujący się nią dokonali ważnych modyfikacji
pierwotnej koncepcji Kaluzy i Kleina i pokazali, ze można w nią wmontować koncepcję pól
cechowania – oczywiście zupełnie inaczej niż w teorii, która właśnie poniosła klęskę w
doświadczeniu, czyli w Wielkiej Unifikacji. Udowodniono, że Einsteinowska grawitacja w
specyficznej czasoprzestrzeni o jedenastu wymiarach rozpada się, gdy zejdziemy do zwykłych
czterech wymiarów, na ogólną teorię względności i model standardowy. Pełna unifikacja!
Wzrost zainteresowania teorią Kaluzy-Kleina był skokowy i spektakularny. Wieść o niej
dotarła nie tyle "pod strzechy", co w miejsce równie egzotyczne – na biurka literatów. W
udzielonym w 1984 r. wywiadzie-rzece Pół wieku czyśćca Tadeusz Konwicki powiada:
„ostatnio fizycy amerykańscy udowodnili, ze żyjemy w jedenastu wymiarach”. Entuzjazm był
niestety przedwczesny. Teoria Kaluzy-Kleina szybko napotkała nieprzezwyciężone trudności.
W 1984 r. było już jasne, że ugrzęzła beznadziejnie. We wrześniu tego roku ukazała się krótka
praca, która sprawiła, że ogół badaczy przerzucił się na radykalnie nową ideę – koncepcję
superstrun, zwaną w skrócie teorią strun. O ile teoria Kaluzy-Kleina, podobnie jak model
Weinberga-Salama i chromodynamika kwantowa, jest teorią pola (oddziaływania rozchodzą się
w przestrzeni w postaci pola, którego kwantami są cząstki punktowe: fotony, bozony W i Z,
gluony czy hipotetyczne grawitony), tyle że w przestrzeni wielowymiarowej, to według teorii
strun obiektami elementarnymi są maleńkie struny – obiekty jednowymiarowe, a więc
nieskończenie cienkie, mające tylko długość. Cząstki jako kwanty rozmaitych pól są
bezwymiarowe; struny są tworami rozciągłymi w jednym wymiarze.
Teoria superstrun pokonała lub ominęła większość problemów, na których wywróciła
się teoria Kaluzy-Kleina, toteż w latach 1985-1986 optymizm fizyków osiągnął szczyt. Ze swej
istoty teoria strun ma unifikować wszystkie oddziaływania elementarne. Skoro najbardziej
adekwatna nazwa, "wielka unifikacja", była już zajęta, pozostało użyć nazwy bardziej
górnolotnej, "teoria wszystkiego" (theory of everything, TOE). Termin wprowadzony dość
ironicznie przez Stanisława Lema w Summa technologiae na początku lat sześćdziesiątych i
potem używany sporadycznie w literaturze science-fiction, teraz pojawił się całkiem serio w
fizyce. Koniec fizyki? Pytanie stawiano na konferencjach i w poważnych wypowiedziach.
Stephen Hawking pisał (Krótka historia czasu), że bliscy jesteśmy poznania myśli Pana Boga.
Podekscytowanie rosło. I znów, jak kilka lat wcześniej, przekonanie, ze fizyka dociera do
istoty bytu, że styka się z teologią, okazało się przedwczesne. Pan Bóg chyba nie myśli o
świecie w terminach superstrun. Struny są tworami bezpośrednio nieobserwowalnymi. Droga
od nich do obserwowanych w przyrodzie cząstek elementarnych jest długa i niejednoznaczna.
Teoria strun implikuje istnienie miliardów światów radykalnie odmiennych od naszego. Nasz
świat, zbudowany z elektronów, kwarków i fotonów o takich własnościach, jakie znamy z
doświadczenia, jest tylko jedną z bardzo wielu możliwości dopuszczonych przez teorię strun;
inne światy skonstruowane są z zupełnie innych cząstek. Dlaczego zrealizowana została ta
właśnie jedna możliwość, a nie miliardy innych? Z upływem czasu trudności piętrzyły się i
entuzjazm wobec strun wygasł.
Obecnie (rok 1995) epilogu napisać jeszcze nie można. Przekonanie, że teoria strun jest
"teorią wszystkiego", teorią ostateczną unifikującą cząstki i ich oddziaływania, niemal zanikło.
Część badaczy zajęła się czym innym, jednak w odróżnieniu od teorii Kaluzy-Kleina idea ta nie
została odrzucona. Wygenerowała ona nowe pola badań i problemy, które przyciągają uwagę
wielu fizyków, chociaż ich nadzieje są skromniejsze niż przed dziesięciu laty.
4.
Poświęciłem tyle miejsca historii najnowszej, by wyjaśnić co właściwie fizycy mają na
myśli mówiąc o teorii ostatecznej, "teorii wszystkiego". Nie ma to być teoria wszystkiego rozu-
mianego dosłownie, lecz wszystkiego co elementarne. W nazwie mówi się o unifikacji
wszystkich oddziaływań elementarnych, lecz trzeba podkreślić, że ma to być teoria unifikująca
w równej mierze cząstki i ich siły. Ma ona znieść przeciwstawienie obiektów fizycznych
(cząstek) i działających między nimi sił. Nie jest tak, że najpierw mamy cząstkę elementarną
(np. elektron), a potem przypisujemy jej (nakładamy na nią) możność oddziaływania
określonymi siłami (grawitacyjnymi i elektrosłabymi). Cząstki i ich siły stanowią jedność:
natura cząstki i natura jej sił wynikają z jednego uniwersalnego źródła. Teoria ostateczna to
teoria tego źródła, teoria opisująca, jak to jednolite źródło (którym może być jakieś unifikujące
pole, specyficzna superstruna lub coś innego) przejawia się w przyrodzie w mnogości form:
jako elektrony, neutrina, fotony, kwarki, gluony, grawitony itd. Nie dopuszcza ona
dowolności: określa dokładnie, jakie cząstki istnieją i jakie są ich oddziaływania. Podkreślam,
że dotychczas istniejące teorie są w tym względzie swobodne – nie wykluczają istnienia innych
cząstek i innych sił niż te znane. Teorię unifikującą cząstki i ich siły nazywamy teorią unifikacji
oddziaływań za względu na fundamentalna rolę oddziaływań – obiekt, który nie oddziałuje w
żaden sposób z otoczeniem jest niedostępny poznaniu.
Dla fizyka zatem teoria ostateczna ma być teorią dającą pełny, wyczerpujący i jednolity
opis wszystkich obiektów i zjawisk świata cząstek elementarnych, teorią mówiącą dokładnie,
co jest możliwe (cząstki nie zawarte enumeratywnie nie mogą istnieć). Winna mieć minimalną
liczbę aksjomatów (tzn. niezależność postulatów nie powinna budzić wątpliwości, jak to było
w przypadku piątego postulatu Euklidesa w geometrii) i nie zawierać żadnych dowolnych
stałych, których wartość liczbową trzeba ustalać doświadczalnie (np. teoria winna wyjaśnić,
dlaczego masa elektronu ma taką a nie inną wartość i dlaczego proton jest 1836 razy cięższy).
Dokładny sens tego ostatniego postulatu wywołuje kontrowersje. Bez wątpienia zbudowanie
takiej teorii jest zadaniem nader ambitnym. Nasuwają się dwa, ściśle związane problemy: czy w
świetle klęski idei Kaluzy-Kleina i trudności teorii strun teoria taka w ogóle jest możliwa (tzn.
czy odpowiada ona rzeczywistości) oraz czy zasadne jest traktowanie jej jako teorii finalnej?
Przecież fizyka cząstek elementarnych jest tylko jednym z działów fizyki, nie jej całością. Jak ta
hipotetyczna teoria będzie się mieć do fizyki ciała stałego, hydrodynamiki, chemii, biologii,
psychologii? Albo ta teoria ma doniosłe znaczenie tylko dla fizyki cząstek i wówczas cały szum
wokół niej jest bezzasadny, albo rości sobie pretensje do odgrywania wyróżnionej roli wobec
całego przyrodoznawstwa i wówczas napotka znane zarzuty stawiane każdej kandydatce na
"teorię wszystkiego", jakkolwiek by to "wszystko" rozumieć. Spór rozgorzał na nowo w latach
osiemdziesiątych w związku z planami budowy amerykańskiego superakceleratora; dla
biologów była to kwestia autonomiczności ich nauki wobec fizyki, dla fizyków ciała stałego był
to przede wszystkim spór o (duże) pieniądze: jeżeli postęp w zakresie fizyki cząstek elemen-
tarnych nie wnosi nic istotnie nowego konceptualnie i praktycznie do innych działów fizyki, to
czy zasadne jest wkładanie tak dużych funduszów w ten akurat dział zamiast podzielić je
między wszystkie dziedziny fizyki?
To, czy wszystkie cząstki i ich siły są przejawem jednego obiektu fizycznego, zostanie
dowiedzione dopiero wtedy, gdy powstanie odpowiednia teoria unifikująca i eksperyment ją
potwierdzi. (Nie chcę tu wchodzić w intensywnie badany w filozofii nauki problem, czy teorie
są doświadczalnie potwierdzane czy tylko falsyfikowane; fizycy intuicyjnie wiedzą, o co
chodzi, i na ogół są zgodni co do prawdziwości danej teorii.) Nie ma mowy o jakimś dowodzie
niekonstruktywnym, poprzedzającym sformułowanie tej teorii. W tym sensie nie wiemy
jeszcze, czy przyroda jest jednolita na poziomie najbardziej elementarnym, możemy jedynie
podawać argumenty na rzecz tej tezy. Świadczy za nią cały rozwój fizyki od Newtona po dzień
dzisiejszy. Trend unifikacyjny, wskazujący na jedność przyrody, jest bardzo wyraźny. Nie
przeczy mu niepowodzenie programów Kaluzy-Kleina i superstrun. Cała historia fizyki usiana
jest trupami nieudanych teorii. Teorie udane wskazują nam, że przyroda jest jednolita, że
rządzących nią reguł nie można podzielić na niezależne od siebie grupy.
Zakładając, że trend rozwojowy jest poprawny aż do ostatecznych konsekwencji i że
będziemy w stanie skonstruować teorię ostateczną (tu często wyrażane są wątpliwości: czy
umysł ludzki podoła temu zadaniu?), odzwierciedlającą jedność przyrody na poziomie
elementarnym, to jej doniosłość dla całości przyrodoznawstwa wyrażamy stwierdzeniem o
jedności przyrody na wszystkich poziomach jej organizacji, nie tylko w świecie cząstek
elementarnych. Złożoność przyrody przejawia się istnieniem różnych poziomów organizacji jej
elementów, poczynając od jąder atomowych poprzez atomy, molekuły, ciała makroskopowe,
organizmy żywe, aż po świadomy umysł. Różne poziomy opisujemy różnymi prawami i
teoriami; zmianę opisu przy przejściu z poziomu niższego na wyższy charakteryzujemy jako
„emergencję”. Emergencja nowych pojęć nie oznacza niezależności poziomów, bowiem
jedność przyrody przejawia się w formie redukcjonizmu.
5.
Redukcjonizm. Pojęcie pejoratywne w języku potocznym i filozofii. Nikt nie ma ochoty
być zredukowanym; naukowiec nie chce, by jego dziedzina wiedzy redukowała się do innej.
Większość myślicieli jest przeciwko redukcjonizmowi. Jego zwolennikami są głównie fizycy i
to nie wszyscy. W 1974 r. Weinberg napisał: "Jednym z celów, do których człowiek wytrwale
zmierza, jest znalezienie paru prostych ogólnych praw, które wyjaśniłyby, dlaczego przyroda z
całą jej złożonością i bogactwem form jest taka, jaka jest. W chwili obecnej najbardziej
zbliżamy się do tego celu, gdy stosujemy jednolity opis przyrody za pomocą cząstek
elementarnych i ich oddziaływań.". Wybitny biolog, Ernst Mayr, uznał to za "przerażający
przykład myślenia fizyków". Również wybitny uczony zajmujący się fizyką ciała stałego, Philip
Anderson, nie zgadza się z wyróżnioną w tym sensie rolą fizyki cząstek elementarnych i
podkreślając doniosłość emergencji nowych zjawisk w ciałach złożonych z wielkiej liczby
atomów, stwierdza: "więcej, to coś innego".
Redukcjonizm ma wiele różnych znaczeń, przy czym większość z nich nie jest
porządnie zdefiniowana. Pomimo emocji, jakie wzbudza, jego zwolennicy nie dbają najczęściej
o precyzyjne sformułowanie swoich myśli. W rezultacie najgorętszy spór dotyczy słów, a
najostrzejsze polemiki są kierowane przeciw poglądom nie wypowiedzianym, lecz przypisanym
adwersarzowi. Jest to kłótnia o aforyzmy, które nawet w przypadku przypisywanego fizykom
twierdzenia, że "biologia to nic więcej niż fizyka i chemia" są niejednoznaczne.
Polemizując z Weinbergiem, Mayr usiłował sklasyfikować rodzaje redukcjonizmu. Jego
klasyfikacja jest niekompletna – nie obejmuje rodzaju najważniejszego z punktu widzenia
fizyki. Lepiej ją pominąć, zwięzłe omówienie historycznych typów redukcjonizmu to temat na
obszerny artykuł. Tutaj zajmę się tym, co Weinberg nazywa "redukcjonizmem obiektywnym".
Nie jest to program badawczy, sposób patrzenia na przyrodę. Jak głosi znana myśl,
którą kiedyś widziałem wypisaną na murze, "każdy widzi co chce". Zgodnie z nią "totalitarnie"
myślący fizycy usiłują wmówić redukcjonistyczny porządek w rzeczywistość. Tak nie jest.
Redukcjonizm obiektywny nie jest aprioryczną koncepcją, za pomocą której pragniemy
uporządkować obraz przyrody. Wręcz przeciwnie, jest on konsekwencją naszej nabytej wiedzy
o przyrodzie, konsekwencją, którą musimy przyjąć, mimo że się wielu badaczom nie podoba,
bowiem wyraża ona jedną z fundamentalnych cech przyrody.
Znane prawa przyrody odnoszą się do różnych poziomów organizacji materii oraz do
rozmaitych klas zjawisk. Zebrane razem nie tworzą chaotycznego zbiorowiska praw, lecz
logicznie uporządkowaną hierarchiczną strukturę. Prawa mniej fundamentalne, czyli bardziej
szczegółowe, wynikają z praw bardziej fundamentalnych i uniwersalnych. Światło lampy, przy
której piszę, rzuca cień, bowiem zgodnie z prawami optyki geometrycznej promienie świetlne
rozchodzą się po liniach prostych. Optyka geometryczna jest tylko krótkofalowym
przybliżeniem, wynikającym z ogólniejszej teorii – optyki falowej (falowa teoria światła). Ta
ostatnia nie jest teorią autonomiczną, gdyż światło jest falą elektromagnetyczną, podległą
prawom elektrodynamiki klasycznej. Klasyczna fala elektromagnetyczna jest uśrednionym
opisem roju fotonów, które podlegają elektrodynamice kwantowej. Jej prawa wynikają z teorii
bardziej uniwersalnej – modelu Weinberga-Salama. W następnym (ostatnim?) kroku wynikania
dochodzimy do unifikującej teorii ostatecznej. Poruszając się w kierunku przeciwnym do
kierunku wynikania logicznego redukujemy, w kolejnych krokach, optykę geometryczną do
teorii sił elektrosłabych. Podkreślam: redukujemy – nie absorbujemy. Redukcja oznacza tu fakt
wynikania logicznego z teorii ogólniejszej, nic więcej. (Przez wynikanie logiczne rozumiem tu
nie tylko działania w sensie logiki formalnej lecz też wszelkie operacje matematyczne, które
trzeba w tym celu wykonać.) Nie oznacza ona, że odtąd mamy zjawiska świetlne opisywać za
pomocą teorii sił elektrosłabych – byłoby to skrajnie niepraktyczne. Optyk projektujący
skomplikowany obiektyw aparatu fotograficznego posługuje się optyką falową, a do
większości problemów życia codziennego wystarcza optyka geometryczna. Dopiero do opisu
silnych spójnych wiązek światła laserowego potrzebna jest optyka kwantowa. W tym samym
sensie prawa chemii redukują się do praw mechaniki kwantowej atomów i molekuł, natomiast
sama chemia, jak mówiłem, uzbrojona w metody chemii kwantowej, wspaniale się rozwija.
Podobnie podstawy biologii – biologia molekularna, biochemia i biofizyka redukują się do
fizyki i chemii. Redukcja ta – nigdy dość powtarzania – nie oznacza zastąpienia pojęć i metod
badawczych właściwych biologii pojęciami czysto fizykochemicznymi. Roztaczana przez
podekscytowanych przeciwników redukcjonizmu wizja, według której fizyk-redukcjonista
chcąc poznać uczucia swej ukochanej zabiera się do rozwiązywania na wielkim komputerze
równania Schrödingera dla elektronów w jej mózgu, jest równie groteskowa co bezzasadna.
Zapewne stan kwantowy plazmy elektronowej w mózgu niesie interesującą informację o jego
funkcjonowaniu, lecz wątpliwe, by dało się z niego odczytać myśli. Fizyka (kwantowa) jest
konieczna do zrozumienia sposobów przesyłania i kodowania informacji, natomiast opis
procesu myślenia niewątpliwie wymaga pojęć wykraczających poza fizykę.
Najwięcej nieporozumień w tym kontekście wywołuje sprawa emergencji. Trzeba
stwierdzić z naciskiem, że wprowadzenie pojęć adekwatnych na danym poziomie organizacji
materii (molekuły, organizmy żywe itp.) wcale nie przeczy redukcjonizmowi. Sprzeczność
pojawiłaby się, gdyby zastąpić proces redukcji – wyjaśnienia aksjomatów danej teorii za
pomocą praw (twierdzeń) teorii ogólniejszej – zaabsorbowaniem tej pierwszej przez drugą.
Weźmy dla przykładu relację fizyki statystycznej do mechaniki kwantowej. Kwantowe
właściwości powłoki elektronowej atomu decydują o tym, że w warunkach normalnych duża
liczba atomów żelaza tworzy ciało stałe, rtęci – ciecz, a tlenu – gaz. Z drugiej strony,
bezpośrednie zastosowanie mechaniki kwantowej do opisu kaloryfera czy wody w rzece
byłoby kiepskim pomysłem. Do dużej liczby atomów trzeba stosować fizykę statystyczną z
adekwatnymi do niej pojęciami temperatury, ciśnienia, entropii itd. Nie mają one sensu w
odniesieniu do pojedynczych atomów. Redukcjonizmowi to nie szkodzi; redukcja fizyki
statystycznej polega na tym, że jej prawa dają się wyprowadzić z twierdzeń mechaniki
kwantowej zastosowanej do obiektów wieloatomowych, że nie musimy ich postulować
niezależnie. Przypuszczam, że znaczna część emocji bierze się stąd, że dyskutanci notorycznie
mylą redukcjonizm obiektywny z absorbowaniem teorii węższych przez ogólniejsze.
Odrzucamy ideę absorpcji, gdyż w praktyce pozbawiłaby nas możliwości podania użytecznego
opisu zachowania się bardziej skomplikowanych układów. Teoria redukowana jest logicznie
pochodną innej teorii, natomiast pozostaje autonomiczna w sensie swoich pojęć i metod
badawczych. Biolog zajmujący się genetyką populacyjną roślin nie musi się obawiać, że
zamiast zbierać wiosną kwiaty na górskiej łące, każą mu uprawiać mechanikę kwantową na
komputerze.
Redukcjonizm obiektywny wyraża fundamentalną, całkiem nieoczywistą własność
przyrody: wszystkie jej prawa wynikają z jednej lub w najgorszym razie z trzech (gdyby
okazało się, że oddziaływania elektrosłabe, silne i grawitacyjne są od siebie niezależne) teorii
fundamentalnych. Jest to odkrycie całkiem nowe, jeszcze w dziewiętnastym wieku sądzono, że
teorii fundamentalnych (włączając chemię i biologię) jest wiele. Co więcej, a priori możliwa
byłaby też taka sytuacja, w której ciągi wynikań nie zbiegałyby się do jednego czy paru źródeł,
lecz tworzyły zamknięte koło. Sytuacja taka występuje w przypadku modnej przed dwudziestu
laty "zasady antropicznej", według której (w jej silnej wersji) uniwersalne stałe przyrody są tak
dobrane, by zdeterminowane przez nie poziomy energetyczne jąder umożliwiały istnienie
świata takiego, jaki widzimy, a więc w którym możemy powstać i żyć. Gdyby stałe przyrody, a
z nimi poziomy energetyczne jąder, były nieco inne, to pojawiłyby się dwa dodatkowe izotopy
helu. Skutek byłby katastrofalny: cały pierwotny wodór wypaliłby się we wczesnym
Wszechświecie w cięższe pierwiastki; nie byłoby w ogóle gwiazd płonących reakcjami
termojądrowymi i dzisiejszy Kosmos byłby całkowicie ciemny i wypełniony pyłem o
temperaturze bliskiej zera absolutnego. W takim świecie żadne organizmy żywe nie mogłyby
zaistnieć. Innymi słowy Wszechświat wydaje się być starannie dostrojony do istnienia życia
(niekoniecznie akurat nas). Gdyby zasada antropiczna była słuszna, to chcąc zrozumieć siebie i
otaczający świat wyszlibyśmy od opisu człowieka i schodząc w dół poprzez biologię, chemię i
fizykę doszlibyśmy do fizyki jądrowej i z jej poziomu wrócili bezpośrednio do człowieka. Taki
zamknięty krąg rozumowań byłby dla fizyków niezadowalający i zaakceptowaliby go tylko w
ostateczności – gdyby zawiodły wszystkie próby wyjaśnienia własności przyrody (w tym
stałych uniwersalnych) za pomocą teorii świata mikroskopowego.
Redukcjonizm obiektywny to nasz ludzki sposób porządkowania praw przyrody, tak
aby odzwierciedlały jedność i hierarchiczny porządek przyrody. Istotny jest tu porządek
istniejący w przyrodzie, a nie nasza chęć wprowadzenia ładu w przedsięwzięcie zwane nauką.
6.
W związku z tym, że hipotetyczna teoria ostateczna uzyskuje fundamentalną rolę w
przyrodoznawstwie poprzez redukcjonizm, warto poruszyć kwestię, na którą pierwszy chyba
zwrócił uwagę wybitny matematyk rosyjski Jurij Manin. Chodzi o różnice między
prawdziwością i dowodliwością teorii. Teoria naukowa jest prawdziwa, gdy prawdziwe jest
każde z nieskończenie wielu twierdzeń wchodzących w jej skład (a tym samym żadne
twierdzenie nie jest fałszywe). Przez twierdzenie rozumie się wszelkie przewidywanie
wynikające z teorii. Aby stwierdzić prawdziwość teorii należy wykonać nieskończenie wiele
eksperymentów sprawdzających wszystkie jej twierdzenia. Z drugiej strony każdą teorię – z
wyjątkiem teorii ostatecznej – można udowodnić wyprowadzając ją z teorii ogólniejszej.
Dowód, składający się ze skończonej liczby kroków (operacji matematycznych) jest
równoważny nieskończonej liczbie eksperymentów. Jest więc jasne, że dowód, dający nam
pewność prawdziwości teorii, to coś mocniejszego niż przypuszczenie prawdziwości,
indukcyjnie wyciągnięte z dowolnie dużej, lecz zawsze skończonej liczby doświadczeń, jakie
jesteśmy w stanie wykonać. Nic dziwnego, że udowodnienie teorii jest na ogół trudne. Teoria
może być prawdziwa, lecz praktycznie nie do udowodnienia. Operacja redukcji, teoretycznie
możliwa, nie zawsze jest w praktyce wykonalna.
Wyprowadzenie optyki geometrycznej z modelu Weinberga-Salama jest relatywnie
łatwe. Nie jest już tak dla fizyki statystycznej. Opiera się ona na pojęciu rozkładu
kanonicznego, którego udowodnienie z zasad pierwszych (mechanika kwantowa lub
klasyczna) wiąże się z tzw. zagadnieniem ergodyczności, postawionym przeszło sto lat temu
przez Ludwiga Boltzmanna. Jest to bardzo trudny problem matematyczny i pomimo olbrzy-
mich wysiłków pozostaje nadal nie rozwiązany. W rezultacie aksjomaty fizyki statystycznej są
hipotezami, o których prawdziwości sądzimy na podstawie zgodności teorii ze wszystkimi
wykonanymi dotąd doświadczeniami. Nikt jednak nie wątpi w możliwość udowodnienia
mechaniki statystycznej, nie ma też podstaw, by przypuszczać, że skonstruowanie tego
dowodu wprowadzi do niej nowe idee i metody, które odmienią jej postać (tak jak fizyka
odmieniła chemię). Szukamy dowodu, gdyż chcemy do końca zrozumieć fizykę statystyczną i
upewnić się, że pasuje ona do hierarchicznego porządku przyrody.
Bardziej dramatyczna jest sytuacja fizyki jądrowej. Niemal wszystko, co w niej wiemy,
pochodzi wprost z doświadczenia; teoria jest bardzo uboga, istnieją tylko prymitywne modele
struktury jądra atomowego. Budowa atomu (struktura powłoki elektronowej) wynika z
mechaniki kwantowej i elektrodynamiki, tu teoria jest bardzo dokładna i nie pozostawia
żadnych luk. Ponieważ protony i neutrony w jądrze oddziałują silnie, więc struktura jądra
wynika z chromodynamiki kwantowej, która w zasadzie winna dawać jego opis równie
precyzyjny jak opis atomu w mechanice kwantowej. Niestety tak nie jest; obecne zrozumienie
chromodynamiki pozwala jedynie na opis reakcji między dwoma protonami lub neutronami. Z
przyczyn, które tkwią u samych podstaw chromodynamiki, dostępne nam metody obliczeniowe
nie mogą być stosowane do jąder. Tym niemniej fizycy są przekonani, że zasady fizyczne
konieczne do skonstruowania teorii jądra atomowego są już znane – są to zasady
chromodynamiki, nic więcej nie trzeba. Musimy nauczyć się stosować tę teorię do układów
wielu cząstek silnie oddziałujących. Na razie jesteśmy w sytuacji dziecka, które dostało
komputer i zna tylko kilka najprostszych komend – bogactwo jego funkcji jest mu jeszcze
niedostępne. Gdy się tego nauczymy, będzie to prawdziwy przełom w fizyce jądrowej i jej
zastosowaniach.
Widzimy zatem, że redukcjonizm obiektywny oznacza samą możliwość wyprowadzenia
teorii z zasad ogólniejszych, niekoniecznie zaś faktyczne przeprowadzenie dowodu. Teorie
redukowane zachowują więc w praktyce sporą niezależność. Dopóki nie powstanie teoria
ostateczna i schemat relacji między nią i pozostałymi teoriami nie zostanie domknięty, możliwe
są inne wątpliwości. Co wynika z czego? Nie zawsze jest to jasne. Weinberg podaje przykład:
z ogólnej teorii względności wynika istnienie cząstek bez masy i niosących spin równy 2 – są to
grawitony. Z drugiej strony, jeżeli zapostulować istnienie cząstek bezmasowych o spinie 2, to
jedyną konsystentną teorią, jaką potrafimy dla nich skonstruować, jest ogólna teoria
względności, czyli muszą to być grawitony. Co jest bardziej fundamentalne: teoria Einsteina
czy istnienie takich cząstek? Dziesięć lat temu, opierając się na teorii strun, Weinberg ostrożnie
sugerował, że cząstki te są bardziej fundamentalne, a teoria Einsteina jest wtórna. Dziś
zapewne jest jeszcze bardziej ostrożny.
Istota relacji między teorią ostateczną a teoriami wobec niej pochodnymi ukazuje, że
powstanie teorii finalnej nie oznacza wcale końca fizyki (a tym bardziej końca nauki). Będzie
to tylko, jak ujmuje Weinberg, "koniec okresu badań, w którym poszukiwano zasad, których
nie można wyjaśnić odwołując się do zasad jeszcze głębszych". Zgodnie ze zdrowym
rozsądkiem, termodynamika procesów nieodwracalnych, hydrodynamika i modna obecnie
teoria chaosu, chemia i biologia będą rozwijać się swoimi torami i wydarzenie to nie będzie dla
nich przełomowe. Przełomem będzie ono dla naszego globalnego obrazu przyrody – dotrzemy
do centralnego punktu, z którego wychodzą wszystkie ciągi wynikań logicznych.
7.
Czego można spodziewać się po teorii ostatecznej? Na ile będzie podobna do teorii
znanych, na ile wyjątkowa i niepowtarzalna? Ostatnio pisze się o niej dużo i w literaturze
popularnonaukowej można natknąć się na najśmielsze spekulacje. Nie brak też zastrzeżeń.
Jak przedstawiłem powyżej, to do czego fizycy dążą i na co mają realną nadzieję, jest
teorią unifikującą wszystkie cząstki i ich oddziaływania, teorią dającą jednolity, spójny i wolny
od swobodnych parametrów opis materii na poziomie elementarnym. Aż tyle i tylko tyle. Może
się ona pojawić w najbliższych latach, lecz chyba przyjdzie na nią poczekać wiele
dziesięcioleci. Co więcej, nie jest wcale oczywiste, że gdy powstanie, to bez wahań
rozpoznamy, że to właśnie ona.
Przez prawie ćwierć tysiąclecia mieliśmy jedną teorię grawitacji – prawo ciążenia
Newtona – która znakomicie opisywała wszystkie znane zjawiska grawitacyjne. Gdyby nie
kosmologia, to do dziś mogłaby uchodzić za wystarczającą teorię (dopiero ostatnio pojawiły
się wyraźne sygnały obserwacyjne istnienia czarnych dziur i fal grawitacyjnych). Sam Einstein
opracował swoją teorię nie pod presją faktów empirycznych, lecz z przyczyn czysto
konceptualnych. Skąd więc mamy wiedzieć, że konkretna teoria unifikująca, elegancka i
zgodna z doświadczeniem, jest rzeczywiście końcem drogi, że nie należy szukać dalej czegoś
prostszego i elegantszego? Fizycy odpowiadają, że nie wydaje się prawdopodobne, by możliwy
był cały ciąg teorii unifikujących, z których każda byłaby zadowalająca, a zarazem każda
następna byłaby lepsza od poprzednich. Teoria prawdziwie unifikująca musi być tak idealnie
spójna i wewnętrznie samouzgodniona, że zmiana jakiegokolwiek jej fragmentu grozi
zupełnym jej popsuciem. Teoria ostateczna może być tylko jedna, każda inna kandydatka ma
dyskwalifikujące ją defekty.
Jak dotąd pogląd ten jest aktem wiary, nie znamy teorii naukowej nie dopuszczającej
żadnych modyfikacji. Ale nie ma też podstaw, by tę cechę jedyności przypisać teoriom opisują-
cym poszczególne fragmenty przyrody; postulujemy, że jest to cecha konstytutywna teorii
ostatecznej. Ze swej istoty teoria ostateczna ma być teorią świata mikroskopowego. Co z
Wszechświatem? Według ogólnej teorii względności, Wszechświat jest tylko jednym, bardzo
szczególnym przypadkiem w nieskończonym zbiorze możliwych światów. Dlaczego zrealizo-
wany został ten specyficzny przypadek? Są dwie możliwe odpowiedzi. Pierwsza: teoria
ostateczna jest ostateczna tylko w odniesieniu do świata mikroskopowego (i
makroskopowego), a globalna budowa Wszechświata wynika z niezależnej od niej teorii
kosmologicznej. Istnieją zatem dwie teorie ostateczne, do których zbiegają się wszystkie inne.
Ta odpowiedź jest dla fizyków, podobnie jak zasada antropiczna, bardzo niezadowalająca. Nie
mamy żadnej teorii, która miałaby źródło w astronomii, a nie w fizyce laboratoryjnej. W
przeciwieństwie do astronomów, którzy chętnie mówią o potrzebie "nowej fizyki" do
wyjaśnienia rozmaitych zjawisk na niebie, fizycy są przeciwni wprowadzaniu nowych teorii
wyłącznie na podstawie obserwacji astronomicznych. Cała historia fizyki świadczy o słuszności
tej postawy. Dalej, skoro wszystkie poszczególne składniki Wszechświata podlegają (poprzez
proces redukcji) teorii ostatecznej świata mikroskopowego, to dlaczego całość miałaby
podlegać prawom od niej niezależnym? Przypominam, że emergencja nowych pojęć
koniecznych do opisu globalnej struktury Kosmosu wcale nie oznacza, że rządzące nimi prawa
są autonomiczne. Fizycy odrzucają zatem tę odpowiedź, przypuszczam, że filozofowie też.
Druga odpowiedź jest taka, że istniejąca postać Wszechświata wynika z teorii
ostatecznej. Świat mikroskopowy determinuje w ostatecznym rozrachunku kosmologię.
Łącznikiem między obu światami jest grawitacja, która na równej stopie z innymi siłami
wchodzi do teorii unifikacyjnej i która w decydującej mierze kształtuje globalną postać
Wszechświata. W tym sensie – połączenia mikroświata i kosmologii – teoria ostateczna jest
"teorią wszystkiego" (TOE). Oznacza to, że teoria ta dopuszcza tylko jedno rozwiązanie
kosmologiczne: jedynie istniejący Wszechświat jest możliwy, inne światy są wykluczone.
Wiąże się to z problemem warunków początkowych; zagadnienie to omawiają szczegółowo
Hawking w Krótkiej historii czasu i Michał Heller we Wszechświecie u schyłku stulecia.
Należy spodziewać się, że teoria ostateczna jest bogata: przewiduje istnienie wielu różnych
stanów podstawowych (rozmaite stany "próżni") oraz egzotycznych stanów materii, bardzo
odległych od tego, co możemy wytworzyć w laboratorium lub zobaczyć na niebie.
Konfrontacja bogactwa zjawisk przewidywanych przez teorię ostateczną z naszymi nader
ograniczonymi możliwościami eksperymentalnymi i obserwacyjnymi sprawi, że teoria ta może
wydać się luźna, tzn. nie wyjaśniać jednoznacznie naszych eksperymentów. Bierze się to
głównie stąd, że TOE będzie teorią kwantową. Rozpatrzmy nieco wydumany i nierealistyczny
przykład. Niech według tej teorii pewien atom ma dwa bazowe stany kwantowe: w jednym
znajduje się na Ziemi, w drugim – na Słońcu. Ewolucja kosmologiczna rządzona przez TOE
sprawi, że aktualnie atom ten będzie w stanie kwantowym będącym pewną superpozycją obu
stanów bazowych. Dostępne nam eksperymenty pozwolą stwierdzić, że atom ten jest lub nie
na Ziemi, podczas gdy teoria przewiduje więcej. Jak twierdzi Andreas Albrecht z Imperial
College w Londynie, TOE nie będzie jednoznacznie przewidywać tych praw, które indukcyjnie
odtwarzamy z obserwacji, lecz jedynie ukaże, iż prawa te zostały wybrane z obszernego zbioru
możliwości. Jego zdaniem, z punktu widzenia fizyka znającego tylko te prawa, które opisują
dostępny nam empirycznie świat, TOE jest tak bardzo nadmiarowa, że z "teorii wszystkiego"
staje się "teorią czegokolwiek". Będziemy mieć zatem poważne trudności z rozpoznaniem
teorii ostatecznej i udowodnieniem jej jednoznaczności.
Pójdźmy dalej. Tak pojęta teoria ostateczna jest niewątpliwie warunkiem koniecznym
zrozumienia przyrody, lecz nie warunkiem wystarczającym. Wzorem filozofów starożytnych
chcielibyśmy wiedzieć więcej. Niektórzy fizycy (np. Hawking) już obecnie są przekonani, że
teoria ostateczna (którą widzą niemal w zasięgu ręki) winna przedstawiać Wszechświat
wyłaniający się z nicości; miałaby to być teoria nie tylko jedyna, ale i samorealizująca się.
Usiłują oni rozwiązać najambitniejsze – zdaniem Leszka Kołakowskiego – zadanie filozofii
wszechczasów: udowodnić konieczność istnienia świata takiego, jaki jest.
Idea kreacji Wszechświata z niczego zakłada implicite określoną odpowiedź na pytanie
o naturę i pochodzenie praw przyrody. Tutaj zasygnalizujemy tylko problem. Tradycyjnie
istnieją dwie odpowiedzi. Według koncepcji platońskiej prawa przyrody istnieją poza
materialnym Kosmosem, w popperowskim "trzecim świecie" i logicznie poprzedzają materię.
Ponieważ kreacja Wszechświata z niczego odbywa się zgodnie z prawami fizyki, koncepcja ta
jest dla niej niezbędna. Z drugiej strony nie istnieje coś takiego jak "goła materia" obdarta z
rządzących nią praw. Mamy swoisty dualizm praw: są inherentnym, nieusuwalnym składnikiem
materii, a zarazem egzystują od niej niezależnie w świecie logiki. Dualizmu unika druga
odpowiedź: prawa przyrody są nierozłączne z materią i nie istnieją poza nią. "Trzeci świat"
Poppera jest konstrukcją rozumu obserwującego przyrodę, tworem intersubiektywnym, tym
niemniej nie istniejącym wcześniej niż rozumna myśl wylęgła się w organizmach żywych.
Interesujące, że rozstrzygnięcie tego par excellence filozoficznego problemu decyduje o
sensowności czysto fizykalnej idei kreacji z niczego.
Niektórzy autorzy (m. in. znany astrofizyk angielski i płodny autor książek
popularnonaukowych, John Barrow) zadają pytanie wzorem Kanta: czy teoria ostateczna daje
nam wgląd w "rzecz samą w sobie", czy też obraz tej rzeczy przetransformowany przez
aprioryczne kategorie poznawcze naszego umysłu? Zazwyczaj przyrodnicy na tego typu
pytanie odpowiadają, że aparat poznawczy naszego umysłu ukształtował się ewolucyjnie w
oddziaływaniu z otoczeniem człowieka i nie może dawać zbyt zdeformowanego obrazu świata.
Odpowiedź jest poprawna, lecz można odpowiedzieć bardziej konkretnie i stanowczo.
Mianowicie, kwestia relacji między przyrodą jako taką, a jej prawami, które odtwarzamy z
obserwacji (czyli naszym ludzkim obrazem przyrody), dotyczy nie tylko teorii ostatecznej, ale
całego świata zjawisk mikroskopowych i kosmologicznych. Tu zaś sprawę postawił jasno
Einstein: powstanie takich teorii jak ogólna teoria względności i mechanika kwantowa (które
są bardzo odległe od naszych intuicji ukształtowanych kontaktami z naturalnym otoczeniem)
oznacza, że filtrujących kategorii Kantowskich nie ma, a w każdym razie potrafimy się od nich
uwolnić.
I na koniec, by nie został choćby cień wątpliwości, dodam, że teoria ostateczna nie ma
nic więcej do powiedzenia o umyśle ludzkim niż to, co potrafią ustalić nauki bezpośrednio się
nim zajmujące – psychologia, neurologia, biochemia i biofizyka. Duszy ludzkiej z jej pomocą
nie poznamy.