Leszek Sokołowski, W poszukiwaniu teorii ostatecznej

16
Leszek M. Sokołowski Obserwatorium Astronomiczne Uniwersytetu Jagiellońskiego W POSZUKIWANIU TEORII OSTATECZNEJ 1 1. Temat i tytuł zaczerpnąłem z ostatniej książki wybitnego fizyka amerykańskiego, Stevena Weinberga, Sen o teorii ostatecznej. O koncepcji teorii ostatecznej mówi się w fizyce od szeregu lat i sporo uwagi poświęcił jej w swojej równie sławnej co kontrowersyjnej książce Krótka historia czasu inny wybitny fizyk współczesny, Stephen Hawking. Jednak dopiero rozważania Weinberga przekonały mnie, że idea ta wyszła poza domysły wąskiego kręgu fizyków-teoretyków i że warto przedyskutować ją w środowisku filozofów. W samej rzeczy Weinberg napisał Sen... w celu agitacyjnym miała to być apologia i propaganda budowy największego akceleratora cząstek elementarnych, nazwanego Superconducting Super Collider (SSC), najkosztowniejszego przedsięwzięcia czysto naukowego w dziejach ludzkości. Projekt jego budowy zatwierdzono w 1987 roku i w rok później rozpoczęto prace wstępne; w październiku 1993, po wydaniu dwu miliardów dolarów, Kongres USA ostatecznie zarządził jego likwidację. Pierwsze wydanie książki ukazało się, gdy toczyły się jeszcze zaciekłe boje w obronie akceleratora, drugie już po jego kasacji. Do drugiego wydania Weinberg dopisał epilog o smutnym końcu wielkiego projektu; zrobił to pośpiesznie i w głównym tekście nie poprawił stwierdzeń, że akcelerator będzie budowany. Zwracam na to uwagę, gdyż przy pobieżnej lekturze apologetyczny charakter książki rzuca się w oczy. Byłoby jednak błędem przypisywać jej tylko taki charakter i cel czysto doraźny. Chcąc rzetelnie uzasadnić propozycję wydania ponad ośmiu miliardów dolarów, Weinberg daleko wyszedł poza ten cel i przedstawił w sposób jasny i klarowny poglądy wielu czołowych fizyków na samą istotę fizyki. Odpo - wiedział na pytanie: czym jest i do czego zmierza fizyka. Jak nikt od czasów Einsteina, potrafi on wyjaśnić, czego chcą fizycy i jak postrzegają przyrodę. Z tej racji każdemu, kogo interesują te kwestie, polecam obok filozoficznych tekstów Einsteina, tę i poprzednią ( Pierwsze trzy minuty) książkę Weinberga. 2. Koncepcja finalnej teorii fizyki jest w pewnym sensie bardzo st ara i całkiem świeża. Jest nowa, bo fizycy zaczęli ją traktować serio nie dalej niż dwadzieścia lat temu. Jest stara, bo pierwsze jej sformułowanie pochodzi od Newtona ( Principia oraz Optyka), a jej dalekim poprzednikiem były wyobrażenia jońskich filozofów przyrody. Pojęciami ściśle z nią związanymi, chociaż nietożsamymi, są unifikacja i redukcjonizm. Fundamentalnym, nieusuwalnym założeniem wstępnym greckich filozofów przyrody, czyniącym możliwym i sensownym jakiekolwiek racjonalne dociekanie o Naturze było, że za oszałamiającym bogactwem i różnorodnością obiektów i zjawisk przyrodniczych stoi jakaś 1 Artykuł ukazał się w książce Przestrzenie księdza Cogito, Księdzu Michałowi Hellerowi w sześćdziesiątą rocznicę urodzin, pod redakcją Stanisława Wszołka, Wyd. Biblos, Tarnów 1996, str. 88113.

Transcript of Leszek Sokołowski, W poszukiwaniu teorii ostatecznej

Leszek M. Sokołowski

Obserwatorium Astronomiczne Uniwersytetu Jagiellońskiego

W POSZUKIWANIU TEORII OSTATECZNEJ 1

Księdzu Profesorowi Michałowi Hellerowi, który zawsze pasjonował się kwestią ostatecznych granic poznania

1.

Temat i tytuł zaczerpnąłem z ostatniej książki wybitnego fizyka amerykańskiego,

Stevena Weinberga, Sen o teorii ostatecznej. O koncepcji teorii ostatecznej mówi się w fizyce

od szeregu lat i sporo uwagi poświęcił jej w swojej równie sławnej co kontrowersyjnej książce

Krótka historia czasu inny wybitny fizyk współczesny, Stephen Hawking. Jednak dopiero

rozważania Weinberga przekonały mnie, że idea ta wyszła poza domysły wąskiego kręgu

fizyków-teoretyków i że warto przedyskutować ją w środowisku filozofów. W samej rzeczy

Weinberg napisał Sen... w celu agitacyjnym – miała to być apologia i propaganda budowy

największego akceleratora cząstek elementarnych, nazwanego Superconducting Super

Collider (SSC), najkosztowniejszego przedsięwzięcia czysto naukowego w dziejach ludzkości.

Projekt jego budowy zatwierdzono w 1987 roku i w rok później rozpoczęto prace wstępne; w

październiku 1993, po wydaniu dwu miliardów dolarów, Kongres USA ostatecznie zarządził

jego likwidację. Pierwsze wydanie książki ukazało się, gdy toczyły się jeszcze zaciekłe boje w

obronie akceleratora, drugie – już po jego kasacji. Do drugiego wydania Weinberg dopisał

epilog o smutnym końcu wielkiego projektu; zrobił to pośpiesznie i w głównym tekście nie

poprawił stwierdzeń, że akcelerator będzie budowany. Zwracam na to uwagę, gdyż przy

pobieżnej lekturze apologetyczny charakter książki rzuca się w oczy. Byłoby jednak błędem

przypisywać jej tylko taki charakter i cel czysto doraźny. Chcąc rzetelnie uzasadnić propozycję

wydania ponad ośmiu miliardów dolarów, Weinberg daleko wyszedł poza ten cel i przedstawił

w sposób jasny i klarowny poglądy wielu czołowych fizyków na samą istotę fizyki. Odpo-

wiedział na pytanie: czym jest i do czego zmierza fizyka. Jak nikt od czasów Einsteina, potrafi

on wyjaśnić, czego chcą fizycy i jak postrzegają przyrodę. Z tej racji każdemu, kogo interesują

te kwestie, polecam obok filozoficznych tekstów Einsteina, tę i poprzednią (Pierwsze trzy

minuty) książkę Weinberga.

2.

Koncepcja finalnej teorii fizyki jest w pewnym sensie bardzo stara i całkiem świeża. Jest

nowa, bo fizycy zaczęli ją traktować serio nie dalej niż dwadzieścia lat temu. Jest stara, bo

pierwsze jej sformułowanie pochodzi od Newtona (Principia oraz Optyka), a jej dalekim

poprzednikiem były wyobrażenia jońskich filozofów przyrody. Pojęciami ściśle z nią

związanymi, chociaż nietożsamymi, są unifikacja i redukcjonizm.

Fundamentalnym, nieusuwalnym założeniem wstępnym greckich filozofów przyrody,

czyniącym możliwym i sensownym jakiekolwiek racjonalne dociekanie o Naturze było, że za

oszałamiającym bogactwem i różnorodnością obiektów i zjawisk przyrodniczych stoi jakaś

11 AArrttyykkuułł uukkaazzaałł ssiięę ww kkssiiąążżccee PPrrzzeessttrrzzeenniiee kkssiięęddzzaa CCooggiittoo,, KKssiięęddzzuu MMiicchhaałłoowwii HHeelllleerroowwii ww sszzeeśśććddzziieessiiąąttąą

rroocczznniiccęę uurrooddzziinn,, ppoodd rreeddaakkccjjąą SSttaanniissłłaawwaa WWsszzoołłkkaa,, WWyydd.. BBiibbllooss,, TTaarrnnóóww 11999966,, ssttrr.. 8888––111133..

uniwersalna zasada wprowadzająca w to pozornie chaotyczne rojowisko przedmiotów i

zdarzeń pewien ład i porządek. Każdy filozof inaczej sobie tę zasadę wyobrażał, lecz

wszystkim wspólna była wiara w istnienie reguł rządzących światem naturalnym. Jest to rzecz

dobrze znana z filozofii i nie trzeba jej szerzej omawiać.

W tym sensie pogląd, że podstawową zasadą i początkiem wszechrzeczy jest woda

(Tales), powietrze (Anaksymenes) czy ogień (Heraklit), był odległym przodkiem ostatecznej

teorii fizyki. Innym przodkiem była całkiem odmienna koncepcja – hipoteza atomów

Demokryta i Leucypa. Były to doktryny opierające świat na jednej zasadzie, zatem dokonujące

pełnej unifikacji. W porównaniu z nim fizyka Arystotelesa, choć bardziej konkretna i

precyzyjna, była krokiem wstecz – z założenia świat dzielił się na część translunarną i

sublunarną, z których każda miała własny system praw fizyki i nie było prawa

fundamentalnego, prawdziwie uniwersalnego.

Wbrew popularnemu poglądowi szerzonemu przez podręczniki szkolne, atomizm

Demokryta nie był wcale lepszy od doktryn Talesa i innych Jończyków. Ta czy inna zasada

fundamentalna miała charakter czysto filozoficzny, nie dawała żadnego opisu ilościowego,

niczego nie przewidywała i niczego nie wykluczała. To jeszcze nie była fizyka. Pierwsza

koncepcja prawa fizyki, bardzo ograniczona, pochodzi od Archimedesa i, pomimo jego sławy,

pozostała niedoceniona aż po czasy najnowsze. Koncepcja prawa fizyki, teorii fizycznej i

fizykalnego obrazu świata, tak jak je dziś pojmujemy, zaczęła się kształtować u Galileusza i

Newtona.

Prawo fizyki to sformułowane w języku matematyki twierdzenie ogólne odnoszące się

do dość obszernej klasy zjawisk. Mówiąc ściślej, jest to twierdzenie matematyczne, w którym

pojęciom matematycznym przypisano empiryczny sens fizyczny. Dzięki temu opis danego

zjawiska jest ilościowy, a nie tylko jakościowy (np. prawo grawitacji Newtona, prawa

Coulomba i Ohma, prawa optyki geometrycznej), a pewne procesy są wykluczone (prawami

zachowania energii i ładunku elektrycznego, zasadą wzrostu entropii).

Żadne twierdzenie matematyczne nie jest izolowane, każde należy do pewnej teorii

(dziedziny) matematycznej – algebry, geometrii, analizy itp.; podobnie każde prawo fizyki jest

twierdzeniem pewnej teorii fizycznej (mechaniki, termodynamiki, optyki, mechaniki

kwantowej) i tylko w jej ramach jest prawdziwe. Teoria fizyczna ma logicznie hierarchiczną

strukturę teorii matematycznej. Punktem wyjścia są niedefiniowane pojęcia pierwotne (którym

muszą towarzyszyć określone procedury empiryczne pozwalające mierzyć te wielkości), np.

masa, pole elektryczne i magnetyczne, ładunek elektryczny. Pojęciom pierwotnym

przypisujemy właściwości zawarte w aksjomatach teorii: istnienie układów inercjalnych,

pierwsza i druga zasada dynamiki Newtona, stałość prędkości światła, aksjomaty mechaniki

kwantowej. Z aksjomatów dowodzimy twierdzeń o dalszych własnościach pojęć pierwotnych,

nie zawartych jawnie w aksjomatach. Dalej za pomocą pojęć pierwotnych definiujemy rozmaite

pojęcia wtórne (energia, moment pędu, moment magnetyczny) i dowodzimy twierdzeń o ich

własnościach. Ten proces wprowadzania nowych pojęć i dowodzenia twierdzeń o ich

własnościach można w zasadzie ciągnąć dowolnie długo. Prototypem tego procesu jest geo-

metria Euklidesa, tyle że w teorii fizycznej należy wykonać następny, kluczowy dla niej krok:

pojęciom matematycznym przyporządkować pojęcia fizyczne odnoszące się do konkretnych

obiektów materialnych. Ten ostatni krok jest działaniem czysto intuicyjnym, nie podlegającym

żadnym regułom matematycznym (wbrew niekiedy wypowiadanym poglądom nie jest to

odwzorowanie – tak jak się je rozumie w matematyce – zbioru pojęć matematycznych w zbiór

obiektów fizycznych), jest to swobodna gra wyobraźni fizyka, która albo prowadzi do

wartościowych wyników, albo zwodzi na manowce. Dla przykładu: najbardziej fundamentalną

cechą grawitacji jest jej uniwersalność – każde ciało doznaje działania sił ciężkości – zatem

wydaje się oczywiste, że podstawowym pojęciem teorii grawitacji winna być siła (rozumiana

jako wektor w fizycznej przestrzeni) i tak jest w teorii Newtona. Natomiast w ogólnej teorii

względności pojęciami kluczowymi są metryka czasoprzestrzeni i jej krzywizna, a siła ma

znaczenie drugorzędne, właściwie jest z teorii wyeliminowana. Siłą, którą najczęściej

odczuwamy, jest właśnie siła ciężkości, tymczasem wynikająca stąd doniosłość tego pojęcia

jest myląca. Czytelników zainteresowanych głębszym przedstawieniem tych zagadnień odsyłam

do dzieł Einsteina. Trzeba też dodać, że aksjomatyczna struktura teorii fizycznych jest na ogół

bardziej złożona i finezyjna, niż ją przedstawiłem powyżej; subtelności te nie będą nam dalej

potrzebne.

Gdyby teorię fizyczną przyrównać do żywego organizmu, to matematyka byłaby jego

strukturą – szkieletem, systemem nerwowym i układem krążenia. I tu nasuwa się pierwsza

wątpliwość. Gatunki są rozmaite, lecz nie ma wśród nich najważniejszego, fundamentalnego

czy elementarnego. Nie jesteśmy przecież konieczną konsekwencją bakterii czy

pierwotniaków. Oczywiście to tylko analogia, lecz w matematyce dostrzegamy podobną

sytuację. Matematyka nie jest luźną konfederacją działów matematyki. Poszczególne jej działy

przenikają się wzajemnie i są głęboko powiązane. Nawet pozornie odległe gałęzie splatają się

w najważniejszych punktach – doniosłe twierdzenia teorii liczb (np. wielkie twierdzenie

Fermata) wymagają do udowodnienia użycia głębokich wyników z topologii, teorii grup i teorii

funkcji analitycznych. Tym niemniej nie ma w matematyce działu (teorii) będącego odpo-

wiednikiem teorii fundamentalnej w fizyce. U samych podstaw matematyki leżą logika

matematyczna i teoria mnogości i w tym sensie są one tworzywem całej matematyki, jednak

geometria, algebra i analiza są wobec nich autonomiczne, tzn. nie wynikają z nich logicznie.

Wiadomo obecnie, że matematyki nie da się zredukować logicznie do jej podstaw. Nawet

zwolennicy platońskiego spojrzenia na matematykę, według którego obiekty matematyczne są

bytami obiektywnie istniejącymi, odkrywanymi, a nie wymyślanymi przez matematyków, nie

sądzą, by istnienie tych tworów było konieczną konsekwencją teorii mnogości i ewentualnie

topologii ogólnej.

Dlaczegóżby więc w fizyce miała istnieć teoria fundamentalna i ostateczna, z której

pozostałe miałyby wynikać? W dziewiętnastowiecznej fizyce niewiele wskazywało na jej

istnienie. Naturalnie najważniejszą, wzorcową, kształtującą światopogląd teorią była

mechanika. Obok niej istniało kilka teorii (akustyka, elektrodynamika, termodynamika), które

tylko częściowo pasowały do mechanistycznej wizji przyrody. Mechanika nie mogła być teorią

ostateczną, bowiem właściwie nie jest teorią zjawisk fizycznych, lecz ogólnym schematem

tworzenia teorii fizycznych. Ten schemat trzeba dopiero wypełnić konkretną treścią fizyczną:

wybrać klasę obiektów, które teoria ma opisywać i ustalić jakie są ich oddziaływania. W

ówczesnej fizyce było więc kilka teorii niezależnych choć związanych tkwiącymi w nich

elementami mechaniki. Skoro redukcjonizm działał w ograniczonym zakresie na gruncie fizyki,

tym bardziej niewiele mógł zdziałać na polu pozostałych nauk przyrodniczych. Chemia i

biologia wydawały się autonomiczne względem siebie oraz fizyki. Sytuacja zmieniła się dopiero

pod koniec naszego stulecia.

3.

Postęp w fizyce zawsze dokonywał się na drodze unifikacji: rozmaitych zjawisk w klasy

opisywane poszczególnymi modelami (teoriami) oraz łączenia modeli w jednolitą i bardziej

ogólną teorię. Newton obalił podział na świat sublunarny i translunarny i wprowadził ideę

uniwersalności opisu zjawisk niezależnie od tego, gdzie i kiedy zachodzą. W dziewiętnastym

wieku ogół zjawisk optycznych udało się dobrze opisać modelem zwanym falową teorią

światła. Pozornie odmienne zjawiska elektryczne i magnetyczne ujęto w jedną teorię –

elektromagnetyzm. Procesy cieplne opisano termodynamiką. Na początku naszego wieku

Einstein dokończył dzieło Maxwella i ostatecznie zunifikował za pomocą szczególnej teorii

względności zjawiska elektryczne, magnetyczne i optyczne w jednolitej teorii –

elektrodynamice klasycznej. W dziesięć lat później wprowadził idee relatywistyczne do opisu

zjawisk grawitacyjnych i stworzył relatywistyczną teorię grawitacji. Powstają kolejne wielkie

teorie fizyki. Mechanika kwantowa wyjaśnia budowę atomów i molekuł, a przez to budowę

ciał makroskopowych. Teoria ta uzupełniona elektrodynamiką opisuje oddziaływania

wszelkich ciał z promieniowaniem elektromagnetycznym, między innymi wyjaśnia, jak świeci

rozgrzane ciało o określonej temperaturze (prawo promieniowania Plancka). Początkowo

sprzężenie mechaniki kwantowej (rozumianej jako teoria nierelatywistyczna) z

elektrodynamiką było dość luźne. W latach czterdziestych zunifikowano teorię kwantów z

elektrodynamiką klasyczną, otrzymując teorię w pełni relatywistyczną, opisującą oddziaływania

elektronów i fotonów – elektrodynamikę kwantową.

W pierwszej połowie naszego wieku ogromnie rozszerzył się zakres zjawisk badanych

przez fizykę. Do końca dziewiętnastego wieku fizyka zajmowała się jedynie pewnymi własnoś-

ciami ciał makroskopowych i światła. W tym półwieczu fizycy zwrócili się w stronę obiektów

najmniejszych – molekuł, atomów i jąder atomowych oraz obiektów największych – gwiazd,

galaktyk i Wszechświata traktowanego jako całość. Tak olbrzymiemu wzrostowi dziedziny

fizyki nie towarzyszył znaczny wzrost liczby fundamentalnych (autonomicznych) teorii

fizycznych. Wkraczając na zupełnie nowe pola badań fizycy tworzyli teorie, które unifikowały

opis nowych zjawisk z istniejącymi już teoriami zjawisk "klasycznych". Około roku 1950

istniały dwie najbardziej fundamentalne i uniwersalne teorie fizyki: elektrodynamika kwantowa

i ogólna teoria względności.

W tym też czasie stało się jasne, że wszelkie oddziaływania w przyrodzie, jakich by

obiektów nie dotyczyły, dadzą się rozłożyć na cztery oddziaływania elementarne i w tym sensie

fundamentalne: elektromagnetyczne, grawitacyjne, silne (jądrowe) oraz słabe. Pierwsze dwa

opisane były dwiema teoriami fundamentalnymi, dla pozostałych dwu teorii nie było. Powstał

problem: czy należy zbudować dwie nowe teorie, niezależne od siebie i od tamtych, czy też

próbować jakiejś unifikacji? Innymi słowy, czy te cztery oddziaływania są rzeczywiście

niezależne od siebie i odpowiadają im cztery teorie fundamentalne, czy też niektóre z tych

oddziaływań lub nawet wszystkie są w rzeczywistości odmiennymi przejawami jednego,

bardziej fundamentalnego oddziaływania, tak jak siły elektrostatyczne ładunków oraz siły

magnetyczne magnesów i prądów są różnymi przejawami oddziaływania elektromagne-

tycznego? Unifikacja elektryczności i magnetyzmu w elektromagnetyzm (elektrodynamikę)

była i jest wzorcem procedury unifikującej. Możliwych odpowiedzi jest wiele: można na sześć

sposobów wybrać parę oddziaływań, które chcemy zunifikować oraz na cztery sposoby trzy

oddziaływania do połączenia. Jest to podstawowy problem fizyki cząstek elementarnych w

drugiej połowie dwudziestego wieku; problem, wokół którego będzie się kręcić fizyka jeszcze

długo w nadchodzącym tysiącleciu.

Sama idea unifikacji pojawiła się wcześniej; jeżeli pominąć licznych jak zwykle

prekursorów, to jako twórców wymienić należy fizyka fińskiego Gunnara Nordströma (1914)

oraz matematyków niemieckich, Hermanna Weyla (1918) i Theodora Kaluzę (1919).

Zdecydowanie największy rozgłos zdobyły jednak w tej dziedzinie wysiłki Einsteina.

Poczynając od wczesnych lat dwudziestych aż do śmierci w 1955 roku, niezmordowanie,

niemal co roku publikował kolejną wersję tzw. jednolitej teorii pola, by ją wkrótce odrzucić i

przystąpić do konstruowania następnej. Ogromna sława i popularność Einsteina sprawiły, że o

jego pomysłach informowała wielokrotnie prasa i idea unifikacji fizyki za pomocą jednej teorii

ostatecznej dotarła do szerszej publiczności, która momentami kibicowała mu niemal jak

sportowcowi usiłującemu samotnie dokonać niezwykłego wyczynu. Ogół fizyków odnosił się

do tej idei raczej sceptycznie. Ciekawość fizyków pochłaniała bez reszty fizyka atomowa i

jądrowa. Einstein natomiast, podobnie jak jego trzej poprzednicy oraz nieliczni inni fizycy

poszukujący jednolitej teorii pola (Arthur Eddington, Erwin Schrödinger), uznawał tylko jedną

możliwość: unifikację sił grawitacyjnych z elektromagnetycznymi. Początkowo innych

możliwości po prostu nie było, o siłach jądrowych i słabych wiedziano zbyt mało, by kusić się

o ich opis teoretyczny. Einstein zakładał, że oba oddziaływania są przejawem jednej siły

opisanej klasycznym, czyli niekwantowym polem, dla którego szukał teorii będącej

uogólnieniem ogólnej teorii względności. Odrzucenie mechaniki kwantowej ze schematu

szukanej teorii nie wynikało wcale z jego negatywnego do niej nastawienia. Wbrew

powszechnemu poglądowi, Einstein nie był wcale przeciwnikiem teorii kwantów – twierdził

jedynie, że jest to teoria niekompletna i mylnie zinterpretowana. Ogromne triumfy mechaniki

kwantowej w świecie atomowym spowodowały, że zastrzeżenia Einsteina uznano za

niezdolność konserwatysty do zrozumienia i uznania rewolucyjnej przemiany, jaką niosła. Sam

Einstein twierdził, że na właściwe zrozumienie mechaniki kwantowej poświęcił dużo więcej

czasu niż na zbudowanie teorii względności (pamiętajmy, że nad teorią grawitacji pracował z

wielkim natężeniem osiem lat!). Skoro mechanika kwantowa jest – jego zdaniem –

niekompletna, to nie może być elementem teorii prawdziwie fundamentalnej. Z tymi poglądami

płynął pod prąd rozwoju fizyki. W ostatnich latach życia Einsteina stosunek większości

fizyków do niego był czystą hipokryzją: publicznie składano hołdy jego geniuszowi, zaś

prywatnie nazywano go naukowym dinozaurem.

Od tego czasu sporo się zmieniło. Dostrzeżono, że w zarzutach Einsteina wobec

interpretacji kopenhaskiej mechaniki kwantowej tkwi racjonalne jądro. Inaczej dziś patrzymy

na największy spór naukowy stulecia – polemikę Einsteina z Bohrem. Rozpowszechnia się

(chociaż daleko mu do powszechności) pogląd, że mechanika kwantowa, mimo doskonałości

jej działania w świecie atomowym i nie tylko, jest w pewnym sensie niekompletna i wymaga

jakiejś modyfikacji – nie wiemy jakiej. Przewartościowania te nie ratują jednak w żadnym

stopniu Einsteinowskiej jednolitej teorii pola. Wszystkie jej wersje są bezwartościowe i nic nie

wskazuje, by znaczący fragment którejś z nich przydał się gdzieś indziej w fizyce. Trzydzieści

lat pracy genialnego umysłu poszło na marne. Powodów jest parę. Po pierwsze, powszechnie

uważa się, iż niezależnie od tego, jak niekompletne czy nawet błędne jest nasze rozumienie

mechaniki kwantowej, to świat obiektywnie jest kwantowy i takie też muszą być teorie

oddziaływań fundamentalnych. To, co uważamy za klasyczne pole sił, jest tylko uśrednieniem

wielu elementarnych oddziaływań kwantowych – np. dwa elektrony oddziałują wymieniając

między sobą elektromagnetyczne kwanty – fotony – a nie wytwarzając klasyczne pole sił. Po

drugie, wcale nie jest jasne, czy można zunifikować dowolne dwa oddziaływania elementarne

pomijając pozostałe. Obecnie uważa się, że tak robić nie można, w szczególności łączenie

elektromagnetyzmu z grawitacją jest błędem. Od końca lat trzydziestych wielokrotnie

zwracano uwagę Einsteinowi, że coraz liczniej odkrywane cząstki elementarne pozostają poza

jego programem unifikacji, że jednolita teoria pola nie będzie miała nic do powiedzenia o

budowie jądra atomowego, które najbardziej fizyków interesowało. Einstein odpowiadał, że

nie ma ambicji stworzenia "teorii wszystkiego", że jego cel jest skromniejszy. Tu tkwił błąd,

unifikacji nie da się dokonać małymi krokami. Po trzecie, paradoksalnie, Einstein nie docenił

oryginalności swojej teorii grawitacji, zwiodły go jej liczne podobieństwa do teorii Maxwella.

Dziś rozumiemy ogólną teorię względności głębiej niż jej twórca, ponadto zastępujemy teorię

Maxwella elektrodynamiką kwantową i jasno widzimy konceptualną odmienność obu teorii.

Einstein poniósł klęske, gdyż jego próby były przedwczesne.

W latach sześćdziesiątych sytuacja była dość złożona. Z jednej strony mechanika

kwantowa czyniła stałe postępy na polu tradycyjnie zajętym przez chemię (powstała chemia

kwantowa). Teoria kwantów wyjaśniła wszystkie własności chemiczne atomów i prostych

molekuł. Dla bardziej złożonych molekuł organicznych trudności obliczeniowe związane z

rozwiązywaniem równania Schrödingera rosły tak bardzo, że fizyka była bezradna i

pozostawały tylko metody chemii. Już wówczas było jednak jasne, że są to trudności czysto

rachunkowe a nie konceptualne – wielkie molekuły, takie jak DNA, różnią się od wody,

benzenu czy naftalenu jedynie ilościowo stopniem złożoności i nie ma różnic jakościowych

niedostępnych mechanice kwantowej. Udoskonalenie metod obliczeń przybliżonych, a przede

wszystkim szybki wzrost mocy obliczeniowej komputerów sprawia, że z roku na rok

wyprowadzamy z zasad pierwszych, czyli z mechaniki kwantowej, własności chemiczne coraz

bardziej skomplikowanych związków. Uzbrojeni w dostatecznie duży i szybki komputer i dużą

dozę cierpliwości, będziemy mogli wyprowadzić bez reszty właściwości dowolnie wielkich

molekuł. W tym sensie chemia jako nauka traci autonomiczność i własności chemiczne ciał

dają się wyprowadzić z własności fizycznych. Nie oznacza to wcale likwidacji chemii jako

takiej – wręcz przeciwnie, chemia bardzo się rozwinęła dzięki inwazji metod fizycznych. Co

więcej, i ten aspekt sprawy jest najbardziej tu istotny, ta redukcja chemii do fizyki ma

znaczenie konceptualne, natomiast w większości przypadków jest zupełnie niepraktyczna.

Gdybyśmy odrzucili aparat pojęciowy chemii (np. klasyfikację związków – kwasy, zasady, sole

itp.), a na ich miejsce wprowadzili te własności, które prosto i bezpośrednio da się wydeduko-

wać metodami mechaniki kwantowej, to stracilibyśmy większość pożytecznej informacji przez

nią niesionej. Nikt czegoś takiego robić nie chce. Fizyka wzbogaca chemię, która pozostaje

nieuszczuplona w swoich metodach i aparacie pojęciowym; fizyka wyjaśnia te własności

chemiczne, które na gruncie chemii są niemożliwe do uzasadnienia. Weźmy dla przykładu

benzen. Jest znacznie prościej, szybciej i wygodniej badać własności benzenu i jego pochod-

nych metodami chemicznymi niż odtwarzając je za pomocą mechaniki kwantowej. Chemia

ustala eksperymentalnie, że molekuła benzenu tworzy pierścień w kształcie sześciokąta, ale

wyjaśnienie dlaczego jest to pierścień, wykracza poza jej możliwości. Ten kształt molekuły jak

również istnienie i własności izomerów benzenu wynika z podlegających mechanice kwantowej

oddziaływań elektromagnetycznych elektronów walencyjnych atomów molekuły.

Z jednej więc strony redukcjonizm święcił triumfy wyjaśniając własności chemiczne za

pomocą fizyki. Odnosił też sukcesy na gruncie biologii: biochemia i biologia molekularna

ustaliły, że wiele zasadniczych cech organizmów tak złożonych jak ludzki, daje się wyjaśnić na

poziomie molekularnym (chemicznym). Przykładem choćby odkrycie kodu genetycznego,

wspólnego wszystkim organizmom żywym. Chemia odsłoniła tu jedną z "tajemnic życia". Z

drugiej strony redukcjonizm natknął się na przeszkodę w fizyce cząstek elementarnych.

Trzydzieści lat temu oddziaływania silne i słabe opisywano za pomocą dość prymitywnych

modeli fenomenologicznych; ogół fizyków zajmujących się cząstkami elementarnymi uważał,

że ulepszanie tych modeli jest szczytem ludzkich możliwości. Sceptycznie odnoszono się do

idei opisania każdego z tych oddziaływań za pomocą teorii tak uniwersalnej, eleganckiej i

spójnej jak elektrodynamika kwantowa czy ogólna teoria względności. A już pomysł

zunifikowania ich w jedno oddziaływanie prawdziwie fundamentalne uważano za bzdurną

mrzonkę. Einsteinowska idea unifikacji osiągnęła najniższe notowania.

Zmiana trendu przyszła niespodziewanie. W latach 1967-1968 Amerykanin Steven

Weinberg i Pakistańczyk Abdus Salam zaproponowali niezależnie, by zunifikować

oddziaływania elektromagnetyczne ze słabymi. Na pozór dalekosiężne siły elektromagnetyczne

są całkiem odmienne od krótkozasięgowych (działających do odległości nie większych niż

promień protonu) sił słabych, jednak obaj fizycy dostrzegli głęboko ukryte ich podobieństwa.

Istnieje zatem jedno fundamentalne oddziaływanie elektrosłabe, które w pewnych warunkach

przenoszone jest przez fotony i wtedy przejawia się jako elektromagnetyzm; w innych

okolicznościach nośnikami oddziaływania są ciężkie cząstki: bozony W i Z, wówczas

obserwujemy siły słabe, odpowiedzialne za rozpady większości cząstek elementarnych. Teoria

tego oddziaływania opiera się na koncepcji tzw. pól cechowania. Teoria sił elektrosłabych nosi

fachową nazwę "modelu Weinberga-Salama"; termin "model", oznaczający konstrukcję

teoretyczną niższej rangi niż teoria jest na miejscu, bowiem teoria ta jest niekompletna: zawiera

szereg dowolnych parametrów, których wartości trzeba ustalać eksperymentalnie. Początkowo

model Weinberga-Salama nie wzbudził większego zainteresowania: wielu fizyków nie

wierzyło, by taka unifikacja była poprawna; inni zwrócili uwagę, że teoria ta będzie mieć

wartość praktyczną, czyli będzie dawać ilościowy opis reakcji pomiędzy cząstkami

elementarnymi jeżeli jest teorią "renormalizowalną", w co wątpiono. Własność tę wykazali

Holendrzy G. t Hooft i M. Veltman parę lat później.

Piszący te słowa usłyszał po raz pierwszy o tej teorii w maju 1972. Na którymś z

zebrań zespołu fizyki teoretycznej Uniwersytetu Jagiellońskiego, przy końcu, jeden z najmłod-

szych adiunktów oznajmił: „Wiecie co? Słyszałem mrożącą krew w żyłach wiadomość.

Podobno zrenormalizowano oddziaływania słabe!” – „Niesamowite!” – skomentował jeden z

docentów i wszyscy rozeszli się do swoich zajęć. W ciągu następnych dwu lat "mrożąca krew

w żyłach wiadomość" odmieniła oblicze fizyki cząstek elementarnych. Przekonano się, że

oszałamiające bogactwo typów cząstek i ich reakcji da się opisać solidną teorią z gatunku

kwantowych teorii pola; zarzucono tworzenie fenomenologicznych modeli oddziaływań

silnych, opisujących faktycznie wąskie klasy reakcji miedzy hadronami. Koncepcja pól

cechowania, na której opiera się teoria sił elektrosłabych, jest dość ogólna i giętka, toteż

naturalny był pomysł, by zastosować ją do ostatniego z oddziaływań elementarnych, nie

opisanego dotąd teorią pola (kwantową lub klasyczną) – do sił jądrowych. W połowie lat

siedemdziesiątych powstaje dla nich taka teoria – chromodynamika kwantowa. Potwierdzenie

eksperymentalne jest tak jednoznaczne, ze powszechny staje się termin "model standardowy"

na oznaczenie sumy prostej modelu Weinberga-Salama i chromodynamiki kwantowej. Odżywa

niegdyś wyśmiana i odrzucona idea unifikacji oddziaływań elementarnych. Stara idea Einsteina

wraca do łask, jest traktowana jako wiodący kierunek badań. Cztery oddziaływania, trzy

teorie. Trzeba unifikować dalej, ale zupełnie inaczej, niż to czynił Einstein. Przede wszystkim

unifikacja na bazie teorii kwantów. To wyklucza grawitację, bo dla niej mamy teorię czysto

klasyczną. Ogólna teoria względności jest zadziwiająco odporna na próby kwantowania, czyli

przekształcenia jej w teorię zgodną z mechaniką kwantową (na podobieństwo

przetransformowania elektrodynamiki klasycznej w kwantową). Pod koniec lat

siedemdziesiątych powstaje teoria, której na wyrost dano dumne imię Wielkiej Unifikacji.

Ponownie na bazie koncepcji pól cechowania skonstruowano teorię pewnego oddziaływania,

która w jednych okolicznościach redukuje się do modelu Weinberga-Salama, a w innych – do

chromodynamiki kwantowej. Połączono w jedno oddziaływania elektrosłabe i silne, poza

unifikacją pozostała tylko grawitacja.

Wielka Unifikacja może być sformułowana w różnych wersjach; wersja najprostsza

wydaje się najbardziej fizyczna. Trzeba podkreślić, że dążenie do unifikacji nie wynika wcale z

przesadnego zamiłowania fizyków do porządku polegającego na zmniejszaniu liczby teorii. To

przyroda stanowi jedność i proces unifikacji teorii cząstkowych ma to odzwierciedlać. Teoria

unifikująca nigdy nie jest sklejeniem dwu teorii – ona jest czymś dużo więcej, jest znacznie od

nich bogatsza, tzn. opisuje całe klasy zjawisk, które tamtym teoriom nie podlegały. Np.

elektrodynamika jest istotnie szersza od elektrostatyki i magnetostatyki, teorii prądów stałych i

optyki – obejmuje promieniowanie elektromagnetyczne o wszystkich długościach fal. Zarówno

teoria sił elektrosłabych jak i elektrodynamika kwantowa utrzymują, że proton jest cząstką

trwałą. Najprostsza wersja Wielkiej Unifikacji wprowadza nowe reakcje, w wyniku których

proton może się rozpaść. Nie jest to praktycznie groźne: czas życia protonu winien być dużo

większy od wieku Wszechświata, nie musimy się więc obawiać, że się rozsypiemy na elektrony

(pozytony) i fotony. Wynik trwających od kilkunastu lat eksperymentów nie budzi wątpliwości

– proton nie rozpada się (czyli jego czas życia jest dużo większy od przewidywanego przez

teorię). Wielka Unifikacja, a przynajmniej jej najprostsza wersja, akceptowana przez fizyków,

jest fałszywa. Po raz trzeci sukcesu na tej samej drodze odnieść się nie udało.

To, że doświadczenie odrzuca Wielką Unifikację, stało się jasne już w roku 1980. Czy

to znaczy, że trzy oddziaływania elementarne są niezależne? Nie, w tym czasie fizycy, niczym

Einstein pół wieku wcześniej, już mocno wierzyli w słuszność idei unifikacji. Trzeba radykalnie

zmienić sposób konstruowania teorii unifikującej. W ciągu następnych 15 lat przebadano dwie

koncepcje. Przedstawiam je w maksymalnym skrócie, tyle ile jest potrzebne do głównego

tematu. Pierwsza z nich to teoria Kaluzy-Kleina. Jest to idea raczej niż teoria sensu stricto.

Idea dość stara, bo pochodzi od wspomnianego wcześniej Theodora Kaluzy z 1919 roku. Jest

to pomysł unifikacji za pomocą wyższych wymiarów czasoprzestrzeni. Pełna unifikacja elek-

tryczności z magnetyzmem w elektromagnetyzm nastąpiła dopiero na gruncie szczególnej

teorii względności, bowiem pole elektromagnetyczne jest obiektem istniejącym w

czterowymiarowej czasoprzestrzeni, natomiast w trójwymiarowej przestrzeni istnieją dwa pola:

elektryczne i magnetyczne. Unifikacja zachodzi dzięki dodaniu czwartego wymiaru – czasu.

Kaluza (przed nim jeszcze Nordström) wpadł na pomysł, by wprowadzając dodatkowy

(czwarty) wymiar przestrzeni zunifikować grawitację z elektromagnetyzmem. Mówiąc

obrazowo i nieściśle, tak jak wynurzająca się z wody dłoń ukazuje pięć pozornie oddzielnych

palców, tak grawitacja Einsteinowska istniejąca w pięciowymiarowej czasoprzestrzeni rozpada

się, przy przejściu z niej do zwykłej czterowymiarowej czasoprzestrzeni, na grawitację i

elektromagnetyzm. Oddziaływaniem fundamentalnym jest więc grawitacja w pięciu wymiarach.

Czym jest ten dodatkowy wymiar, dlaczego go nie widzimy, dlaczego ogół doświadczeń mówi

nam, że żyjemy w świecie czterowymiarowym? Fizycy (pierwszym był Oscar Klein) znaleźli

pomysłową odpowiedź, ale omawianie jej nie jest tu potrzebne.

Teoria Kaluzy-Kleina przeżywała wzloty i upadki. Początkowo Einstein odniósł się do

niej niechętnie i nawet opóźnił publikację pracy Kaluzy o dwa lata, potem przekonał się do niej

i zajmował nią przez szereg lat. Była jednym z paru głównych kierunków poszukiwań jego

jednolitej teorii pola. Zmieniał o niej zdanie – parokrotnie kolejno przekonywał się do niej i

zniechęcał. W latach czterdziestych, gdy elektrodynamika kwantowa święciła triumfy w

świecie cząstek elementarnych, a fizycy słyszeć nie chcieli o jednolitej teorii pola, Einstein

ostatecznie zarzucił ideę Kaluzy i Kleina. Dowiedziałem się o jej istnieniu we wczesnych latach

siedemdziesiątych jako o idei całkowicie chybionej. Tymczasem jej renesans miał niebawem

nastąpić. Około roku 1980 nieliczni fizycy zajmujący się nią dokonali ważnych modyfikacji

pierwotnej koncepcji Kaluzy i Kleina i pokazali, ze można w nią wmontować koncepcję pól

cechowania – oczywiście zupełnie inaczej niż w teorii, która właśnie poniosła klęskę w

doświadczeniu, czyli w Wielkiej Unifikacji. Udowodniono, że Einsteinowska grawitacja w

specyficznej czasoprzestrzeni o jedenastu wymiarach rozpada się, gdy zejdziemy do zwykłych

czterech wymiarów, na ogólną teorię względności i model standardowy. Pełna unifikacja!

Wzrost zainteresowania teorią Kaluzy-Kleina był skokowy i spektakularny. Wieść o niej

dotarła nie tyle "pod strzechy", co w miejsce równie egzotyczne – na biurka literatów. W

udzielonym w 1984 r. wywiadzie-rzece Pół wieku czyśćca Tadeusz Konwicki powiada:

„ostatnio fizycy amerykańscy udowodnili, ze żyjemy w jedenastu wymiarach”. Entuzjazm był

niestety przedwczesny. Teoria Kaluzy-Kleina szybko napotkała nieprzezwyciężone trudności.

W 1984 r. było już jasne, że ugrzęzła beznadziejnie. We wrześniu tego roku ukazała się krótka

praca, która sprawiła, że ogół badaczy przerzucił się na radykalnie nową ideę – koncepcję

superstrun, zwaną w skrócie teorią strun. O ile teoria Kaluzy-Kleina, podobnie jak model

Weinberga-Salama i chromodynamika kwantowa, jest teorią pola (oddziaływania rozchodzą się

w przestrzeni w postaci pola, którego kwantami są cząstki punktowe: fotony, bozony W i Z,

gluony czy hipotetyczne grawitony), tyle że w przestrzeni wielowymiarowej, to według teorii

strun obiektami elementarnymi są maleńkie struny – obiekty jednowymiarowe, a więc

nieskończenie cienkie, mające tylko długość. Cząstki jako kwanty rozmaitych pól są

bezwymiarowe; struny są tworami rozciągłymi w jednym wymiarze.

Teoria superstrun pokonała lub ominęła większość problemów, na których wywróciła

się teoria Kaluzy-Kleina, toteż w latach 1985-1986 optymizm fizyków osiągnął szczyt. Ze swej

istoty teoria strun ma unifikować wszystkie oddziaływania elementarne. Skoro najbardziej

adekwatna nazwa, "wielka unifikacja", była już zajęta, pozostało użyć nazwy bardziej

górnolotnej, "teoria wszystkiego" (theory of everything, TOE). Termin wprowadzony dość

ironicznie przez Stanisława Lema w Summa technologiae na początku lat sześćdziesiątych i

potem używany sporadycznie w literaturze science-fiction, teraz pojawił się całkiem serio w

fizyce. Koniec fizyki? Pytanie stawiano na konferencjach i w poważnych wypowiedziach.

Stephen Hawking pisał (Krótka historia czasu), że bliscy jesteśmy poznania myśli Pana Boga.

Podekscytowanie rosło. I znów, jak kilka lat wcześniej, przekonanie, ze fizyka dociera do

istoty bytu, że styka się z teologią, okazało się przedwczesne. Pan Bóg chyba nie myśli o

świecie w terminach superstrun. Struny są tworami bezpośrednio nieobserwowalnymi. Droga

od nich do obserwowanych w przyrodzie cząstek elementarnych jest długa i niejednoznaczna.

Teoria strun implikuje istnienie miliardów światów radykalnie odmiennych od naszego. Nasz

świat, zbudowany z elektronów, kwarków i fotonów o takich własnościach, jakie znamy z

doświadczenia, jest tylko jedną z bardzo wielu możliwości dopuszczonych przez teorię strun;

inne światy skonstruowane są z zupełnie innych cząstek. Dlaczego zrealizowana została ta

właśnie jedna możliwość, a nie miliardy innych? Z upływem czasu trudności piętrzyły się i

entuzjazm wobec strun wygasł.

Obecnie (rok 1995) epilogu napisać jeszcze nie można. Przekonanie, że teoria strun jest

"teorią wszystkiego", teorią ostateczną unifikującą cząstki i ich oddziaływania, niemal zanikło.

Część badaczy zajęła się czym innym, jednak w odróżnieniu od teorii Kaluzy-Kleina idea ta nie

została odrzucona. Wygenerowała ona nowe pola badań i problemy, które przyciągają uwagę

wielu fizyków, chociaż ich nadzieje są skromniejsze niż przed dziesięciu laty.

4.

Poświęciłem tyle miejsca historii najnowszej, by wyjaśnić co właściwie fizycy mają na

myśli mówiąc o teorii ostatecznej, "teorii wszystkiego". Nie ma to być teoria wszystkiego rozu-

mianego dosłownie, lecz wszystkiego co elementarne. W nazwie mówi się o unifikacji

wszystkich oddziaływań elementarnych, lecz trzeba podkreślić, że ma to być teoria unifikująca

w równej mierze cząstki i ich siły. Ma ona znieść przeciwstawienie obiektów fizycznych

(cząstek) i działających między nimi sił. Nie jest tak, że najpierw mamy cząstkę elementarną

(np. elektron), a potem przypisujemy jej (nakładamy na nią) możność oddziaływania

określonymi siłami (grawitacyjnymi i elektrosłabymi). Cząstki i ich siły stanowią jedność:

natura cząstki i natura jej sił wynikają z jednego uniwersalnego źródła. Teoria ostateczna to

teoria tego źródła, teoria opisująca, jak to jednolite źródło (którym może być jakieś unifikujące

pole, specyficzna superstruna lub coś innego) przejawia się w przyrodzie w mnogości form:

jako elektrony, neutrina, fotony, kwarki, gluony, grawitony itd. Nie dopuszcza ona

dowolności: określa dokładnie, jakie cząstki istnieją i jakie są ich oddziaływania. Podkreślam,

że dotychczas istniejące teorie są w tym względzie swobodne – nie wykluczają istnienia innych

cząstek i innych sił niż te znane. Teorię unifikującą cząstki i ich siły nazywamy teorią unifikacji

oddziaływań za względu na fundamentalna rolę oddziaływań – obiekt, który nie oddziałuje w

żaden sposób z otoczeniem jest niedostępny poznaniu.

Dla fizyka zatem teoria ostateczna ma być teorią dającą pełny, wyczerpujący i jednolity

opis wszystkich obiektów i zjawisk świata cząstek elementarnych, teorią mówiącą dokładnie,

co jest możliwe (cząstki nie zawarte enumeratywnie nie mogą istnieć). Winna mieć minimalną

liczbę aksjomatów (tzn. niezależność postulatów nie powinna budzić wątpliwości, jak to było

w przypadku piątego postulatu Euklidesa w geometrii) i nie zawierać żadnych dowolnych

stałych, których wartość liczbową trzeba ustalać doświadczalnie (np. teoria winna wyjaśnić,

dlaczego masa elektronu ma taką a nie inną wartość i dlaczego proton jest 1836 razy cięższy).

Dokładny sens tego ostatniego postulatu wywołuje kontrowersje. Bez wątpienia zbudowanie

takiej teorii jest zadaniem nader ambitnym. Nasuwają się dwa, ściśle związane problemy: czy w

świetle klęski idei Kaluzy-Kleina i trudności teorii strun teoria taka w ogóle jest możliwa (tzn.

czy odpowiada ona rzeczywistości) oraz czy zasadne jest traktowanie jej jako teorii finalnej?

Przecież fizyka cząstek elementarnych jest tylko jednym z działów fizyki, nie jej całością. Jak ta

hipotetyczna teoria będzie się mieć do fizyki ciała stałego, hydrodynamiki, chemii, biologii,

psychologii? Albo ta teoria ma doniosłe znaczenie tylko dla fizyki cząstek i wówczas cały szum

wokół niej jest bezzasadny, albo rości sobie pretensje do odgrywania wyróżnionej roli wobec

całego przyrodoznawstwa i wówczas napotka znane zarzuty stawiane każdej kandydatce na

"teorię wszystkiego", jakkolwiek by to "wszystko" rozumieć. Spór rozgorzał na nowo w latach

osiemdziesiątych w związku z planami budowy amerykańskiego superakceleratora; dla

biologów była to kwestia autonomiczności ich nauki wobec fizyki, dla fizyków ciała stałego był

to przede wszystkim spór o (duże) pieniądze: jeżeli postęp w zakresie fizyki cząstek elemen-

tarnych nie wnosi nic istotnie nowego konceptualnie i praktycznie do innych działów fizyki, to

czy zasadne jest wkładanie tak dużych funduszów w ten akurat dział zamiast podzielić je

między wszystkie dziedziny fizyki?

To, czy wszystkie cząstki i ich siły są przejawem jednego obiektu fizycznego, zostanie

dowiedzione dopiero wtedy, gdy powstanie odpowiednia teoria unifikująca i eksperyment ją

potwierdzi. (Nie chcę tu wchodzić w intensywnie badany w filozofii nauki problem, czy teorie

są doświadczalnie potwierdzane czy tylko falsyfikowane; fizycy intuicyjnie wiedzą, o co

chodzi, i na ogół są zgodni co do prawdziwości danej teorii.) Nie ma mowy o jakimś dowodzie

niekonstruktywnym, poprzedzającym sformułowanie tej teorii. W tym sensie nie wiemy

jeszcze, czy przyroda jest jednolita na poziomie najbardziej elementarnym, możemy jedynie

podawać argumenty na rzecz tej tezy. Świadczy za nią cały rozwój fizyki od Newtona po dzień

dzisiejszy. Trend unifikacyjny, wskazujący na jedność przyrody, jest bardzo wyraźny. Nie

przeczy mu niepowodzenie programów Kaluzy-Kleina i superstrun. Cała historia fizyki usiana

jest trupami nieudanych teorii. Teorie udane wskazują nam, że przyroda jest jednolita, że

rządzących nią reguł nie można podzielić na niezależne od siebie grupy.

Zakładając, że trend rozwojowy jest poprawny aż do ostatecznych konsekwencji i że

będziemy w stanie skonstruować teorię ostateczną (tu często wyrażane są wątpliwości: czy

umysł ludzki podoła temu zadaniu?), odzwierciedlającą jedność przyrody na poziomie

elementarnym, to jej doniosłość dla całości przyrodoznawstwa wyrażamy stwierdzeniem o

jedności przyrody na wszystkich poziomach jej organizacji, nie tylko w świecie cząstek

elementarnych. Złożoność przyrody przejawia się istnieniem różnych poziomów organizacji jej

elementów, poczynając od jąder atomowych poprzez atomy, molekuły, ciała makroskopowe,

organizmy żywe, aż po świadomy umysł. Różne poziomy opisujemy różnymi prawami i

teoriami; zmianę opisu przy przejściu z poziomu niższego na wyższy charakteryzujemy jako

„emergencję”. Emergencja nowych pojęć nie oznacza niezależności poziomów, bowiem

jedność przyrody przejawia się w formie redukcjonizmu.

5.

Redukcjonizm. Pojęcie pejoratywne w języku potocznym i filozofii. Nikt nie ma ochoty

być zredukowanym; naukowiec nie chce, by jego dziedzina wiedzy redukowała się do innej.

Większość myślicieli jest przeciwko redukcjonizmowi. Jego zwolennikami są głównie fizycy i

to nie wszyscy. W 1974 r. Weinberg napisał: "Jednym z celów, do których człowiek wytrwale

zmierza, jest znalezienie paru prostych ogólnych praw, które wyjaśniłyby, dlaczego przyroda z

całą jej złożonością i bogactwem form jest taka, jaka jest. W chwili obecnej najbardziej

zbliżamy się do tego celu, gdy stosujemy jednolity opis przyrody za pomocą cząstek

elementarnych i ich oddziaływań.". Wybitny biolog, Ernst Mayr, uznał to za "przerażający

przykład myślenia fizyków". Również wybitny uczony zajmujący się fizyką ciała stałego, Philip

Anderson, nie zgadza się z wyróżnioną w tym sensie rolą fizyki cząstek elementarnych i

podkreślając doniosłość emergencji nowych zjawisk w ciałach złożonych z wielkiej liczby

atomów, stwierdza: "więcej, to coś innego".

Redukcjonizm ma wiele różnych znaczeń, przy czym większość z nich nie jest

porządnie zdefiniowana. Pomimo emocji, jakie wzbudza, jego zwolennicy nie dbają najczęściej

o precyzyjne sformułowanie swoich myśli. W rezultacie najgorętszy spór dotyczy słów, a

najostrzejsze polemiki są kierowane przeciw poglądom nie wypowiedzianym, lecz przypisanym

adwersarzowi. Jest to kłótnia o aforyzmy, które nawet w przypadku przypisywanego fizykom

twierdzenia, że "biologia to nic więcej niż fizyka i chemia" są niejednoznaczne.

Polemizując z Weinbergiem, Mayr usiłował sklasyfikować rodzaje redukcjonizmu. Jego

klasyfikacja jest niekompletna – nie obejmuje rodzaju najważniejszego z punktu widzenia

fizyki. Lepiej ją pominąć, zwięzłe omówienie historycznych typów redukcjonizmu to temat na

obszerny artykuł. Tutaj zajmę się tym, co Weinberg nazywa "redukcjonizmem obiektywnym".

Nie jest to program badawczy, sposób patrzenia na przyrodę. Jak głosi znana myśl,

którą kiedyś widziałem wypisaną na murze, "każdy widzi co chce". Zgodnie z nią "totalitarnie"

myślący fizycy usiłują wmówić redukcjonistyczny porządek w rzeczywistość. Tak nie jest.

Redukcjonizm obiektywny nie jest aprioryczną koncepcją, za pomocą której pragniemy

uporządkować obraz przyrody. Wręcz przeciwnie, jest on konsekwencją naszej nabytej wiedzy

o przyrodzie, konsekwencją, którą musimy przyjąć, mimo że się wielu badaczom nie podoba,

bowiem wyraża ona jedną z fundamentalnych cech przyrody.

Znane prawa przyrody odnoszą się do różnych poziomów organizacji materii oraz do

rozmaitych klas zjawisk. Zebrane razem nie tworzą chaotycznego zbiorowiska praw, lecz

logicznie uporządkowaną hierarchiczną strukturę. Prawa mniej fundamentalne, czyli bardziej

szczegółowe, wynikają z praw bardziej fundamentalnych i uniwersalnych. Światło lampy, przy

której piszę, rzuca cień, bowiem zgodnie z prawami optyki geometrycznej promienie świetlne

rozchodzą się po liniach prostych. Optyka geometryczna jest tylko krótkofalowym

przybliżeniem, wynikającym z ogólniejszej teorii – optyki falowej (falowa teoria światła). Ta

ostatnia nie jest teorią autonomiczną, gdyż światło jest falą elektromagnetyczną, podległą

prawom elektrodynamiki klasycznej. Klasyczna fala elektromagnetyczna jest uśrednionym

opisem roju fotonów, które podlegają elektrodynamice kwantowej. Jej prawa wynikają z teorii

bardziej uniwersalnej – modelu Weinberga-Salama. W następnym (ostatnim?) kroku wynikania

dochodzimy do unifikującej teorii ostatecznej. Poruszając się w kierunku przeciwnym do

kierunku wynikania logicznego redukujemy, w kolejnych krokach, optykę geometryczną do

teorii sił elektrosłabych. Podkreślam: redukujemy – nie absorbujemy. Redukcja oznacza tu fakt

wynikania logicznego z teorii ogólniejszej, nic więcej. (Przez wynikanie logiczne rozumiem tu

nie tylko działania w sensie logiki formalnej lecz też wszelkie operacje matematyczne, które

trzeba w tym celu wykonać.) Nie oznacza ona, że odtąd mamy zjawiska świetlne opisywać za

pomocą teorii sił elektrosłabych – byłoby to skrajnie niepraktyczne. Optyk projektujący

skomplikowany obiektyw aparatu fotograficznego posługuje się optyką falową, a do

większości problemów życia codziennego wystarcza optyka geometryczna. Dopiero do opisu

silnych spójnych wiązek światła laserowego potrzebna jest optyka kwantowa. W tym samym

sensie prawa chemii redukują się do praw mechaniki kwantowej atomów i molekuł, natomiast

sama chemia, jak mówiłem, uzbrojona w metody chemii kwantowej, wspaniale się rozwija.

Podobnie podstawy biologii – biologia molekularna, biochemia i biofizyka redukują się do

fizyki i chemii. Redukcja ta – nigdy dość powtarzania – nie oznacza zastąpienia pojęć i metod

badawczych właściwych biologii pojęciami czysto fizykochemicznymi. Roztaczana przez

podekscytowanych przeciwników redukcjonizmu wizja, według której fizyk-redukcjonista

chcąc poznać uczucia swej ukochanej zabiera się do rozwiązywania na wielkim komputerze

równania Schrödingera dla elektronów w jej mózgu, jest równie groteskowa co bezzasadna.

Zapewne stan kwantowy plazmy elektronowej w mózgu niesie interesującą informację o jego

funkcjonowaniu, lecz wątpliwe, by dało się z niego odczytać myśli. Fizyka (kwantowa) jest

konieczna do zrozumienia sposobów przesyłania i kodowania informacji, natomiast opis

procesu myślenia niewątpliwie wymaga pojęć wykraczających poza fizykę.

Najwięcej nieporozumień w tym kontekście wywołuje sprawa emergencji. Trzeba

stwierdzić z naciskiem, że wprowadzenie pojęć adekwatnych na danym poziomie organizacji

materii (molekuły, organizmy żywe itp.) wcale nie przeczy redukcjonizmowi. Sprzeczność

pojawiłaby się, gdyby zastąpić proces redukcji – wyjaśnienia aksjomatów danej teorii za

pomocą praw (twierdzeń) teorii ogólniejszej – zaabsorbowaniem tej pierwszej przez drugą.

Weźmy dla przykładu relację fizyki statystycznej do mechaniki kwantowej. Kwantowe

właściwości powłoki elektronowej atomu decydują o tym, że w warunkach normalnych duża

liczba atomów żelaza tworzy ciało stałe, rtęci – ciecz, a tlenu – gaz. Z drugiej strony,

bezpośrednie zastosowanie mechaniki kwantowej do opisu kaloryfera czy wody w rzece

byłoby kiepskim pomysłem. Do dużej liczby atomów trzeba stosować fizykę statystyczną z

adekwatnymi do niej pojęciami temperatury, ciśnienia, entropii itd. Nie mają one sensu w

odniesieniu do pojedynczych atomów. Redukcjonizmowi to nie szkodzi; redukcja fizyki

statystycznej polega na tym, że jej prawa dają się wyprowadzić z twierdzeń mechaniki

kwantowej zastosowanej do obiektów wieloatomowych, że nie musimy ich postulować

niezależnie. Przypuszczam, że znaczna część emocji bierze się stąd, że dyskutanci notorycznie

mylą redukcjonizm obiektywny z absorbowaniem teorii węższych przez ogólniejsze.

Odrzucamy ideę absorpcji, gdyż w praktyce pozbawiłaby nas możliwości podania użytecznego

opisu zachowania się bardziej skomplikowanych układów. Teoria redukowana jest logicznie

pochodną innej teorii, natomiast pozostaje autonomiczna w sensie swoich pojęć i metod

badawczych. Biolog zajmujący się genetyką populacyjną roślin nie musi się obawiać, że

zamiast zbierać wiosną kwiaty na górskiej łące, każą mu uprawiać mechanikę kwantową na

komputerze.

Redukcjonizm obiektywny wyraża fundamentalną, całkiem nieoczywistą własność

przyrody: wszystkie jej prawa wynikają z jednej lub w najgorszym razie z trzech (gdyby

okazało się, że oddziaływania elektrosłabe, silne i grawitacyjne są od siebie niezależne) teorii

fundamentalnych. Jest to odkrycie całkiem nowe, jeszcze w dziewiętnastym wieku sądzono, że

teorii fundamentalnych (włączając chemię i biologię) jest wiele. Co więcej, a priori możliwa

byłaby też taka sytuacja, w której ciągi wynikań nie zbiegałyby się do jednego czy paru źródeł,

lecz tworzyły zamknięte koło. Sytuacja taka występuje w przypadku modnej przed dwudziestu

laty "zasady antropicznej", według której (w jej silnej wersji) uniwersalne stałe przyrody są tak

dobrane, by zdeterminowane przez nie poziomy energetyczne jąder umożliwiały istnienie

świata takiego, jaki widzimy, a więc w którym możemy powstać i żyć. Gdyby stałe przyrody, a

z nimi poziomy energetyczne jąder, były nieco inne, to pojawiłyby się dwa dodatkowe izotopy

helu. Skutek byłby katastrofalny: cały pierwotny wodór wypaliłby się we wczesnym

Wszechświecie w cięższe pierwiastki; nie byłoby w ogóle gwiazd płonących reakcjami

termojądrowymi i dzisiejszy Kosmos byłby całkowicie ciemny i wypełniony pyłem o

temperaturze bliskiej zera absolutnego. W takim świecie żadne organizmy żywe nie mogłyby

zaistnieć. Innymi słowy Wszechświat wydaje się być starannie dostrojony do istnienia życia

(niekoniecznie akurat nas). Gdyby zasada antropiczna była słuszna, to chcąc zrozumieć siebie i

otaczający świat wyszlibyśmy od opisu człowieka i schodząc w dół poprzez biologię, chemię i

fizykę doszlibyśmy do fizyki jądrowej i z jej poziomu wrócili bezpośrednio do człowieka. Taki

zamknięty krąg rozumowań byłby dla fizyków niezadowalający i zaakceptowaliby go tylko w

ostateczności – gdyby zawiodły wszystkie próby wyjaśnienia własności przyrody (w tym

stałych uniwersalnych) za pomocą teorii świata mikroskopowego.

Redukcjonizm obiektywny to nasz ludzki sposób porządkowania praw przyrody, tak

aby odzwierciedlały jedność i hierarchiczny porządek przyrody. Istotny jest tu porządek

istniejący w przyrodzie, a nie nasza chęć wprowadzenia ładu w przedsięwzięcie zwane nauką.

6.

W związku z tym, że hipotetyczna teoria ostateczna uzyskuje fundamentalną rolę w

przyrodoznawstwie poprzez redukcjonizm, warto poruszyć kwestię, na którą pierwszy chyba

zwrócił uwagę wybitny matematyk rosyjski Jurij Manin. Chodzi o różnice między

prawdziwością i dowodliwością teorii. Teoria naukowa jest prawdziwa, gdy prawdziwe jest

każde z nieskończenie wielu twierdzeń wchodzących w jej skład (a tym samym żadne

twierdzenie nie jest fałszywe). Przez twierdzenie rozumie się wszelkie przewidywanie

wynikające z teorii. Aby stwierdzić prawdziwość teorii należy wykonać nieskończenie wiele

eksperymentów sprawdzających wszystkie jej twierdzenia. Z drugiej strony każdą teorię – z

wyjątkiem teorii ostatecznej – można udowodnić wyprowadzając ją z teorii ogólniejszej.

Dowód, składający się ze skończonej liczby kroków (operacji matematycznych) jest

równoważny nieskończonej liczbie eksperymentów. Jest więc jasne, że dowód, dający nam

pewność prawdziwości teorii, to coś mocniejszego niż przypuszczenie prawdziwości,

indukcyjnie wyciągnięte z dowolnie dużej, lecz zawsze skończonej liczby doświadczeń, jakie

jesteśmy w stanie wykonać. Nic dziwnego, że udowodnienie teorii jest na ogół trudne. Teoria

może być prawdziwa, lecz praktycznie nie do udowodnienia. Operacja redukcji, teoretycznie

możliwa, nie zawsze jest w praktyce wykonalna.

Wyprowadzenie optyki geometrycznej z modelu Weinberga-Salama jest relatywnie

łatwe. Nie jest już tak dla fizyki statystycznej. Opiera się ona na pojęciu rozkładu

kanonicznego, którego udowodnienie z zasad pierwszych (mechanika kwantowa lub

klasyczna) wiąże się z tzw. zagadnieniem ergodyczności, postawionym przeszło sto lat temu

przez Ludwiga Boltzmanna. Jest to bardzo trudny problem matematyczny i pomimo olbrzy-

mich wysiłków pozostaje nadal nie rozwiązany. W rezultacie aksjomaty fizyki statystycznej są

hipotezami, o których prawdziwości sądzimy na podstawie zgodności teorii ze wszystkimi

wykonanymi dotąd doświadczeniami. Nikt jednak nie wątpi w możliwość udowodnienia

mechaniki statystycznej, nie ma też podstaw, by przypuszczać, że skonstruowanie tego

dowodu wprowadzi do niej nowe idee i metody, które odmienią jej postać (tak jak fizyka

odmieniła chemię). Szukamy dowodu, gdyż chcemy do końca zrozumieć fizykę statystyczną i

upewnić się, że pasuje ona do hierarchicznego porządku przyrody.

Bardziej dramatyczna jest sytuacja fizyki jądrowej. Niemal wszystko, co w niej wiemy,

pochodzi wprost z doświadczenia; teoria jest bardzo uboga, istnieją tylko prymitywne modele

struktury jądra atomowego. Budowa atomu (struktura powłoki elektronowej) wynika z

mechaniki kwantowej i elektrodynamiki, tu teoria jest bardzo dokładna i nie pozostawia

żadnych luk. Ponieważ protony i neutrony w jądrze oddziałują silnie, więc struktura jądra

wynika z chromodynamiki kwantowej, która w zasadzie winna dawać jego opis równie

precyzyjny jak opis atomu w mechanice kwantowej. Niestety tak nie jest; obecne zrozumienie

chromodynamiki pozwala jedynie na opis reakcji między dwoma protonami lub neutronami. Z

przyczyn, które tkwią u samych podstaw chromodynamiki, dostępne nam metody obliczeniowe

nie mogą być stosowane do jąder. Tym niemniej fizycy są przekonani, że zasady fizyczne

konieczne do skonstruowania teorii jądra atomowego są już znane – są to zasady

chromodynamiki, nic więcej nie trzeba. Musimy nauczyć się stosować tę teorię do układów

wielu cząstek silnie oddziałujących. Na razie jesteśmy w sytuacji dziecka, które dostało

komputer i zna tylko kilka najprostszych komend – bogactwo jego funkcji jest mu jeszcze

niedostępne. Gdy się tego nauczymy, będzie to prawdziwy przełom w fizyce jądrowej i jej

zastosowaniach.

Widzimy zatem, że redukcjonizm obiektywny oznacza samą możliwość wyprowadzenia

teorii z zasad ogólniejszych, niekoniecznie zaś faktyczne przeprowadzenie dowodu. Teorie

redukowane zachowują więc w praktyce sporą niezależność. Dopóki nie powstanie teoria

ostateczna i schemat relacji między nią i pozostałymi teoriami nie zostanie domknięty, możliwe

są inne wątpliwości. Co wynika z czego? Nie zawsze jest to jasne. Weinberg podaje przykład:

z ogólnej teorii względności wynika istnienie cząstek bez masy i niosących spin równy 2 – są to

grawitony. Z drugiej strony, jeżeli zapostulować istnienie cząstek bezmasowych o spinie 2, to

jedyną konsystentną teorią, jaką potrafimy dla nich skonstruować, jest ogólna teoria

względności, czyli muszą to być grawitony. Co jest bardziej fundamentalne: teoria Einsteina

czy istnienie takich cząstek? Dziesięć lat temu, opierając się na teorii strun, Weinberg ostrożnie

sugerował, że cząstki te są bardziej fundamentalne, a teoria Einsteina jest wtórna. Dziś

zapewne jest jeszcze bardziej ostrożny.

Istota relacji między teorią ostateczną a teoriami wobec niej pochodnymi ukazuje, że

powstanie teorii finalnej nie oznacza wcale końca fizyki (a tym bardziej końca nauki). Będzie

to tylko, jak ujmuje Weinberg, "koniec okresu badań, w którym poszukiwano zasad, których

nie można wyjaśnić odwołując się do zasad jeszcze głębszych". Zgodnie ze zdrowym

rozsądkiem, termodynamika procesów nieodwracalnych, hydrodynamika i modna obecnie

teoria chaosu, chemia i biologia będą rozwijać się swoimi torami i wydarzenie to nie będzie dla

nich przełomowe. Przełomem będzie ono dla naszego globalnego obrazu przyrody – dotrzemy

do centralnego punktu, z którego wychodzą wszystkie ciągi wynikań logicznych.

7.

Czego można spodziewać się po teorii ostatecznej? Na ile będzie podobna do teorii

znanych, na ile wyjątkowa i niepowtarzalna? Ostatnio pisze się o niej dużo i w literaturze

popularnonaukowej można natknąć się na najśmielsze spekulacje. Nie brak też zastrzeżeń.

Jak przedstawiłem powyżej, to do czego fizycy dążą i na co mają realną nadzieję, jest

teorią unifikującą wszystkie cząstki i ich oddziaływania, teorią dającą jednolity, spójny i wolny

od swobodnych parametrów opis materii na poziomie elementarnym. Aż tyle i tylko tyle. Może

się ona pojawić w najbliższych latach, lecz chyba przyjdzie na nią poczekać wiele

dziesięcioleci. Co więcej, nie jest wcale oczywiste, że gdy powstanie, to bez wahań

rozpoznamy, że to właśnie ona.

Przez prawie ćwierć tysiąclecia mieliśmy jedną teorię grawitacji – prawo ciążenia

Newtona – która znakomicie opisywała wszystkie znane zjawiska grawitacyjne. Gdyby nie

kosmologia, to do dziś mogłaby uchodzić za wystarczającą teorię (dopiero ostatnio pojawiły

się wyraźne sygnały obserwacyjne istnienia czarnych dziur i fal grawitacyjnych). Sam Einstein

opracował swoją teorię nie pod presją faktów empirycznych, lecz z przyczyn czysto

konceptualnych. Skąd więc mamy wiedzieć, że konkretna teoria unifikująca, elegancka i

zgodna z doświadczeniem, jest rzeczywiście końcem drogi, że nie należy szukać dalej czegoś

prostszego i elegantszego? Fizycy odpowiadają, że nie wydaje się prawdopodobne, by możliwy

był cały ciąg teorii unifikujących, z których każda byłaby zadowalająca, a zarazem każda

następna byłaby lepsza od poprzednich. Teoria prawdziwie unifikująca musi być tak idealnie

spójna i wewnętrznie samouzgodniona, że zmiana jakiegokolwiek jej fragmentu grozi

zupełnym jej popsuciem. Teoria ostateczna może być tylko jedna, każda inna kandydatka ma

dyskwalifikujące ją defekty.

Jak dotąd pogląd ten jest aktem wiary, nie znamy teorii naukowej nie dopuszczającej

żadnych modyfikacji. Ale nie ma też podstaw, by tę cechę jedyności przypisać teoriom opisują-

cym poszczególne fragmenty przyrody; postulujemy, że jest to cecha konstytutywna teorii

ostatecznej. Ze swej istoty teoria ostateczna ma być teorią świata mikroskopowego. Co z

Wszechświatem? Według ogólnej teorii względności, Wszechświat jest tylko jednym, bardzo

szczególnym przypadkiem w nieskończonym zbiorze możliwych światów. Dlaczego zrealizo-

wany został ten specyficzny przypadek? Są dwie możliwe odpowiedzi. Pierwsza: teoria

ostateczna jest ostateczna tylko w odniesieniu do świata mikroskopowego (i

makroskopowego), a globalna budowa Wszechświata wynika z niezależnej od niej teorii

kosmologicznej. Istnieją zatem dwie teorie ostateczne, do których zbiegają się wszystkie inne.

Ta odpowiedź jest dla fizyków, podobnie jak zasada antropiczna, bardzo niezadowalająca. Nie

mamy żadnej teorii, która miałaby źródło w astronomii, a nie w fizyce laboratoryjnej. W

przeciwieństwie do astronomów, którzy chętnie mówią o potrzebie "nowej fizyki" do

wyjaśnienia rozmaitych zjawisk na niebie, fizycy są przeciwni wprowadzaniu nowych teorii

wyłącznie na podstawie obserwacji astronomicznych. Cała historia fizyki świadczy o słuszności

tej postawy. Dalej, skoro wszystkie poszczególne składniki Wszechświata podlegają (poprzez

proces redukcji) teorii ostatecznej świata mikroskopowego, to dlaczego całość miałaby

podlegać prawom od niej niezależnym? Przypominam, że emergencja nowych pojęć

koniecznych do opisu globalnej struktury Kosmosu wcale nie oznacza, że rządzące nimi prawa

są autonomiczne. Fizycy odrzucają zatem tę odpowiedź, przypuszczam, że filozofowie też.

Druga odpowiedź jest taka, że istniejąca postać Wszechświata wynika z teorii

ostatecznej. Świat mikroskopowy determinuje w ostatecznym rozrachunku kosmologię.

Łącznikiem między obu światami jest grawitacja, która na równej stopie z innymi siłami

wchodzi do teorii unifikacyjnej i która w decydującej mierze kształtuje globalną postać

Wszechświata. W tym sensie – połączenia mikroświata i kosmologii – teoria ostateczna jest

"teorią wszystkiego" (TOE). Oznacza to, że teoria ta dopuszcza tylko jedno rozwiązanie

kosmologiczne: jedynie istniejący Wszechświat jest możliwy, inne światy są wykluczone.

Wiąże się to z problemem warunków początkowych; zagadnienie to omawiają szczegółowo

Hawking w Krótkiej historii czasu i Michał Heller we Wszechświecie u schyłku stulecia.

Należy spodziewać się, że teoria ostateczna jest bogata: przewiduje istnienie wielu różnych

stanów podstawowych (rozmaite stany "próżni") oraz egzotycznych stanów materii, bardzo

odległych od tego, co możemy wytworzyć w laboratorium lub zobaczyć na niebie.

Konfrontacja bogactwa zjawisk przewidywanych przez teorię ostateczną z naszymi nader

ograniczonymi możliwościami eksperymentalnymi i obserwacyjnymi sprawi, że teoria ta może

wydać się luźna, tzn. nie wyjaśniać jednoznacznie naszych eksperymentów. Bierze się to

głównie stąd, że TOE będzie teorią kwantową. Rozpatrzmy nieco wydumany i nierealistyczny

przykład. Niech według tej teorii pewien atom ma dwa bazowe stany kwantowe: w jednym

znajduje się na Ziemi, w drugim – na Słońcu. Ewolucja kosmologiczna rządzona przez TOE

sprawi, że aktualnie atom ten będzie w stanie kwantowym będącym pewną superpozycją obu

stanów bazowych. Dostępne nam eksperymenty pozwolą stwierdzić, że atom ten jest lub nie

na Ziemi, podczas gdy teoria przewiduje więcej. Jak twierdzi Andreas Albrecht z Imperial

College w Londynie, TOE nie będzie jednoznacznie przewidywać tych praw, które indukcyjnie

odtwarzamy z obserwacji, lecz jedynie ukaże, iż prawa te zostały wybrane z obszernego zbioru

możliwości. Jego zdaniem, z punktu widzenia fizyka znającego tylko te prawa, które opisują

dostępny nam empirycznie świat, TOE jest tak bardzo nadmiarowa, że z "teorii wszystkiego"

staje się "teorią czegokolwiek". Będziemy mieć zatem poważne trudności z rozpoznaniem

teorii ostatecznej i udowodnieniem jej jednoznaczności.

Pójdźmy dalej. Tak pojęta teoria ostateczna jest niewątpliwie warunkiem koniecznym

zrozumienia przyrody, lecz nie warunkiem wystarczającym. Wzorem filozofów starożytnych

chcielibyśmy wiedzieć więcej. Niektórzy fizycy (np. Hawking) już obecnie są przekonani, że

teoria ostateczna (którą widzą niemal w zasięgu ręki) winna przedstawiać Wszechświat

wyłaniający się z nicości; miałaby to być teoria nie tylko jedyna, ale i samorealizująca się.

Usiłują oni rozwiązać najambitniejsze – zdaniem Leszka Kołakowskiego – zadanie filozofii

wszechczasów: udowodnić konieczność istnienia świata takiego, jaki jest.

Idea kreacji Wszechświata z niczego zakłada implicite określoną odpowiedź na pytanie

o naturę i pochodzenie praw przyrody. Tutaj zasygnalizujemy tylko problem. Tradycyjnie

istnieją dwie odpowiedzi. Według koncepcji platońskiej prawa przyrody istnieją poza

materialnym Kosmosem, w popperowskim "trzecim świecie" i logicznie poprzedzają materię.

Ponieważ kreacja Wszechświata z niczego odbywa się zgodnie z prawami fizyki, koncepcja ta

jest dla niej niezbędna. Z drugiej strony nie istnieje coś takiego jak "goła materia" obdarta z

rządzących nią praw. Mamy swoisty dualizm praw: są inherentnym, nieusuwalnym składnikiem

materii, a zarazem egzystują od niej niezależnie w świecie logiki. Dualizmu unika druga

odpowiedź: prawa przyrody są nierozłączne z materią i nie istnieją poza nią. "Trzeci świat"

Poppera jest konstrukcją rozumu obserwującego przyrodę, tworem intersubiektywnym, tym

niemniej nie istniejącym wcześniej niż rozumna myśl wylęgła się w organizmach żywych.

Interesujące, że rozstrzygnięcie tego par excellence filozoficznego problemu decyduje o

sensowności czysto fizykalnej idei kreacji z niczego.

Niektórzy autorzy (m. in. znany astrofizyk angielski i płodny autor książek

popularnonaukowych, John Barrow) zadają pytanie wzorem Kanta: czy teoria ostateczna daje

nam wgląd w "rzecz samą w sobie", czy też obraz tej rzeczy przetransformowany przez

aprioryczne kategorie poznawcze naszego umysłu? Zazwyczaj przyrodnicy na tego typu

pytanie odpowiadają, że aparat poznawczy naszego umysłu ukształtował się ewolucyjnie w

oddziaływaniu z otoczeniem człowieka i nie może dawać zbyt zdeformowanego obrazu świata.

Odpowiedź jest poprawna, lecz można odpowiedzieć bardziej konkretnie i stanowczo.

Mianowicie, kwestia relacji między przyrodą jako taką, a jej prawami, które odtwarzamy z

obserwacji (czyli naszym ludzkim obrazem przyrody), dotyczy nie tylko teorii ostatecznej, ale

całego świata zjawisk mikroskopowych i kosmologicznych. Tu zaś sprawę postawił jasno

Einstein: powstanie takich teorii jak ogólna teoria względności i mechanika kwantowa (które

są bardzo odległe od naszych intuicji ukształtowanych kontaktami z naturalnym otoczeniem)

oznacza, że filtrujących kategorii Kantowskich nie ma, a w każdym razie potrafimy się od nich

uwolnić.

I na koniec, by nie został choćby cień wątpliwości, dodam, że teoria ostateczna nie ma

nic więcej do powiedzenia o umyśle ludzkim niż to, co potrafią ustalić nauki bezpośrednio się

nim zajmujące – psychologia, neurologia, biochemia i biofizyka. Duszy ludzkiej z jej pomocą

nie poznamy.