Kosmiczna stacja paliw

 

Nie każdy przyszły marsjański astronauta, tak jak ochotnicy w programie Mars One, chciałby dotrzeć do Czerwonej Planety z pustym zbiornikiem paliwa. Jednakże koszty potrzebne do przetransportowania odpowiednich ilości paliwa rakietowego na powierzchnię Marsa są ogromne. Rozwiązaniem dużo korzystniejszym ze względów ekonomicznych jak i perspektywicznym pod kątem rozwoju marsjańskiej kolonii byłoby wytworzenie paliwa rakietowego na powierzchni Marsa.

Naturalnym pierwszym kandydatem na paliwo rakietowe jest ciekły wodór, uzyskany w procesie elektrolizy wody. Marsjańska gleba bogata jest w wodę w stanie stałym. Regolit marsjański należałoby więc najpierw np. ogrzać w celu odparowania wody, po czym skroploną wodę poddać elektrolizie. Energię elektryczną potrzebną do przeprowadzenia

MarsGasStation
Wizja artystyczna instalacji do produkcji paliwa rakietowego na Marsie. Źródło

tego procesu można nietrudno pozyskać z instalacji fotowoltaicznej. Warto podkreślić, że w procesie elektrolizy wody powstaje również tlen który może być wykorzystany zarówno jako utleniacz paliwa jak i składnik mieszanki tlenowej dla astronautów.  Otrzymany w procesie elektrolizy wodór okazuje się jednak nie być optymalnym źródłem energii do napędzania, startujących z Marsa, statków kosmicznych.

Problem polega na tym, że wodór jako paliwo rakietowe, w celu zwiększenia gęstości energii, należy zmagazynować w stanie ciekłym. Utrzymywanie zaś ciekłego wodoru poniżej temperatury wrzenia jest zadaniem bardzo wymagającym. Wiąże się to z faktem, iż temperatura wrzenia wodoru jest niezwykle mała i równa (przy ciśnieniu atmosferycznym) około -253°C (20 K).  Co więcej, nawet w tych warunkach gęstość wodoru jest bardzo niska i pozostaje na poziomie  0,07 kg/litr.    Przygotowanie systemu który umożliwiłby utrzymanie wodoru w tak ekstremalnym stanie na powierzchni Marsa, przynajmniej na początkowym etapie rozwoju tamtejszej kolonii, byłoby zadaniem niesłychanie trudnym.

Z pomocą przychodzi jednakże jeszcze jeden składnik występujący dosyć obficie na Marsie, a mówiąc precyzyjniej tworzy jego atmosferę. Chodzi mianowicie o dwutlenek węgla, stanowiący około 95 % składu atmosfery, wytwarzającej na powierzchni Marsa ciśnienie około 6 hPa. Jest to ciśnienie porównywalne z tym występującym w ziemskiej stratosferze.

Wykorzystanie (uprzednio sprężonego) dwutlenku węgla w połączeniu z wodorem pozwala na przeprowadzenie tak zwanej reakcji metanacji, okrytej przez Paula Sabatiera, laureata Nagrodą Nobla w dziedzinie chemii z 1912-ego roku. Reakcja ta, zwana reakcją Sabatiera, może zostać zapisana w postaci następującego równania:

CO_2 +4H_2 \rightarrow CH_4+2H_2O.   

Reakcja powyższa przebiega w sposób optymalny w temperaturze około 300-400°C i wymaga zastosowania odpowiedniej powierzchni pełniącej funkcję katalizatora (wykonanego np. z niklu lub rutenu).

Wytworzony w procesie Sabatiera metan stanowi dobrą alternatywę dla wodoru jako paliwa rakietowego. Przechowywanie ciekłego metanu jest znacznie łatwiejsze, gdyż temperatura jego wrzenia wynosi około -162°C (111 K) co jest prawie 100 K więcej niż temperatura wrzenia wodoru. Systemy przechowywania ciekłego metanu to bardzo dobrze rozwinięta technologia, stosowana powszechnie w różnych warunkach. Wynika to z faktu, iż zyskujący na coraz większej popularności LNG (ang. liquefied natural gas) to w głównej mierze metan.  Przechowywanie LNG wymaga zastosowania zbiornika kriogenicznego utrzymujący gaz we wspomnianej temp. około -160°C. Zbiorniki takie stosowane są zarówno w autobusach zasilanych przez LNG jak i w ogromnych gazowcach. Gazowce LNG z Kataru, USA czy też Norwegii przyjmowane są w Polsce przez  Terminal LNG w Świnoujściu mogący zmagazynować 320 000 m³ LNG. 

Wykorzystanie ciekłego metanu jako paliwa rakietowego w postaci mieszanki (tzw. methalox), zawierającej ciekły tlen jako utleniacz, zapowiedziała firma SpaceX w kontekście swoich planów eksploracji Marsa. Rozwijany przez SpaceX silnik Raptor przystosowany jest właśnie do pracy oparciu o methalox.  Opracowywana rakieta

SpaceX-carbon-fiber-fuel-tank-mars-spaceship
Wykona z włókna węglowego testowa wersja zbiornika na ciekły metan oraz ciekły tlen dedykowana do rakiety BFR. Źródło

BFR ma zawierać siedem takich silników oraz zbiorniki pozwalające zmagazynować 240 000 kg ciekłego metanu oraz 860 000 kg ciekłego tlenu. Gęstość ciekłego metanu to około 423 kg/m³, co daje objętość metanu w zbiorniku rakiety BFR równą około 567 m³. Ciekły metan który można zgromadzić we wspomnianym wcześniej terminalu LNG w Świnoujściu wystarczyłby na napełnienie zbiorników ponad pięciuset rakiet BFR! 

Warto podkreślić, że opisana tutaj reakcja metanacji, oprócz aplikacji kosmicznych, ma również potencjalnie szerokie zastosowanie na Ziemi. Reakcję tę stosuje się w szczególności w eksperymentalnych systemach typu Power-to-gasktóre pozwalają magazynować nadwyżki w produkcji energii w postaci metanu. Jest to podejście szczególnie obiecujące w kontekście energii elektrycznej pozyskiwanej z farm fotowoltaicznych które wytwarzają prąd w ciągu dnia. Bodajże najbardziej rozwinięty system tego typu został opracowany przez Audi w ramach rozwijanej technologii e-gas:

Kolejna ważna własność reakcji Sabatiera to możliwość przekształcania dwutlenku węgla w wodę i metan. Nadmierna emisja dwutlenku węgla  do atmosfery jest główną przyczyną obserwowanych zmian klimatycznych.  Wyobrazić możemy sobie technologię w której dwutlenek węgla z rekcji spalania np. w elektrowni węglowej podlega bezpośredniej konwersji w metan w wyniku reakcji Sabatiera. Otrzymany metan jest zaś na przykład wprowadzany do systemu dystrybucji gazu. Proces metanacji może więc pomóc w ograniczeniu emisji CO_2 i tym samy przyczynić się do spowolnienia postępujących zmian klimatycznych. 

Zanim powstanie marsjańska stacja wytwarzania metanu wraz z kosmiczną stacją paliw, pozwalającą napełnić zbiorniki rakiet ciekłym metanem, prototypowe instalacje tego typu muszą zostać zbudowane i dokładnie przetestowane na Ziemi. Miejmy nadzieję, że jedna z pierwszych takich kosmicznych stacji paliw powstanie i będzie testowana w Polsce. Warto pokreślić, że technologie takie jak opisany tu reaktor Sabatiera pozwolą nam nie tylko zdobywać Kosmos ale mogą nam również pomóc przetrwać na Ziemi.

© Jakub Mielczarek

Wszechświat na komputerze kwantowym

Jednym z kierunków jakie rozwijam w prowadzonych przeze mnie aktualnie badaniach jest wykorzystanie komputerów kwantowych do symulowania fizyki na skali Plancka. Dla przypomnienia, długość Plancka, czyli l_{Pl} \approx 1.62 \cdot 10^{-35} m to najmniejsza, znana nam, skala fizyczna w tkance Wszechświata, na której istnienie wskazują rozważania teoretyczne. Fizykę opisującą rzeczywistość na skali Plancka nazywamy natomiast Kwantową Grawitacją. Niestety, z uwagi na obecny brak (pomimo wielu starań) możliwości empirycznego badania fizyki na skali Plancka, nie istnieje ugruntowana Kwantowa Teoria Grawitacji. Dysponujemy natomiast szeregiem teorii i modeli starających się uchwycić wiele aspektów kwantowej natury oddziaływań grawitacyjnych (przegląd wielu z nich można znaleźć np. w pracy Towards the map of quantum gravity).

Do kwestii empirycznego badania fizyki na skali Plancka możemy jednak podejść w trochę mniej bezpośredni sposób. Mianowicie, zakładając konkretny teoretyczny opis grawitacyjnych stopni swobody, możemy wykonać symulację rozważanego układu na skali Plancka i przeprowadzić na nim dowolne pomiary. Nie istnieją w takim przypadku ograniczenia  empiryczne wynikające z rozdzielczości urządzeń pomiarowych. Cała fizyka którą symulujemy znajduje się w pamięci superkomputera, do której posiadamy nieograniczony dostęp.  Najbardziej zaawansowane symulacje tego typu wykonuje się  obecnie w ramach podejścia zwanego Kauzalne Dynamiczne Triangulacje (ang. Causal Dynamical Triangulations – CDT).  W ramach CDT, symulowane są takie konfiguracje jak kwantowy Wszechświat zbudowany z nawet setek tysięcy elementarnych czasoprzestrzennych sympleksów.

Fig1
Kolaż obrazyjący symulowanie fizyki na skali Plancka na procesorze kwantowym. Wykorzystano zdjęcie procesora kwantowego firmy D-Wave oraz wizję artystyczną czasoprzestrzeni na skali Plancka

Symulacje o których mowa przeprowadzane są na powszechnie dzisiaj dostępnych superkomputerach klasycznych. Kwantowa natura oddziaływań grawitacyjnych musi być w związku z tym odpowiednio tłumaczona na język algorytmów klasycznych. Wykorzystanie komputerów kwantowych do symulowania kwantowej grawitacji pozwoliłoby proces ten wyeliminować. Mianowicie, symulacje układów kwantowych (takich jak kwantowa przestrzeń/czasoprzestrzeń) z wykorzystaniem komputerów kwantowych zasadniczo różni się od symulacji klasycznych. Komputery kwantowe pozwalają na mapowanie danego układu kwantowego na kwantowe stopnie procesora kwantowego. Mówimy tu o tak zwanych dokładnych symulacjach (ang. exact simulations), które pozwalają imitować wyjściowy układ kwantowy. Z punktu widzenia mechaniki kwantowej, imitacja wytworzona na procesorze kwantowym jest równoważna oryginalnemu układowi kwantowemu.

W moim niedawnym artykule Spin networks on adiabatic quantum computer oraz eseju Quantum Gravity on a Quantum Chip,  pokazuję, że wykorzystanie jedynego dzisiaj komercyjnie dostępnego komputera a mianowicie tzw. kwantowego annealera (wyżarzacza kwantowego)   firmy D-Wave daje możliwość symulowania fizyki na skali Plancka opisywanej przez tak zwane sieci spinowe. Sieci spinowe rozpinają przestrzeń Hilberta podejścia do grawitacji kwantowej zwanego Pętlową Grawitacją Kwantową (ang. Loop Quantum Gravity – LQG).  Kwantowe stopnie swobody sieci spinowej są w przypadku procesora kwantowego D-Wave imitowane z wykorzystaniem stanów qubitowych realizowanych przez nadprzewodzące obwody kwantowe (bazujące o tzw. złącza Josephsona). Jak pokazano w ramach rozważanego modelu, adiabatyczne obliczenia kwantowe umożliwiając zidentyfikowanie fizycznych stanów teorii.

Infographic.png
Infografika obrazująca reprezentację sieci spinowych w ramach architektury procesora adiabatycznego komputera kwantowego D-Wave. Szczegóły w pracy Spin networks on adiabatic quantum computer.

Jednym z ważnych zagadnień którego zbadanie symulacje kwantowe mogą pozwolić jest tak zwana granica semiklasyczna, czyli obszar w którym grawitacja kwantowa koresponduje z klasyczną teorią grawitacji, czyli Ogólną Teorią Względności. Wszystko wskazuję na to, że symulacje sieci spinowych na adiabatycznym komputerze kwantowym mogą niebawem umożliwić wykonanie pierwszego kroku w tym kierunku.

Potencjał i możliwe konsekwencje symulowania fizyki na skali Plancka są jednak dużo szersze. Kwantowe symulacje mogą nie tylko okazać się praktycznym narzędziem do badania fizyki na skali Plancka ale mogą również pomóc odsłonić głębszą naturę relacji pomiędzy grawitację a teorią informacji kwantowej (jak np. kwantowa wersja hipotezy It from bit). Bardzo ciekawa możliwość w kontekście symulacji  kwantowych wiąże się z relacją pomiędzy grawitacją a splątaniem kwantowym. Mianowicie, akumulujące się wyniki rozważań teoretycznych, w szczególności  korespondencja AdS/CFT, zasada holograficzna, entropia splątania sieci tensorowych MERA czy też hipoteza EPR=ER, wskazują na możliwość interpretacji pola grawitacyjnego w zadanej objętości (ang. bulk) jako przejawu splątania kwantowego niżej-wymiarowego układu na brzegu (ang. boundary) tego obszaru. Nie koniecznie więc do symulowania kwantowej grawitacji musimy angażować grawitacyjne stopnie swobody. Możliwe, że wystarczą do tego kwantowe symulacje (konforemnych) teorii pola na brzegu układu. Wykonanie odpowiednich pomiarów splątania kwantowego teorii na brzegu umożliwi zrekonstruowanie konfiguracji pola grawitacyjnego wewnątrz tego obszaru.  

Korzyści płynące z symulacji fizyki na skali Plancka na komputerach kwantowych nie leżą wyłącznie po stronie nauk podstawowych. Nowe typy procesorów kwantowych mogą  okazać się niezbędne do symulowania złożonych systemów kwantowograwitacyjnych, co może okazać się inspiracją  do rozwoju technologicznego. Symbiotyczny rozwój kwantowej grawitacji oraz technologii kwantowych może również doprowadzić do wypracowania nowych rozwiązań w obszarze obliczeń kwantowych. Jako przykład przytoczyć można zastosowanie sieci spinowych jako bazy do przetwarzania informacji kwantowej. 

Pozwolę sobie na koniec wspomnieć, iż umiejętność symulowania kwantowych stopni swobody na skali Plancka może w przyszłości umożliwić badanie od podstaw procesu formowania struktur we Wszechświecie. Idąc dalej, uwzględnienie również innych typów pól pozwoli symulować realistyczne modele Wszechświata. Wraz z upływem czasu i rozwojem technologii obliczeń kwantowych, możliwe będzie uwzględnienie coraz to większej ilości detali. A być może, któregoś dnia będziemy również w stanie symulować zaprojektowane przez nas Superwszechświaty, wykraczające swoją złożonością poza Ten nam znany.

© Jakub Mielczarek

Kosmiczna droga do kwantowej grawitacji

Każdego dnia obserwujemy i odczuwamy działanie siły grawitacji. Dzięki jej obecności upuszczone przedmioty spadają na powierzchnię Ziemi, a nam trudno jest się od niej oderwać. Żeby pokonać siłę grawitacji i uciec w przestrzeń kosmiczną musimy budować potężne rakiety. Ta sama siła utrzymuje ruch Księżyca w pobliżu Ziemi i Ziemię krążącą wokół Słońca. Siła  grawitacji odpowiada za ruch Słońca w Galaktyce i ruch Galaktyki w gromadzie galaktyk. Wszystkie te zjawiska mają jeden wspólny opis w postaci prawa powszechnego ciążenia Newtona. Jest to bardzo prosta relacja mówiąca, że pomiędzy dwoma ciałami posiadającymi masy działa przyciągająca siła grawitacji proporcjonalna do iloczynu ich mas i odwrotnie proporcjonalna do kwadratu odległości pomiędzy środkami ich mas. Współczynnikiem proporcjonalności w tej relacji jest stała grawitacji Newtona G. Prawo powszechnego ciążenia jest piękne, proste i bardzo praktyczne. Nie mówi nam ono jednak zbyt wiele o tym czym siła grawitacji tak w zasadzie jest i skąd się bierze. Znamy skutek i potrafimy go ilościowo opisać, nie znamy jednak jego przyczyny. Co takiego znajduje się pomiędzy ciałami obdarzonymi masą, że przyciągają się one wzajemnie? Czy jest to coś w rodzaju niewidzialnej nici? Do odpowiedzi na to pytanie przybliżył nas Einstein konstruując ogólną teorię względności. Teoria ta opisuję siłę grawitacji jako efekt zakrzywienia przestrzeni. Mianowicie, przestrzeń ulega odkształceniom pod wpływem  znajdujących się w niej ciał obdarzonych masą. Żeby sobie to lepiej uzmysłowić, wyobraźmy sobie rozciągnięty płat materiału. Jeśli umieścimy na nim masywną kulę, spowoduje to zapadnięcie powierzchni materiału. Umieszczona w pobliżu mała kulka stoczy się w kierunku dużej kuli, co zinterpretujemy jako przyciąganie pomiędzy kulkami. Postać tego oddziaływania okazuje się być taka sama (dla mało masywnych ciał) jak ta dana przez prawo Newtona.  Ponadto teoria przewiduje pewne nowe efekty w pobliżu bardzo masywnych ciał, czego nie ujmuje prawo Newtona. Efekty te zostały zweryfikowane obserwacyjnie.

Oddziaływanie grawitacyjne  można więc uważać jako efekt modyfikacji kształtu przestrzeni przez obdarzone masą ciała.  Opis ten daje bardzo intuicyjne wyjaśnienie przyczyny istnienia siły grawitacji, rodzi również jednak nowe pytania. W szczególności czym jest owa tajemnicza przestrzeń ulegająca odkształceniom pod wpływem masy? Teoria względności nie mówi zbyt wiele na ten temat. Z jej perspektywy, przestrzeń jest to rodzaj ciągłego ośrodka nie mającego żadnej struktury wewnętrznej. Istnieją jednak przesłanki teoretyczne wskazujące na to, że przestrzeń powinna, na dostatecznie małych skalach, posiadać pewien rodzaj wewnętrznej struktury. Żeby to zobrazować, wróćmy do przytoczonej analogii przestrzeni jako  rozciągniętego płatu materiału. Widząc tkaninę z dużej odległości wydaję się ona tworzyć ciągłą strukturę. Jeśli jednak popatrzymy na nią z bliska ukaże nam ona swoją włóknistą naturę. Jak sugerują przewidywania teoretyczne, włókna z których może być utkana przestrzeń mają średnice rzędu 10-35 metra, co odpowiada tak zwanej długości (skali) Plancka.

Długość Plancka, odpowiada rozmiarom przy których spodziewamy się występowania efektów kwantowej grawitacji. Najprostszą metodą wprowadzenia długości Plancka jest tak zwana analiza wymiarowa. Rozważmy mianowicie trzy stałe fizyczne:

c– prędkość światła,

G– stałą grawitacji,

\hslash– zredukowaną stałą Plancka.

Wykorzystując te stałe możemy otrzymać wielkość o wymiarze długości

l_{\text{Pl}} = \sqrt{\frac{\hslash G}{c^3}} \approx 1.62 \cdot 10^{-35} \text{m}

zwaną długością Plancka.Teorię opisującą przestrzeń na rozmiarach mniejszych od długości  Plancka określamy mianem kwantowej teorii grawitacji (lub w skrócie kwantowej grawitacji). W odróżnieniu od klasycznej teorii grawitacji, którą jest ogólna teoria względności. Klasyczność oznacza tu ciągły opis przestrzeni, kwantowość natomiast oznacza opis ziarnisty.

Jak się okazuje, znalezienie kwantowego opisu grawitacji jest zadaniem niezwykle trudnym. Badania w tym kierunku rozpoczęto już w latach trzydziestych ubiegłego wieku. Niestety, jak dotąd, nie doprowadziły one do zamierzonego celu. Znaleziono co prawda pewnych kandydatów do miana teorii kwantowej grawitacji takich jak: teorię superstrun, pętlową teorię grawitacji czy teorię kauzalnej dynamicznej triangulacji. Nie wiadomo jednak czy teorie te dają właściwy opis zjawisk fizycznych, ponieważ żadna z tych teorii nie doczekała się, jak dotąd,  doświadczalnego potwierdzenia. Trudność ta wynika z faktu, że przewidywane efekty kwantowej grawitacji występują na niezwykle małych odległościach, porównywalnych z długością Plancka. Aby więc zweryfikować przewidywania pretendentów do  miana teorii kwantowej grawitacji musimy zajrzeć bardzo daleko w głąb struktury materii.

Zazwyczaj, jeśli chcemy zbadać Świat na rozmiarach mniejszych niż te dostępne naszym zmysłom, posługujemy się mikroskopem. W ten sposób możemy poznać np. tajemnice mikroświata na odległościach 10-6 metra. Żeby zajrzeć jeszcze dalej w głąb materii potrzeba trochę większych odpowiedników mikroskopu zwanych akceleratorami cząstek elementarnych.  Pozwalają one dzisiaj badać materię do rozmiarów rzędu 10-18 metra. Są to najmniejsze skale odległości na których zbadaliśmy jak dotąd nasz Wszechświat. Stąd pozostaje więc około siedemnastu rzędów wielkości do skali Plancka. Technika akceleratorowa niestety nie pozwala pójść dużo dalej.

Ta ogromna przepaść odległości skłania wielu fizyków do uznania teorii kwantowej grawitacji jako nieweryfikowalnej doświadczalnie. Stwierdzenie to jest uzasadnione jednak tylko wówczas, jeśli do skali Plancka wiedzie jedynie droga wskazywana przez fizyków cząstek. Czyli bazująca na konstrukcji coraz to większych akceleratorów, pozwalających badać Wszechświat na coraz mniejszych skalach.  Ale czy możliwa jest jakaś inna droga? Jak inaczej zbadać strukturę mikroświata niż budując coraz to większe mikroskopy? Okazuje się, że taka droga potencjalnie istnieje. Wymaga ona jednak  nie budowy nowych mikroskopów, lecz teleskopów. Może to na początku wydawać się trochę dziwne. Przecież teleskopy pomagają nam podglądać odległe miejsca we Wszechświecie i olbrzymie struktury wielokrotnie większe od Słońca, jak galaktyki oraz gromady galaktyk. Droga ta wydaje się więc prowadzić w zupełnie innym kierunku.  Może i kierunek jest przeciwny ale droga, jak się okazuje, prowadzi w to samo miejsce. Zupełnie tak jak na powierzchni Ziemi. Wszystko dzięki temu, że Wszechświat podlega ekspansji. Podczas tej ekspansji odległości pomiędzy ciałami (np. galaktykami) ulegają ciągłemu wzrostowi. Jeśli natomiast popatrzymy wstecz w czasie, ciała te będą się do siebie zbliżać. Gęstość materii we Wszechświecie będzie więc wzrastać. Odległości pomiędzy cząsteczkami będą maleć, aż do osiągnięcia wartości długości Plancka! Możemy się więc spodziewać, że ich zachowanie będzie wtedy zupełnie inne niż to przewidywane w ramach opisu klasycznego.  Taką zasadniczą różnicę przewiduje, wspomniana już, pętlowa teoria grawitacji. Mianowicie mówi ona, że nie jest możliwe dowolne zwiększanie gęstości materii we Wszechświecie. Co za tym idzie, cząstki nie mogą zbliżyć się do siebie na dowolną odległość, lecz tylko na większą niż długość Plancka. Zachowanie takie jest wynikiem ziarnistej struktury przestrzeni. Prowadzi to do bardzo ciekawych konsekwencje odnośnie zachowania się Wszechświata.

W opisie klasycznym nie ma ograniczenia na maksymalną, możliwą do osiągnięcia, gęstość materii.   Idąc więc wstecz w czasie, gęstość materii  we Wszechświecie może rosnąć aż do nieskończoności. Nieskończoność ta nosi nazwę kosmicznej osobliwości i jest bolączką opisu klasycznego. Mianowicie, w stanie tym, teoria klasyczna traci swoją zdolność przewidywania. Pętlowa teoria grawitacji daje rozwiązanie tego problemu usuwając stan kosmicznej osobliwości. Zamiast niefizycznej osobliwości następuje faza tak zwanego odbicia (ang. bounce), podczas której gęstość materii we Wszechświecie osiąga maksymalną, skończoną wartość. W opisie tym objętość Wszechświata najpierw maleje, aż do osiągnięcia minimalnej wartości, a następnie zaczyna rosnąć. Stąd nazwa odbicie.

Efekty kwantowej grawitacji mogły więc mieć bardzo istotny wpływ na ewolucję Wszechświata. W szczególności, mogły doprowadzić do kosmicznego  odbicia.  Miało to jednak miejsce bardzo dawno, bo około czternaście miliardów lat temu.  Dlatego, w dzisiejszym Wszechświecie, mogły nie pozostać już żadne pozostałości fazy obicia. Okazuje się jednak, szczęśliwie dla nas, że część informacji na temat tej fazy może wciąż być dostępna dla obserwacji.  Wszystko  dzięki fotonom mikrofalowego promieniowania tła (ang. cosmic microwave background, CMB) które powstały około  400 000 lat po fazie odbicia. Może to wydawać się bardzo dużo, jest to jednak tylko ułamek sekundy w skalach czasowych Wszechświata.

Szereg eksperymentów dokonuje obecnie pomiarów temperatury tego promieniowania w zależności od kierunku na niebie. Okazuje się, że temperatura ta podlega małym wahaniom. Jest to odzwierciedleniem niejednorodności gęstości materii w okresie formowania się CMB. Niejednorodności te są dla nas niezwykle ważne, ponieważ to właśnie dzięki nim  powstały wszystkie późniejsze struktury we Wszechświecie takie jak galaktyki, gwiazdy czy planety. Te obserwowane małe fluktuacje gęstości miały swój początek  jednak dużo wcześniej. Mianowice podczas tak zwanej fazy kosmicznej inflacji, w której nastąpił bardzo gwałtowny wzrost rozmiarów wszechświata.  To właśnie wtedy, w początkowo jednorodnym Wszechświecie, powstały pierwsze zaburzenia dzięki którym jest on  dziś tak bogaty w struktury. Gdyby nie inflacja, Wszechświat pozostałby jednorodnie wypełnionym materią, nieciekawym tworem. W takim wszechświecie nie miałyby szans powstać struktury złożone takie jak Człowiek.

Fazę kosmicznej inflacji można już dzisiaj badać za pomocą obserwacji mikrofalowego promieniowania tła.  Jest to niesamowite, ponieważ ten etap w historii Wszechświata miał miejsce tuż po fazie odbicia, przewidywanego w ramach pętlowej teorii grawitacji. Słowo „tuż” oznacza tu około 10-36 sekundy. To sugeruje, że faza inflacji mogła nastąpić w konsekwencji efektów kwantowej grawitacji. Tak też wskazują  badania prowadzone w ramach pętlowej grawitacji kwantowej. Mianowicie, teoria ta przewiduje że, po fazie odbicia następuje, w sposób nieunikniony,  faza kosmicznej inflacji!  Efekty pętlowej grawitacji kwantowej prowadzą również do pewnych dodatkowych modyfikacji odnośnie postaci zaburzeń gęstości materii generowanych podczas  fazy inflacji. To natomiast ma wpływ na kształt fluktuacji temperatury  mikrofalowego promieniowania tła. Modyfikacje te są jednak na tyle małe, że jak dotąd nie udało się ich zaobserwować. Możliwe, że nowe obserwacje wykonane przez satelitę Planck doprowadzą od przełomu w tej kwestii. Aby się o tym przekonać, musimy jednak poczekać do moment upublicznienia wyników obserwacji  planowanego na 2012 rok. Już dzisiaj jednak, możemy nauczyć się wiele na temat kwantowej grawitacji poprzez badanie jej wpływu na fazę kosmicznej inflacji.

Droga do kwantowej grawitacji jest kręta i często prowadzi w ślepe zaułki. Droga „na wprost”  z wykorzystaniem akceleratorów cząstek elementarnych wydaje się nie do przejścia. Trzeba więc próbować wytyczać nowe szlaki. Czasem prowadzą one w zupełnie przeciwnym kierunku. Jednym z nich jest kosmiczna droga do kwantowej grawitacji, prowadząca przez bezkresny ocean Wszechświata. Zawiodła ona nas  niezwykle daleko, bo aż 14 miliardów lat wstecz, lecz zarazem tylko 10-36 sekundy od miejsca przeznaczenia. Wiemy więc, że cel jest już blisko.  Tu jednak fale wzmagają się coraz bardziej, i dalsza podróż staje się niezwykle trudna. Pozostaje więc mocno trzymać ster!

© Jakub Mielczarek

The origin of primordial perturbations

The Universe is full of gravitating structures on different length scales. The stars, galaxies, clusters of galaxies, super-clusters, voids are among them. But, why is the Universe not just filled with a homogeneous distribution of dust?  Or why and how the structures mentioned were formed? This is one among the questionsthe cosmologists try to answer. The standard technique applied by them is the theory of cosmological perturbations. This theory requires, that the perturbations of the energy density \delta \rho compared to the average energy density \rho have to fulfil the condition \frac{\delta \rho}{\rho}\ll 1. Amazingly, this condition was fulfilled for a long period in the comic history. The theory of cosmological perturbations indicates however, that the factor \frac{\delta \rho}{\rho} grows with time and at some point \frac{\delta \rho}{\rho}\approx 1 and the linear perturbation theory breaks down. At this point the non-linear evolution starts which trigger gravitational collapse, leading to formation of bound gravitational objects like e.g. galaxies.  It is worth mentioning that the evolution of \frac{\delta \rho}{\rho}  follows differently depending on the length scale.  Therefore, the bounded gravitational structures can be formed at the different times on the different scales. So, the classical cosmology can explain how the gravitational structures were formed from some tiny perturbations of the matter distribution that had filled the Universe. In particular, observations of the cosmic microwave background (CMB) anisotropies of temperature indicate that \frac{\delta T}{T} \approx10^{-5} which translate to \frac{\delta \rho}{\rho}=\frac{1}{4} \frac{\delta T}{T} \approx 10^{-5}.  Therefore, when the CMB (which was at the redshift z \simeq 1070) was formed, the Universe was very homogeneous and only tiny perturbations of the primordial plasma were present. Tracing the evolution of the Universe backwards, one can investigate the properties of the perturbations before the CMB was formed. This way, one finds that in the very early universe there were some tiny primordial perturbations. All the structures observed in the Universe have seeds in these initial perturbations, and so it is crucial to answer what is the mechanism responsible for the formation of them?

The observations of the CMB anisotropies and polarisation give us certain indications regarding the form of the primordial perturbations. In particular,  we could naively suspect that the primordial perturbations have a thermal origin. Since the Universe was in thermal equilibrium at some early stages, this sounds to be a natural explanation. However, this possibility is completely rejected by the observations of the CMB anisotropies. While the thermal fluctuations lead to the spectrum of perturbations in the form \mathcal{P} \sim 1/k (white-noise spectrum), the observations of the CMB indicate that the spectrum [We are discussing here a spectrum of the so-called scalar perturbations. Issue of the tensor perturbation (gravitational waves) will be broached later] has a nearly scale-invariant [In cosmology, the scale-invariance means simply: constant. This definition is different from the standard mathematical notion where the scale-invariance is a scallig property of any power-law function] form \mathcal{P} \sim k^{n_{\text{S}}-1}, where n_{\text{S}} \approx 1. This is quite a problematic issue since it is not so easy to find a mechanism that produces a spectrum in this form. But, it is also a good point, since when we find the simple mechanism which leads to the observed spectrum, then we are more certain about its authenticity.

Presently, the  best explanation of the form of the primordial perturbations is given by the theory of  comic inflation (See e.g. [1]). Inflation is a general concept which basically states that the Universe went through a phase of an accelerated (nearly exponential) expansion in its early ages. During this phase, the primordial perturbations were easily formed from the quantum fluctuations. This is a very elegant and a simple solution of the problem. However, the remaining question is: “what drives the Universe to inflate exponentially?”.  This problem can be solved introducing the matter content in the form ofa self-interacting scalar field \phi called inflaton. A scalar field is the simplest possible field and its excitations are the spin-0 particles. Moreover, it can very easily drive the proper inflationary phase. However, some obscurity regarding the nature of this field appears. This come from the fact that in Nature we do not observe any elementary spin-0 particles that can be the excitations of the scalar field.  The scalar fields appear however in some effective theories as Yukawa’s theory, where the scalar \pi-meson mediates the strong  interaction. Another example is given by the Higgs  boson which is the spin-0 excitation of the scalar Higgs field. This field can be, in some sense, regarded as fundamental. Therefore, the detection of the  Higgs  boson at the LHC could give support to the theory of inflation where the scalar field (however different) is also used. It could just say, that the fundamental scalar fields can in fact be present in Nature. At present, since the nature of the inflaton field remains unknown, \phi should be understood as an effective matter component of the Universe.

As was already mentioned, the realisation of inflation requires self-interaction of the scalar field. This introduces another ambiguity, since the field can self-interact in many different ways, which result with many possible choices of the field potential V(\phi). The forms of  potentials can be however constrained and ever excluded based on the observations of CMB. The simple model that I would like to discuss in more details is based on the massive potential V(\phi)=\frac{m^2}{2}\phi^2. This is the most natural choice of  V(\phi), since it just says that the excitations of the field have the mass m.   The field evolves in the quadratic potential  similarly as a ball in the harmonic potential. However, the evolution differ from the standard harmonic oscillations case, since, the field is coupled with the gravitational field. This makes the evolution a little bit more complicated. In particular, the slow-roll evolution appears, when the field goes down the potential well. During this phase, the cosmic acceleration (inflation) occurs. Using the standard techniques of quantum field theory on curved spacetimes one can calculate what will be the resulting spectrum of primordial perturbations. From these calculations, we obtain the spectrum of the scalar primordial perturbations in the form

\mathcal{P}_{\text{S}}(k) = \underbrace{\frac{1}{\pi \epsilon} \left(\frac{H}{m_{\text{Pl}}} \right)^2}_{=S} \left( \frac{k}{aH}\right)^{n_{\text{S}}-1},

as well as the spectrum of the tensor perturbations (gravitational waves) in the form

\mathcal{P}_{\text{T}}(k) = \underbrace{\frac{16}{\pi} \left(\frac{H}{m_{\text{Pl}}} \right)^2}_{=T} \left( \frac{k}{aH}\right)^{n_{\text{T}}},

where H is a Hubble factor and m_{\text{Pl}}\approx 1.22\cdot 10^{19} GeV is the Planck mass.  Expressions for the scalar and tensor spectral indices are  respectively

n_{\text{S}} =1-4\epsilon and  n_{\text{T}} =-2\epsilon,

where \epsilon \ll 1 is called a slow-roll parameter. Therefore, prediction from this so-called slow-roll inflation is that the scalar spectral index n_{\text{S}} is almost equal to one but a little bit smaller (in jargon: red shifted). Let us confront this with the available CMB data. Recent results from the 7-years observations of the WMAP satellite [2] give

n_{\text{S}} = 0.963 \pm 0.012.

This is in full agreement with the prediction from the slow-roll inflation which supports the model. Moreover, the WMAP satellite measured also an amplitude of the scalar perturbations [2]

S = 2.441^{+0.088}_{-0.092} \cdot 10^{-9}

at the pivot scale k_{0}=0.002 \ \text{Mpc}^{-1}. Based on the measurements of S and n_{\text{S}}  one can compute the mass of inflation

m \simeq m_{\text{Pl}} \frac{1}{4}\sqrt{3\pi S} (1-n_{\text{S}})=(1.4 \pm 0.5) \cdot 10^{-6} m_{\text{Pl}}.

Therefore, the only parameter of the model can be recovered from the observational data. The crucial check of validity of this model would be given by measurements of the tensor power spectrum \mathcal{P}_{\text{T}}. This spectrum can be however, detected only if the B-type polarisation of the CMB will be measured. While the B-type polarisation has not been detected yet, there are huge efforts in this direction. Experiments such as PLANCK [3], BICEP [4] or QUIET [5] are (partly) devoted to the search for the B-mode. The crucial parameterthat quantify the contribution of the gravitational waves is the so called tensor-to-scalar ratio r. This is defined as a ratio of the tensor to scalar amplitude of perturbations at some given scale.  Within the slow-roll inflationmodel, one can predict the value of r, based on observation of the spectral index n_{\text{s}}. Namely, a prediction of the slow-roll inflation model is the following

r :=\frac{T}{S}=16\epsilon=4(1-n_{\text{S}})=0.15 \pm 0.05,

where the value from WMAP-7 was applied. Moreover, based on  WMAP-7 data, the tensor spectral index is predicted to be n_{\text{T}}=\frac{n_{\text{S}}-1}{2}=-0.019 \pm 0.006. It is however unlikely to confront this quantity with observational data in the near future. Present observational constraints on the value of r are

r < 2.1 \ \text{at} \ 95 \% \ \text{C.L.} \ (\text{WMAP-7}),

r < 0.73 \ \text{at} \ 95 \% \ \text{C.L.} \ (\text{BICEP}),

which come from the constraint on the amplitude of the B-type polarisation of the CMB. The predicted vale of r  is placed below the present observational limitations.  However e.g. the PLANCK satellite (which is currently collecting the data) sensitivity reaches r=0.05 which is sufficient to detect the B-type polarisation as predicted by the slow-roll inflation. This would be a great support for the theory of inflation and the slow-roll model. However if, at this level of sensitivity, the B-type polarisation would not be detected, then the simple slow-rollinflaton would have rejected or required modifications. What will turn out to be a true? For the answer, we have to patiently wait till the end of 2012, when the first results from the PLANCK satellite will be released.

  1. A. Linde, Lect. Notes Phys. 738, 1 (2008).
  2. E. Komatsu et al., Submitted to Astrophs. J. Suppl. Ser., arXiv:1001.4538v1
  3. [Planck Collaboration],  “Planck: The scientific programme,”  arXiv:astro-ph/0604069.
  4. H. C. Chiang et al., “Measurement of CMB Polarization Power Spectra from Two Years of BICEP Data,” arXiv:0906.1181 [astro-ph.CO]
  5. D. Samtleben and f. t. Q. Collaboration,  “Measuring the Cosmic Microwave Background Radiation (CMBR) polarization  with QUIET,”  Nuovo Cim.  22B (2007) 1353  [arXiv:0802.2657 [astro-ph]].

© Jakub Mielczarek, 1st April 2010

Kosmologia i jej granice

Współczesne teorie kwantowej kosmologii wskazują na to, że Wszechświat przeszedł przez fazę tak zwanego odbicia (ang. bounce). Przed odbiciem podlegał on kontrakcji a następnie, dzięki odpychaniu kwantowemu, wszedł w obecną gałąź ekspansji. W eseju zastanawiamy się w jakim stopniu Wszechświat przed fazą odbicia jest poznawalny. Wskazujemy potencjalną metodę badawczą oraz jej ograniczenia.

Kosmologia zyskała w ostatnich dziesięcioleciach miano nauki empirycznej. Fundamentem który stanął u jej podstaw były obserwacje Hubble’a, wskazujące na rozszerzanie się Wszechświata. Na tej solidnej podstawie stanął cały gmach kosmologii współczesnej. Jego głównymi filarami stały się obserwacje  mikrofalowego promieniowania tła, struktur wielkoskalowych oraz odległych supernowych.

O Wszechświecie wiemy już naprawdę wiele. Jest to fakt zaskakujący, tym bardziej, że nie jest to układ który badać łatwo. Nie możemy go obejść dookoła i zmierzyć linijką. Jesteśmy w Nim jako Jego intergralna część, niczym pojedynczy neuron składający się na mózg. Z punktu widzenia jednego z 10^{11} neuronów budujących mózg nie jest łatwo powiedzieć cokolwiek o mózgu jako całości. Jesteśmy skazani bowiem na odbieranie sygnałów tylko od sąsiadujących z nami komórek. Ekranowanie pola elektrycznego tworzy natomiast horyzont, za który nie możemy zajrzeć. Nie jesteśmy więc w stanie stwierdzić, że tworzymy układ który posiada samoświadomość. Podobnie jest z badaniem Wszechświata jako całości. Jesteśmy skazani na poznawanie go tylko na podstawie docierających do nas sygnałów. Ponadto jesteśmy ekranowani przez horyzont kosmologiczny, nie pozwalający nam spojrzeć zbyt daleko. Pomimo tych trudności stawiamy sobie nowe cele, zadajemy nowe pytania i co najważniejsze udaje się nam czasem uzyskać na nie odpowiedzi. Prowadzi i stymuluje nas przy tym, wykształcona ewolucyjnie, ciekawość. Czujemy ciągły niedosyt, odpowiadając na jedne pytania zadajemy nowe. Odpowiadamy na nie, udoskonalamy technologie obserwacyjne, dokonujemy nowych odkryć, zadajemy nowe pytania… To naturalny cykl poznawczy, współgrający z rozwojem technologicznym naszej Cywilizacji. Pomińmy jednak teraz technologiczne aspekty poznania. Przyjmijmy, że są one nam dostępne “na życzenie”. Czy pozwoliłoby to nam jednak odpowiedzieć na wszystkie nurtujące nas pytania dotyczące historii Wszechświata? Ograniczmy nasze rozważania do chwili obecnej, tzn. będziemy szukali odpowiedzi na pytanie: Czego możemy dowiedzieć się o Wszechświecie dzisiaj? To czy będziemy mogli uzyskać odpowiedzi na te same pytania stawiając je za powiedzmy milion lat jest kwestią mniej dla nas istotną. Niemniej jednak jest to temat poruszany przez niektórych badaczy zwiastujących nieuchronny koniec kosmologii [1], rozumiany w kosmologicznych jednostkach czasu. Nasze życie nie przyszło być jednak przez nie taktowane. Bliżej nam bowiem do skal czasu wybijanych przez spadające krople wody. Krople wody które są podstawą naszej egzystencji na Ziemi. Na ile więc jesteśmy w stanie zaspokoić naszą ciekawość poznania Wszechświata? W jakim stopniu jesteśmy poznać Kosmos który dał nam życie?

Jedna z najskrytszych tajemnic Wszechświata została ukryta około 14 miliardów lat temu. Jeszcze do niedawna wydawało się, że jest to tajemnica najgłębsza. Ostatnie dziesięciolecie zmieniło jednak radykalnie pogląd na ten temat. Mówimy mianowicie o fazie która, w podejściu klasycznym, przejawia się jako osobliwość. Przyjęło się również mówić osobliwość początkowa. Wyznaczała ona bowiem początek historii Wszechświata. Dzisiejszy poziom zrozumienia zjawisk grawitacyjnych pozwala nam jednak stwierdzić, że jest to osobliwość teorii a nie osobliwość fizyczna. Fizycznym stanem, który zastępuje stan osobliwy jest bounce [2]. Tak przynajmniej wskazuje pętlową kosmologię kwantową [3]. Teoria ta wyrosła z pętlowej grawitacji kwantowej [4], która jest próbą kwantowego opisu grawitacyjnych stopni swobody.

Czym jest bounce? W fazie tej wszechświat początkowo ulega kontrakcji a następnie, dzięki ”odpychaniu kwantowemu”, wchodzi do obecnej fazy ekspansii. Przechodzi on tym samym przez obszar w którym wszechświat osiąga maksymalną gęstość energii

\rho_{\text{c}} = \frac{\sqrt{3}}{16\pi^2\gamma^3} m^4_{\text{Pl}}.

Tutaj m_{\text{Pl}} \approx 1.22 \cdot 10^{19} \text{GeV} to tak zwana masa Plancka, natomiast \gamma to parametr Barbero-Immirzi. Efektywna dynamika czynnika skali  rządzona jest przez zmodyfikowane równanie Friedmanna

H^2=\frac{8\pi G}{3}\rho\left(1-\frac{\rho}{\rho_{\text{c}}} \right),

gdzie H to parametr Hubble’a, natomiast \rho to gęstość energii.

Wracając do meritum, możemy spytać: czy faza bounce’u może być zbadana obserwacyjnie?   Wydaje się, że zaglądnąć w środek serca Wszechświata jest niezwykle trudno. Zamaskowany jest on bowiem epoką promieniowania, w której Wszechświat wypełniony był przez gęstą plazmę. Wysokoenergetyczne oddziaływania występujące w tej fazie błyskawicznie tuszują wszelkie znamiona ery bounce’u. Sprawa wydaje się więc, na pierwszy rzut oka, rozstrzygnięta. Jak mielibyśmy mianowicie zobaczyć bounce, obserwując jedynie powierzchnię otaczającej go “ognistej kuli”? Promieniowanie to, dla jasności, pochodzi z powierzchni ostatniego rozproszenia. Jego pozostałością jest obserwowane dziś mikrofalowe promieniowanie tła.

Sprawa ma się  podobnie jak w przypadku obserwacji Słońca. Promieniowanie które do nas dociera, pochodzi z jego zewnętrznej warstwy zwanej chromosferą. Nie pozwala nam ono zajrzeć  do wnętrza Słońca. A jednak wiemy, że znajduje się tam rdzeń helowo-wodorowy.  Informację tą uzyskano w inny sposób. Wyjaśniono mianowicie zasadę działania Słońca w oparciu o znaną i dobrze zbadaną laboratoryjnie fizykę jądrową. Zbudowano model i potwierdzono go w oparciu o obserwacje gwiazd, których na sferze niebieskiej nie brakuje. Takiej wygody nie mamy przy próbie zbadania kwantowej ery Wszechświata. Po pierwsze, fizyka którą dysponujemy do opisu kwantowej fazy Wszechświata istnieje tylko na papierze. Po drugie, mamy tylko jeden Wszechświat do obserwacji. W tym dosyć pesymistycznym konsensusie przychodzi nam jednak z pomocą horyzont. Ten sam horyzont, który pilnuje abyśmy nie zobaczyli zbyt wiele, pozwala nam jednak zerknąć przez dziurkę od klucza.  Pozwala nam zajrzeć do drugiego pokoju, którego solidne ściany chronią znajdujący się w nim skarb. Otwór nie jest zbyt duży, wystarczający jednak aby ujrzeć kontur skrywanej tajemnicy.

Jak jednak ten metaforyczny obraz ma się do rzeczywistości fizycznej? Postaram się to teraz wyjaśnić. Istota tkwi w tym, że wszystkie zdarzenia zachodzące w obrębie horyzontu podlegają przyczynowej zależności. Obszary układu którego elementy nie są w takiej koneksji nie podlegają ewolucji, w przeciwieństwie do obszarów podhoryzontalnych. Wyobraźmy sobie proces jakim jest fala. Fala o długości podhoryzontalej podlega ewolucji rządzonej równaniem falowym. Jeśli jednak długość fali przekroczy promień horyzontu, zacznie dziać się coś bardzo ciekawego. Mianowicie, fala przestanie ewoluować, w żargonie mówi się, że “zamarza”. Jest to naturalną konsekwencją braku wzajemnego oddziaływania podukładów. Jeśli zamarza woda to nie mogą się na niej rozchodzić fale powierzchniowe. Natomiast sama fala, jeśli istniała przed zamarznięciem, może pozostać w formie skrystalizowanej. Tak samo jest w przypadku fal przecinających horyzont kosmologiczny. Fale, o których mowa to tak zwane mody drgań pól. W szczególności, jeśli rozważymy pole kwantowe, fale takie odpowiadają fluktuacjom próżni. Fale te nieustannie tworzą się i znikają, przestrzegając przy tym zasadę nieoznaczoności Heisenberga. Mody te nazywamy cząstkami wirtualnymi. Jeśli jednak dany mod przetnie skalę horyzontu, ulegnie “zamrożeniu” i stanie się klasyczną cząstką. Idea ta jest podstawą mechanizmu kosmologicznej kreacji cząstek. Jak jednak mechanizm ten ma się do idei testowania kwantowej fazy Wszechświata? Popatrzmy  na rysunek poniżej.

Widać na nim ewolucję horyzontu kosmologicznego (promienia Hubble’a R_{\text{H}} = 1/|H|) podczas fazy bounce’u. Ulega on jak widać najpierw kurczeniu do skończonych rozmiarów, a następnie ponownie zaczyna puchnąć (Pominęliśmy tu osobliwe zachowanie promienia Hubble’a w punkcie odbicia. Jak można jednak pokazać, nie ma to istotnego wpływu na nasze rozważania).  Na rysunku przedstawiono również przykładową fizyczną skalę długości \lambda. Jak łatwo zauważyć, w fazie bounce’u wszystkie skale długości zachowują się w podobny sposób. Mianowicie, będąc początkowo pod horyzontem, przecinają go, a następnie ponownie pod niego powracają. Jak widać, pierwsze nad horyzont wchodzą największe skale długości. Warto uświadomić sobie w tym miejscu, że proces ten zachodzi przed fazą Wielkiego Wybuchu! Mody wielkoskalowe, będące przed przecięciem horyzontu fluktuacjami, stają się, po jego przecięciu, klasycznymi cząstkami. Proces taki uważa się w istocie za mechanizm dający początek tworzeniu się wszelkich struktur we Wszechświecie. Gdyby nie horyzont, Wszechświat pozostawałby jednorodny, wypełniony jedynie fluktuacjami kwantowymi. Dzięki temu jednak, że informacja rozchodzi się ze skończoną prędkością, mogły powstać pierwotne zaburzenia. Doprowadziły one do powstania galaktyk, gwiazd, planet i w rezultacie Nas samych.
Istotną cechą całego omawianego mechanizmu generowania klasycznych zaburzeń jest to, że na skalach ponadhoryzontalych pozostają one “zamrożone”. Jeśli więc pewnym modom udało się wejść nad horyzont w erze kwantowej, mają one szansę pozostać tam w niezmienionej formie aż do ponownego przecięcia horyzontu. Nie są one bowiem wtedy zależne od mikrofizyki na skalach podhoryzontalnych. Innymi słowy to, że Wszechświat wypełniony jest gorącą, silnie oddziałującą plazmą nie robi na nich zbyt dużego wrażenia.

Zaburzenia na skalach ponadhoryzontalnych odbijają się bezpośrednio na obserwowanym mikrofalowym promieniowaniu tła (CMB). Obserwacje widma tego promieniowania mogą więc odsłonić znamiona kwantowej ery Wszechświata [5]. Pozwalają nam zaglądnąć w dziurkę od klucza daną nam przez horyzont. Efekt bounce’u może bezpośrednio przejawiać się w obserwowanym widmie CMB. W szczególności prowadząc do tłumienia tzw. niskich multipoli. Efekt taki w rzeczywistości obserwuje się.   Dostępne nam obecnie dane doświadczalne nie pozwalają jednak wyłonić faworyta spośród kilku kandydatów pretendujących do wyjaśnienia tego zjawiska. Najbliższe lata, głównie dzięki obserwacjom satelity Planck, mogą jednak  przynieść odpowiedź. Byłoby to niezwykle donośne odkrycie.  Pojawia się tu jednak jeszcze jeden problem. Nie wynikający jednak ze zbyt niskiej zdolności rozdzielczej czy czułości przyrządów pomiarowych. Mianowice chodzi tu o tak zwaną kosmiczną wariancję. Jest to efekt statystyczny który uwidacznia się dla wielkości mierzonych na skalach horyzontalnych. W przypadku pomiarów CMB odpowiada to niskim multipolom l. Czyli właśnie tym, dla których spodziewamy się efektów bounce’u. Względna niepewność pochodząca od kosmicznej wariancji wyraża się jako

\frac{\Delta C_l}{C_l} = \sqrt{\frac{2}{2l+1}}.

Widać stąd, że dla np. l=2 względna niepewność pochodząca od kosmicznej wariancji wynosi 0.63, czyli wynik pomiaru jest porównywalny z jego niepewnością. Efektu tego nie da się usunąć i stanowi on poważne utrudnienie w testowaniu scenariucza kosmicznego bounce’u.

Jeśli jednak, scenariusz kwantowego bounce’u rzeczywiście ma realizację fizyczną, to obserwacje widma CMB mogą pozwolić zaglądnąć na drugi biegun ognistej kuli. Czyli  do Wszechświata przed Wielkim Wybuchem. Czego możemy się o nim dowiedzieć? Możemy dostrzec kontur którym jest jego globalna ewolucja. Nie jest to dużo, wystarczająco jednak aby nasycić własną ciekawość.

Wszechświat uchyla przed nami swoje tajemnice. Pozwala nam zerknąć w swoje najskrytsze obszary. Wymaga jednak abyśmy potrafili go czytać. Nie jest to jednak lektura prosta. Językiem bowiem, w którym jest zapisana jest fizyka. My natomiast nie znamy połowy alfabetu. Pchani przez ciekawość musimy się jednak z nią zmierzyć. Szczęśliwie oręż nasz zacny a zwie się rozum.

  1. L. M. Krauss, R. J. Scherrer, “The End of Cosmology?”, Scientific American Magazine, February 25, 2005.
  2. A. Ashtekar, T. Pawłowski and P. Singh,  “Quantum nature of the big bang,”  Phys. Rev. Lett.  96 (2006) 141301.
  3. M. Bojowald,  “Loop quantum cosmology,”  Liv. Rev. Rel.  8 (2005) 11.
  4. A. Ashtekar and J. Lewandowski,  “Background independent quantum gravity: A status report,”  Class. Quant. Grav.  21 (2004).
  5. J. Mielczarek,  “Gravitational waves from the Big Bounce,”  JCAP 0811 (2008) 011.

© Jakub Mielczarek, 14 paździenika 2008