Rock et Science

Fundamentem każdej odpowiednio zaawansowanej technologii są nauki podstawowe. Niestety jednak, umiejętność posługiwania się nowymi zdobyczami techniki powszechnie nie idzie w parze ze zrozumieniem zasad ich funkcjonowania. I nie chodzi mi tu o szczegóły techniczne danego urządzenia, znajomość tych jest przeciętnemu użytkownikowi zbyteczna, lecz o ideę, na której dane rozwiązanie się opiera. A to uważam jest istotne, chociażby po to, by we współczesnym technologicznym świecie nie czuć się zdezorientowanym i móc w pełni czerpać z jego dobrodziejstw. Dla przykładu, tak prosta rzecz jak żarówka. Przez lata, intuicyjne rozumienie jej działania nie stanowiło dla nikogo większego problemu. Jednakże dzisiaj, “żarówka”  to już najczęściej nie lampa żarowa lecz lampa LED.  Bez wątpienia, odsetek osób rozumiejących zasadę emisji światła z lampy LED (rekombinacja promienista par elektron-dziura w półprzewodnikowym złączu p-n) jest dużo niższy niż to miało miejsce w przypadku standardowych lamp żarowych (promieniowanie termiczne rozgrzanej przez przepływ prądu skrętki).

To właśnie chęć przyczynienia się do zmiany tego stanu rzeczy była jednym z zamysłów które skłoniły mnie do podjęcia się prowadzenia tego bloga. Wyszedłem z założenia, iż sytuację tę można niejako obrócić na korzyść nauk podstawowych. Bo przecież, chęć (czy też potrzeba) zrozumienia otaczających nas technologii stanowi doskonały punkt wyjścia do głębszej refleksji nad zasadami stojącymi za ich funkcjonowaniem. W ten sposób, możemy dzisiaj stosunkowo łatwo dotrzeć do fundamentalnych koncepcji naukowych oraz praw natury, których przyswojenie, bez technologicznego kontekstu byłoby znacznie trudniejsze i dla wielu z nas mniej ciekawe.  W części z moich kolejnych wpisów będę starał się podążać tą ścieżką, biorąc “na warsztat”  nowoczesne technologie i odsłaniając ich naukowy rdzeń.

Jednymi z tych technologii które powszechnie uważane są szczególnie trudne, są technologie rakietowe. Inżynierię rakietową (ang. rocket science) przyjęło się wręcz traktować jako synonim czegoś niezwykle skomplikowanego. Wbrew tej opinii, podstawy fizyczne działania rakiet są stosunkowo proste.

Ponieważ żyjemy w czasach niezwykłego ożywienia w obszarze eksploracji kosmosu (tzw. NewSpace) a media zalewają nas doniesieniami o startach nowych rakiet, eksploracji Marsa i nadchodzącej erze turystyki kosmicznej, podstawy rocket science najzwyczajniej warto znać. Wychodząc naprzeciw tej potrzebie, poniżej, postaram się podsumować najistotniejsze aspekty fizyczne działania rakiet. Swoją uwagę skoncentruję tutaj na najpopularniejszym typie rakiet kosmicznych, wykorzystującym chemiczne silniki rakietowe.

W największym uproszczeniu, rakieta porusza dzięki wyrzucanym z silnika rakietowego gazom spalinowym. Działa tu efekt odrzutu, będący konsekwencją zasady zachowania pędu. Rakieta zyskuje pęd równy co do wartości i kierunku, lecz o przeciwnym zwrocie do pędu wyrzucanych spalin. Im większa prędkość wyrzucanego gazu, tym też większy jest jego pęd. Do osiągnięcia odpowiedniej prędkości rakiety, ważne jest by gazy spalinowe wyrzucane były z rakiety odpowiednio szybko, a to (w chemicznym silniku rakietowym) osiągane jest przez kontrolowany proces spalania mieszanki paliwowej w komorze spalania. Najpopularniej wykorzystywanym paliwem w przypadku rakiet na paliwo ciekłe są obecnie nafta, ciekły wodór oraz ciekły metan (fazy ciekłe mają dużo większą gęstość energii). Jako utleniacza (który jest niezbędny w celu osiągnięcia odpowiedniego tempa spalania) wykorzystywany jest natomiast skroplony tlen. Zachodząca w komorze spalania reakcja generuje ogromną temperaturę i ciśnienie. Przewężenie (ang. throat), pomiędzy komorą spalania a dyszą wylotową (ang. nozzle) to natomiast (zgodnie z równaniem Bernoulliego) miejsce w którym spada ciśnienie gazów, jego prędkość zaś szybko wzrasta (w kierunku dyszy), osiągając wartości supersoniczne. Wynika to z różnicy ciśnień pomiędzy komorą spalania a dyszą. Opisaną tu sytuację obrazuje poniższy schemat:

Rakieta

Przejdźmy teraz do podstawowych rozważań ilościowych. Będziemy musieli w tym celu posłużyć się elementami rachunku różniczkowego i całkowego. Czytelnika niezaznajomionego z tym działem matematyki zachęcam do szybkiego przyswojenia niezbędnej wiedzy w oparciu o Kurs Analizy Matematycznej na Khan Academy.

Oznaczmy przez M masę rakiety a przez m masę wyrzucanych produktów spalania. Tak, że rozważając infinitezymalne zmiany mas możemy zapisać dM = - dm. Przez v oznaczmy natomiast prędkość rakiety (dla uproszczenia rozważamy ruch w jednym kierunku). Dla uproszczenia przyjmijmy ponadto, że czynnik roboczy wyrzucany jest z silnika rakiety ze stałą, względem rakiety, prędkością u. Przy tym założeniu, postarajmy się teraz wyznaczyć zmianę prędkości rakiety w rezultacie wyrzucenia produktów spalania o masie dm.

W tym celu, rozważmy sytuację w której w chwili t_1 znajdujemy się w układzie spoczynkowym rakiety, w którym jej prędkość (v) jaki i pęd (p = Mv) są równe zeru. W infinitezymalnym przedziale czasu dt (czyli do chwili t_2=t_1+dt) nastąpił wyrzut masy dm, co spowodowało obniżenie masy rakiety do wartości M-dm oraz wzrost jest prędkości od zera do dv. Wyrzucane produkty spalania zyskują natomiast pęd u dm. W konsekwencji, zmianę pędu dp całego układu (rakieta oraz wyrzucane produkty spalania) możemy zapisać jako przyrost pędu rakiety pomniejszony o pęd wyrzucanych gazów:

dp=(M-dm)dv-udm.

Pomijając wyraz wyższego rzędu dm dv  (dm jest infinitezymalnie małe, można je więc zaniedbać względem skończonego M), otrzymujemy poszukiwane wyrażenie:

dp=Mdv-udm.   (1)

Druga zasada dynamiki Newtona mówi nam, że zmiana pędu w czasie równa jest sile:

\frac{dp}{dt}=F.   (2)

W przypadku braku działania na układ sił zewnętrznych (F=0) nie następuje zmiana jego pędu (dp=0). W sytuacji takiej spełniona jest zasada zachowania pędu którą, w rozważanym przypadku, możemy wyrazić poprzez równanie:

Mdv=udm,  (3)

będące bezpośrednią konsekwencję równania (1). Przypadek z niezerową siłą (na przykład działającą na rakietę i gazy wylotowe siłą grawitacji lub/i siłą oporu aerodynamicznego) pozostawiamy Czytelnikowi do samodzielnej analizy. My zaś przejdźmy do prześledzenia konsekwencji równania (3):

Równanie Ciołkowskiego. Wykorzystując wyprowadzoną z zasady zachowania pędu zależność (3), czyli M  dv = u dm, oraz relację dm = -dM otrzymujemy:

dv = - u \frac{dM}{M}.

Całkując to wyrażenie w przedziale od masy początkowej M_1 do masy końcowej rakiety M_2 uzyskujemy wyrażenie na całkowitą zmianę prędkości rakiety:

\Delta v = v_2-v_1 = \int_{v_1}^{v_2}dv= - u \int_{M_1}^{M_2} \frac{dM}{M} =  u  \ln \left(\frac{M_1}{M_2}\right).   (4)

Jest to sławny wzór Ciołkowskiego, opisujący zmianę prędkości rakiety \Delta v spowodowaną wyrzutem masy ze stałą prędkością u, od wartości M_1 do M_2. Jako przykład zastosowania, wykorzystajmy równanie (4) do oszacowania ilości paliwa jakie należy spalić w rakiecie żeby osiągnąć pierwszą prędkość kosmiczną, czyli prędkość jaką musi zyskać rakieta aby mogła orbitować na niskiej orbicie okołoziemskiej. Prędkość ta wynosi v_I = \sqrt{\frac{G M_z}{R_z}} \approx  7,9 \frac{km}{s} \approx 7900 \frac{m}{s}, gdzie G to stała grawitacji, M_z to masa Ziemi a R_z to promień Ziemi. Typowe prędkości wyrzutu produktów spalania w rakietach na paliwo ciekłe to u \sim 4000 \frac{m}{s}. Na podstawie równania (4), zmiana prędkości rakiety od v=0 do v=v_I wiąże się (w rozważanym przypadku rakiety jednoczłonowej) z następującą zmianą masy rakiety:

\frac{M_1}{M_2} = e^{v_I/u} \approx 7.2.

Oznacza to, że aby rakieta mogła wejść na niską orbitę okołoziemską, paliwo oraz utleniacz muszą stanowić przynajmniej

\frac{M_1-M_2}{M_1} \times 100 \% \approx 86 \%

jej początkowej masy!

Przejdźmy teraz do zdefiniowania dwóch podstawowych parametrów silnika rakietowego, mianowicie siły ciągu praz impulsu właściwego.  W tym celu, podstawmy do równania Newtona (2) wyrażenie na zmianę pędu (1). Otrzymamy wtedy:

M\frac{dv}{dt}-u\frac{dm}{dt}=F,

lub równoważnie

M\frac{dv}{dt}=F+u\frac{dm}{dt},   (5)

czyli tak zwane równanie Mieszczerskiego. Lewa strona równania (5) to szkolne wyrażenie: masa  M pomnożona przez przyśpieszenie (ponieważ a=\frac{dv}{dt}), pojawiające się w równaniu Newtona dla punktu materialnego o stałej masie. W rozważanym przypadku, z uwagi na zmianę masy rakiety w czasie, otrzymujemy efektywnie dodatkowy przyczynek do siły działającej na rakietę równy u\frac{dm}{dt}. Jest to tak zwana  siła ciągu rakiety:

F_c = u \frac{dm}{dt}.   (6)

W rzeczywistych, chemicznych silnikach rakietowych istnieje jeszcze jeden  przyczynek do siły ciągu. Wynika on z ciśnienia wywieranego przez wyrzucany z silnika gaz na wewnętrzną stronę dyszy wylotowej (patrz rysunek powyżej). Oznaczmy powierzchnię maksymalnego przekroju poprzecznego dyszy silnika przez A. Od strony wewnętrznej, na dyszę działa siła  F_1=Ap_w, gdzie p_w jest ciśnieniem wywieranym na dyszę przez gazy wylotowe. Po drugiej stronie dyszy panuje ciśnienie zewnętrzne p_0, które wywiera na dyszę siłę  F_2=Ap_0. Z uwagi na różnicę ciśnień  p_wp_0, na dyszę (i w konsekwencji na rakietę) działa wypadkowa siła

F_p =F_1-F_2=A(p_w-p_0).   (7)

Uwzględniając ten wkład w równaniu (5), możemy zapisać całkowitą siłę ciągu jako sumę wyrażeń (6) oraz (7):

F_c = u \frac{dm}{dt} + A(p_w-p_0).  (8)

W oparciu o siłę ciągu możemy natomiast zdefiniować wielkość zwaną impulsem właściwym, opisującą zmianę pędu rakiety względem utraconej masy:

I_{sp} := \frac{F_c dt}{g  dm}= \frac{F_c}{g  \dot{m}},  (9)

gdzie g\approx 9,81 \frac{m}{s^2} jest przyśpieszeniem grawitacyjnym na powierzchni Ziemi. Natomiast, \dot{m} := \frac{dm}{dt} to strumień masy gazów wylotowych. Impuls właściwy wyrażany jest w sekundach. W celu lepszego zrozumienia definicji (9), warto rozważyć przypadek siły ciągu dany przez równanie (6), zaniedbujące przyczynek od ciśnienia wywieranego na dyszę przez gazy wylotowe. Podstawiając wyrażenie (6) do równania (9), otrzymujemy:

I_{sp} =  \frac{F_c}{g  \dot{m}} =\frac{u \dot{m}}{g  \dot{m}} = \frac{u}{g}.  (10)

W tym wyidealizowanym przypadku, impuls właściwy jest więc innym sposobem wyrażenia prędkości wyrzucanego z silnika rakietowego czynnika roboczego (spalin).

spacex_its_raptor_engine_by_william_black-dajqa73
Podstawowe parametry silnika rakietowego Raptor firmy SpaceX. Źródło

Jako przykład zastosowania wprowadzonych powyżej wielkości, rozważmy przygotowywany przez firmę SpaceX silnik Raptor. Silnik ten znajdzie zastosowanie w rakiecie Big Falcon Rocket (BFR),  która zostanie wykorzystana do lotów na Księżyc oraz na Marsa.  Silnik Raptor wykorzystuje jako paliwo ciekły metan, który wraz z ciekłym tlenem (pełniącym rolę utleniacza) tworzy tak zwany Methalox, o który pisałem w artykule Kosmiczna stacja paliw.

W przypadku silnika Raptor, planowany impuls właściwy na powierzchni Ziemi ma wynosić I_{sp} \approx 334 s, zaś siła ciągu tego silnika ma sięgać F_c \approx 3000 kN = 3 MN. Na tej podstawie, możemy oszacować masę wyrzucanego, w każdej sekundzie, czynnika roboczego (tzw. strumień masy). Posługując się równaniem (9), otrzymujemy:

\dot{m} = \frac{F_c}{I_{sp} g} \approx  900 \frac{kg}{s}.

A więc, w każdej sekundzie pracy, z jednego  silnika wyrzucana jest prawie tona spalin, generujących ciąg rakiety. Pierwszy człon rakiety BFR ma mieć aż 31 takie silniki (we wcześniejszych planach liczba ta wynosiła 42). Mieszczące się, w pierwszym członie rakiety BFR około 3000 ton mieszanki paliwowej, pozwolą więc na pracę silników przez około dwie minuty pracy,  przy pełnym ciągu.  Ponadto, wykorzystując równanie (10) możemy oszacować prędkość gazów wylotowych

u \approx I_{sp}g \approx 3300 \frac{m}{s},

czyli około 10 M. Warto podkreślić, że prędkość ta stanowi jedynie około 10^{-5} prędkości światła (c \approx 300\ 000\ 000 \frac{m}{s}). Dużo większe prędkości wyrzucanej materii, a tym samym większe impulsy właściwe osiągane są w przypadku silników jonowych lub plazmowych. W ich przypadku, impuls właściwy może osiągać wartość kilku tysięcy sekund. Idąc dalej, coraz śmielej brane są obecnie pod uwagę silniki w których czynnikiem roboczym jest promieniowanie powstałe w wyniku anihilacji materii z antymaterią. Czyli tak zwane silniki na antymaterię, w których źródłem zmiany pędu rakiety są fotony poruszające się z prędkością światła (i posiadające pęd p = \hslash \omega). Taki czynnik roboczy wymaga jednakże uwzględnienia efektów relatywistycznych, przewidywanych przez szczególną teorią względności Einsteina. W konsekwencji, w przypadku takim, wyprowadzone powyżej równanie Ciołkowskiego, należy zmodyfikować do tak zwanego równania rakiety relatywistycznej.  To jednak nie koniec podróży w jaką może nas zabrać studiowanie fizyki silników rakietowych. Rozważania egzotycznych napędów rakietowych, takich jak chociażby napęd Alcubierre’a, są fantastyczną okazją do zagłębienia się we współczesną fizykę teoretyczną, czyli fizykę świata przyszłości.

© Jakub Mielczarek

Dualizm grawitacyjno-kwantowy

Nasza percepcja rzeczywistości nie zawsze jest jednoznaczna. Wyraźnym tego przykładem są złudzenia optyczne. Przyglądając się obrazom niejednoznacznym mózg przełącza się pomiędzy dwiema (lub więcej) równoważnymi interpretacjami postrzeganego wycinka rzeczywistości. W przypadku wazy Rubina, umysł tworzy dwa równoprawne modele rzeczywistości: obraz wazy i obraz twarzy. 

RubinVase
Waza Rubina – przykład obrazu niejednoznacznego. Źródło

W fizyce teoretycznej, opis rzeczywistości dostarczany jest przez teorie i modele matematyczne.  Zdarza się, że analogicznie do przywołanego przykładu iluzji optycznej, teoretyczny opis rzeczywistości nie jest jednoznaczny. Znanym przykładem takiej dwuznaczności jest dualizm korpuskularno-falowy, opisany przez Louisa de Broglie’a w 1924-tym roku.  Dualizm ten nakazuje traktować materię (np. elektrony) równocześnie jako cząstki i fale. Oba obrazy są  prawdziwe. Ujawniają się jednakże w zależności od tego jaki eksperyment przeprowadzamy. Dla przykładu, rozpraszając elektron na siatce dyfrakcyjnej, zachowa się on jak fala. Jednakże, pozostawiając następnie punktowy ślad na ekranie, odzwierciedlona zostanie jego korpuskularna natura. Mechanika kwantowa pozwala nam opisać to zachowanie w sposób ilościowy.

Falowa natura materii związana jest z istnieniem tak zwanej funkcji falowej. Dla danego układu fizycznego (np. dyskutowanego powyżej elektronu), postać funkcji falowej możemy określić rozwiązując równanie Schrödingera. Jest to podstawowe równanie mechaniki kwantowej. Kluczową własnością równania  Schrödingera jest jego liniowość. Oznacza to, że jeśli znajdziemy dwa rozwiązania równania Schrödingera to ich tzw. kwantowa superpozycja również stanowić będzie dobre rozwiązanie.  W szczególności, w świecie kwantowym, układy fizyczne mogą występować jako superpozycje rozwiązań o różnych energiach. To co jednak odróżnia mechanikę kwantową od innych teorii opisywanych przez równania liniowe (np. elektrodynamika), to fakt, iż superpozycje kwantowe rozwiązań nie są obserwowalne. Mianowicie, pomiar (w tym przypadku energii) powoduje redukcję funkcji falowej układu do jednego ze stanów kwantowych o dobrze określonej energii.

W przypadku układów wielocząstkowych, superpozycja stanów kwantowych prowadzi do występowania tak zwanego splątania kwantowego. Własność ta przejawia się jako szczególny typ korelacji pomiędzy podukładami, nie dający się wytłumaczyć bez odwołania do mechaniki kwantowej. Rozwijany współcześnie sposób opisu struktury splątania kwantowego pomiędzy cząsteczkami opiera się na tak zwanych sieciach tensorowych (ang. tensor networks). Sieć tensorowa jest grafem który, można powiedzieć, tworzy przestrzeń splątania kwantowego.  Szczególnym przypadkiem, ważnym z punktu widzenia dalszej dyskusji, jest tak zwana sieć tensorowa MERA (Multi-scale Entanglement Renormalization Ansatz).

Zupełnie przypadkowo, w 2009-tym roku, zajmujący się kwantowymi układami wielu ciał Brian Swingle z MIT zauważył, że struktura geometryczna sieci tensorowych typu MERA łudząco przypomina przestrzeń anty de Sittera (AdS). Swoje wyniki opisał w pracy Entanglement Renormalization and Holography, opublikowanej w roku 2012-tym. Dalsze badania pokazały, że podobieństwo to jest głębsze i odzwierciedla się, w szczególności, w zgodności przewidywań dotyczących entropii splątania kwantowego, czyli miary niewiedzy o splątaniu kwantowym pomiędzy dwoma podukładami (dysponując możliwością wykonywania pomiarów tylko na jednym z nich). Okazało się, że entropia splątania kwantowego dla układu kwantowego opisywanego przez sieć tensorową MERA jest zgodna z hipotezą Ryu-Takayanagi, wskazującą na związek pomiędzy entropią splątania kwantowego a wielkościami geometrycznymi.

TensorNetwork
Korespondencja AdS/CFT jako przykład dualizmu pomiędzy układem kwantowym (boundary) a geometrią splątania kwantowego (bulk), opisywaną przez sieć tensorową. Źródło

Przestrzeń AdS odgrywa szczególna rolę we wprowadzonej, w 1997 roku, przez Juana Maldacenę, korespondencji AdS/CFT. Korespondencja ta mówi, że kwantowe korelacje szczególnego typu systemu kwantowego jakim jest kwantowa konforemna teoria pola (ang. Conformal Field Theory (CFT)) zdefiniowanej na tak zwanym brzegu (ang. boundary) opisywane są przez geometrię przestrzeni AdS, wewnątrz tego obszaru (tzw. bulk). Opisy CFT (boundary) i AdS (bulk) są sobie równoważne i dostarczają przykładu dualizmu holograficznego. Oznacza to, że układ we wnętrzu (bulk), o wymiarze d, opisywany jest przez fizykę na brzegu (który ma wymiar d-1).  Wyżej wymiarowe  wnętrze można więc obrazowo uznać za hologram niżej wymiarowego świata na brzegu.   

Przez lata od jej odkrycia, fizycy teoretycy stosowali korespondencję AdS/CFT, nie będąc pewnymi dlaczego w ogóle ma ona szansę działać. Wynik Swingle’a dostarczył nowego zrozumienia fizyki stojącej za odkryciem Maldaceny. Mianowicie, konforemna teoria pola (CFT) jest przykładem układu kwantowego, którego geometria splątania kwantowego opisywana jest właśnie przez przestrzeń AdS. Przestrzeń AdS, w ramach korespondencji AdS/CFT, można uznać za ciągłą granicę sieci tensorowej opisującej stan kwantowy rozważanego układu.  

W międzyczasie, Leonard Susskind z Uniwersytetu Stanforda zaproponował tzw. hipotezę ER=EPR. Relacja ta utożsamia tak zwany tunel czasoprzestrzenny Einsteina-Rosena (ER) z układem maksymalnie splątanych kwantowo par cząstek, czyli par  Einsteina-Podolskyego-Rosena (EPR). Jak pokazano, wzrost splątania kwantowego układu par EPR pokrywa się z ewolucją objętości tunelu Einsteina-Rosena. Dostarczyło to kolejnego przykładu na to, że struktura splątania kwantowego może być opisywana przez rozwiązania Ogólnej Teorii Względności (OTW).

Powyżej opisane dwa przykłady, jak i szereg dalszej ewidencji, skłaniają fizyków teoretyków do przypuszczenia, że mamy do czynienia z bardziej ogólną własnością. Mianowicie, możemy postawić hipotezę, że dla każdego układu kwantowego, struktura splątania kwantowego opisywana jest przez rozwiązania Ogólnej Teorii Względności. Ponieważ superpozycja i splątania kwantowe (opisywane, jak przypuszczamy, przez rozwiązania OTW) stanowią esencję mechaniki kwantowej, możemy spróbować te dwie fundamentalne teorie do siebie przyrównać. W tym celu, Leonard Susskind posłużył się, w swoim ubiegłorocznym artykule, określeniem GR=QM (General Relativity = Quantum Mechanics). Ponieważ temat jest wciąż bardzo świeży, nie zdążył powstać jeszcze polski odpowiednik nazwy dla tej niezwykłej (wciąż jednak jeszcze hipotetycznej) dwuznaczności rzeczywistości. Z przyczyn praktycznych, pozwolę więc posłużyć się dalej roboczym terminem: dualizm grawitacyjno-kwantowy.

Dualizm  grawitacyjno-kwantowy jest radykalnie nowym spojrzeniem na relację pomiędzy mechaniką kwantową a teorią grawitacji. Teorie te, od blisko już stu lat, z różnym skutkiem,  próbuje się połączyć w ramach tak zwanej kwantowej teorii grawitacji. Nowo kształtujący się dualizm stawia próbę powiązania tych dwóch teorii w zupełnie nowym świetle. Jakkolwiek śmiało by to nie brzmiało, OTW i mechanika kwantowa wydają się opisywać tą samą fizyką. Stwierdzenie to poparte jest konkretnymi przykładami, przytoczonymi powyżej.  

Piękne jest to, że idea dualizmu grawitacyjno-kwantowego jest tak łatwa do wyartykułowania: Splątanie kwantowe, stanowiące istotę mechaniki kwantowej, może być opisywane przez rozmaitości różniczkowe, będące rozwiązaniami równań OTW. Przy czym, rozważany układ kwantowy  zdefiniowany jest na brzegu danej przestrzeni (rozmaitości).  Ponadto, jak wskazują najnowsze publikacje, równania Einsteina prawdopodobnie można wyprowadzić wprost z  własności splątania kwantowego!

Niewykluczone jest więc, że dowolny (jednakże odpowiednio duży) układ kwantowy możemy związać z przestrzenią splątania (bulkiem), której geometria opisywana jest przez rozwiązania równań OTW. Czy geometria ta jest fizyczna? Ponieważ możliwe jest, dokonując pomiarów kwantowego układu na brzegu, określenie struktury geometrii splatania, możemy na to pytanie odpowiedzieć twierdząco: przestrzeń splątania kwantowego układu jest tak samo fizyczna jak sam układ.   Czy więc to co nazywamy (czaso)przestrzenią jest niczym innym jak strukturą splątania pewnego układu kwantowego? Dualizm grawitacyjno-kwantowy daje wsparcie dla takiej możliwości.

Rzeczywistość zdaje się odsłaniać przed nami nowy obraz niejednoznaczny. Możemy mówić o kwantowych cząstkach nie odwołując się do (klasycznej) geometrii splątania kwantowego. Z drugiej strony, wolno nam rozpatrywać geometrię splątania kwantowego (opisywaną przez OTW) bez wprowadzania pojęcia cząstek na brzegu. W ramach dualizmu grawitacyjno-kwantowego, te dwa sposoby postrzegania rzeczywistości są równoważne.

© Jakub Mielczarek

Kwantowa łączność satelitarna

W 2012-tym roku, dzięki Fundacji na rzecz Nauki Polskiej, miałem wielką przyjemność uczestniczyć w Spotkaniu Laureatów Nagrody Nobla w dziedzinie fizyki w Lindau.  Jednym z mecenasów spotkania w Lindau był Singapur, reprezentowany przez ówczesnego prezydenta (fizyka i matematyka) Tony’ego Tana. Singapur to malutkie państwo-miasto nie posiadające własnych zasobów naturalnych. Charakteryzujące się jednak bardzo dynamiczną i nowoczesną gospodarką opartą na usługach i rozwoju zaawansowanych technologii. Kluczowym elementem polityki Singapuru jest kierowanie dużych nakładów finansowych na badania naukowe. Jako przykład osiągnięć w dziedzinie nauki, które mogą mieć praktyczne zastosowanie zaprezentowano wyniki Centrum Technologii Kwantowych na Uniwersytecie w Singapurze. Dyrektor tego instytutu, prof. Artur Ekert, przedstawił pomysł stworzenia satelitarnego systemu przesyłania informacji wykorzystującego kryptografię kwantową. Był to wtedy, z technicznego punktu widzenia, niezwykle ambitny projekt, wręcz futurystyczny. Jednak, jak zaprezentowano podczas spotkania, udało się już zbudować pierwsze prototypowe elementy takiego systemu. Projekt  ten wybrano do prezentacji w Linadu nie bez przyczyny. To w realizację takich pomysłów każdy z uczestników spotkania bez wahania chciałby się włączyć. A Singapur właśnie na takich ludzi liczył by zasilili zaplecze naukowe swojej nowoczesnej gospodarki.

W 2017-tym roku, pięć lat po mojej wizycie w Lindau,  marzenie o kwantowej łączności satelitarnej ziściło się. Stało się to jednak nie za sprawą Singapuru lecz Chin, które mogły pozwolić sobie na znacznie większe zaangażowanie finansowe w realizację tego celu. Sam koszt budowy, wykorzystanej do  przeprowadzenia kwantowej komunikacji, satelity Micius pochłonął kwotę około 100 milionów dolarów. Satelita ten został wyposażony w specjalny transmiter umożliwiający przeprowadzenie tak zwanej Kwantowej Dystrybucji Klucza (KDK) (ang. Quantum Key Distribution (QKD)).  KDK jest podstawowym narzędziem w kryptografii kwantowej, zapewniającym bezwarunkowe zabezpieczenie  przekazu informacji. Odporność na ataki wynika tutaj wprost z zasad mechaniki kwantowej. 

Wytłumaczę trochę dokładniej jak to działa. Mianowicie, podstawowym problemem związanym z bezpieczną wymianą informacji jest przekazanie klucza który służy do zaszyfrowania i odszyfrowania wiadomości (w ramach kryptografii symetrycznej ten sam klucz jest wykorzystywany zarówno do zaszyfrowania jak i odszyfrowania wiadomości). Idealną sytuacją jest gdy może nastąpić bezpośrednia wymiana takiego klucza. Jest to jednak bardzo niepraktyczne rozwiązanie, stosowane aczkolwiek do zabezpieczania najwrażliwszego typu informacji. Powszechnie wykorzystuje się natomiast tak zwaną kryptografię asymetryczną, opartą na kluczu publicznym oraz prywatnym.  Metodę tę stosujemy (nieświadomie) każdego dnia korzystając z kart płatniczych czy też dokonując zakupów w internecie. Jednakże, dostępne w przyszłości moce obliczeniowe oraz algorytmy kwantowe bez trudu poradzą sobie z pokonaniem dzisiejszych zabezpieczeń opartych o klucz publiczny. Rodzi to uzasadnione obawy, że na przykład zaszyfrowane cenne dane będą przechowywane i rozszyfrowane w przyszłości.

Kwantowa dystrybucja klucza dostarcza metody (teoretycznie) całkowicie bezpiecznego przekazania klucza dla systemów kryptografii symetrycznej. W metodzie tej, klucz w postaci ciągu bitów, kodowany jest za pomocą stanów kwantowych. W praktyce, wykorzystywane są do tego celu pojedyncze kwanty światła, czyli fotony. Każdy bit odpowiada pewnej ustalonej superpozycji dwóch możliwych polaryzacji światła. Podstawową  własnością mechaniki kwantowej jest to, że dokonanie pomiaru redukuje stan kwantowy do jednego ze stanów bazowych. W rozważanym przypadku, stany bazowe odpowiadają dwóm polaryzacjom fotonu. Każda próba przechwycenia przesyłanej w ten sposób informacji (wiążąca się z wykonaniem pomiaru na stanie kwantowym) może być więc bez trudu wykryta. Służą do tego celu odpowiednie protokoły kwantowej dystrybucji klucza. Pierwszym, wynalezionym jeszcze w 1984-tym roku protokołem tego typu jest  BB84 (Bennett-Brassard 1984). Satelita Micius realizuje KDK właśnie w oparciu o protokół BB84, w konfiguracji downlink. Oznacza to, że satelita traktowana jest jako tak zwany zaufany dystrybutor klucza, umożliwiający stacjom naziemnym zaszyfrowanie i odszyfrowanie wiadomości. Pojedyncze fotony, niezbędne do realizacji KDK,  przygotowywane są przez złożony układ optyczny umieszczony w satelicie.  Wartym podkreślenia jest to, że sama zaszyfrowana wiadomość nie jest transmitowana przez kanał kwantowy lecz poprzez łącze radiowe. Przesyłanie informacji w postaci kwantowej jest nieefektywne i służy wyłącznie do przekazania klucza.

Szczegóły przeprowadzonych, pomiędzy majem a lipcem 2017-tego roku, udanych międzykontynentalnych kwantowych dystrybucji klucza zaprezentowano w artykule opublikowanym w styczniu bieżącego roku na łamach Physical Review Letters [arXiv:1801.04418]. W wykonanych eksperymentach, satelitę Micius orbitującą Ziemię na wysokości około 500 km wykorzystano jako zaufanego dystrybutora klucza do stacji naziemnych, zlokalizowanych w Xinglong w Chinach i  w Graz w Austrii.

realworldint
Ilustracja stacji naziemnych między którymi nastąpiła zaszyfrowana łączność, wykorzystująca kwantową dystrybucję klucza zrealizowaną przez satelitę MiciusŹródło

Zrealizowano dwa testy demonstrujące poprawną pracę systemu. Test pierwszy polegał na przesłaniu zaszyfrowanych, za pomocą szyfru z kluczem jednorazowym (ang. one-time-pad), niewielkich obrazów o rozmiarach kilku kB każdy. Z Chin do Austrii przesłano obrazek przedstawiający chińskiego filozofa Mo Di (od Niego pochodzi nazwa satelity Micius), natomiast z Austrii do Chin przesłano zdjęcie jednego z ojców mechaniki kwantowej Erwina Schrödingera. Klucz potrzebny do zaszyfrowania oraz odszyfrowania wiadomości udostępniła, poprzez kwantową dystrybucję klucza, satelita Micius.  Wykorzystanie  szyfru z kluczem jednorazowym, który jest najsilniejszym sposobem szyfrowania, wymaga użycia klucza o tej samej ilości bitów co wiadomość. Jest więc on z jednej strony bardzo niepraktyczny ale w zamian gwarantuje (przy poprawnym użyciu) stuprocentowe bezpieczeństwo przesyłanej informacji. Dlatego też jest on stosowany w przypadku wiadomości o najwyższej klauzuli tajności. 

Przesłanie zaszyfrowanych zdjęć przebiegło w następujący sposób: Satelita Micius, za pomocą protokołu KDK, udostępnił klucz zarówno nadawcy jak i odbiorcy wiadomości. Klucz musiał mieć w tym przypadku rozmiar przesyłanej wiadomości, czyli kilka kB.

medium
Przekaz wiadomości w oparciu o szyfr z kluczem jednorazowym (one-time-pad) wykorzystującym operację XOR. Klucz został udostępniony nadawcy i odbiorcy za pomocą protokołu KDK. Źródło

Obraz w formacie JPG zapisano w postaci mapy bitowej (matryca zer i jedynek) tworząc w ten sposób wiadomość binarną. Następnie, pomiędzy bitami wiadomości a bitami klucza, nadawca wykonał operację alternatywy rozłącznej XOR (reprezentowanej przez symbol  \bigoplus, to dlaczego stosuję się tutaj operację XOR jest prosto wytłumaczone w niniejszym linku).  W ten sposób, powstał szyfrogram który następnie został wysłany przez satelitarne łącze radiowe do odbiorcy. Otrzymany przez odbiorcę szyfrogram w postaci ciągu bitów złożono, ponownie poprzez spójnik logiczny XOR, z kluczem. W ten sposób odszyfrowana została oryginalna wiadomość.

Test drugi polegał na przeprowadzeniu telekonferencji pomiędzy Chińską Akademią Nauk a jej austriackim odpowiednikiem, podczas której przesył informacji przez klasyczne łącze radiowe zaszyfrowany został z wykorzystaniem kluczy udostępnionych przez satelitę Micius. Zastosowanie szyfru z kluczem jednorazowym do transmisji wideo nie byłoby możliwe. Dlatego też wykorzystano metodę która wymaga mniejszych rozmiarów klucza. Posłużono się mianowicie symetrycznym szyfrem blokowym Advanced Encryption Standard (AES)-182, certyfikowanym przez National Security Agency do szyfrowania ściśle tajnych informacji.  Dla przykładu, w oparciu o AES, ale z kluczem o długości 256 bitów,  pracuje popularny  serwis Boxcryptor (wcześniej znany jako Cloudfogger). W celu zapewnienia odpowiedniego poziomu zabezpieczenia, w trakcie 75 minutowej telekonferencji, zmiana 128-bitowego klucza następowała co jedną sekundę.  Szyfrowanie transmisji wymagało więc łącznie przesłania około 70 kB danych poprzez kanał kwantowy. 

Dlaczego opisane powyżej wyniki są tak ważne? Przyczynę związaną z bezpieczeństwem przesyłu informacji zarysowałem już częściowo powyżej. Natomiast, wyjaśnienia wymaga kwestia wykorzystania do tego celu przestrzeni kosmicznej. Dlaczego nie przesłać fotonów przez światłowód, jak to ma miejsce w standardowych łączach internetowych? Otóż, istnieją istotne ograniczenia związane z realizacją  kwantowej dystrybucji klucza przez łącza światłowodowe. W przypadku klasycznej transmisji światłowodowej, tłumienie sygnału na dużych odległościach możemy kompensować przez stosowanie odpowiednich wzmacniaczy sygnału. Mamy tu jednak do czynienia z pakietami falowymi fotonów które zachowują się w sposób klasyczny. W przypadku KDK, klucz przekazywany jest za pomocą pojedynczych fotonów, które zachowują się w sposób kwantowy. Z uwagi na obowiązujący w mechanice kwantowej tak zwany zakaz klonowania kwantowego, nie jest możliwie, w przypadku pojedynczych kwantów światła, przeprowadzenie prostego wzmocnienia sygnału. Można natomiast zastosować tak zwane kwantowe powielacze (ang. quantum repeaters), opierające swoje działanie o pamięć kwantową oraz protokół teleportacji kwantowej.  Są to bardzo skomplikowane układy. Jednakże nawet ich zastosowanie pozwala obecnie na realizację KDK na odległościach maksymalnie około 300 km.  Wykorzystanie przestrzeni kosmicznej staje się w tej sytuacji idealnym rozwiązaniem. Mianowicie, dla fotonów podróżujących  przez atmosferę i próżnię zarówno osłabienie sygnału jak i jego dekoherencja są wielokrotnie słabsze niż w przypadku światłowodów.  Kosmos jest więc obecnie nie tyle możliwością do realizacji  dalekodystansowej kwantowej dystrybucji klucza ale wręcz koniecznością.

Dalszy kierunek rozwoju technologii satelitarnej KDK to utworzenie międzykontynentalnej sieci łączności kwantowej. Sieć taką przyjęło się określać mianem internetu kwantowego. Internet kwantowy, o którym napiszę kiedyś bardziej szczegółowo,  będzie pozwalał na bezpieczne przesyłanie informacji na dużych odległościach na lądzie, jak i następnie w powietrzu i na wodzie. System znajdzie zastosowanie wszędzie tam gdzie potrzebny jest najwyższy poziom ochrony przekazywanej informacji. Czyli wyjściowo będą to głównie obszary takie jak: finanse, obronność, handel czy medycyna.  Nie będzie również przeszkodą „przeciągnięcia” kwantowego internetu poza Ziemię. Kosmiczna próżnia jest wszak idealnym medium do przesyłania informacji kwantowej. 

Wróćmy jednak na koniec na Ziemię. Posiadanie technologii satelitarnej KDK pozwoli Chinom wypracować realną przewagę na gruncie militarnym. Przykładowo, z pomocą satelitarnej KDK możliwe będzie wysyłanie rozkazów do łodzi podwodnych czy też lotniskowca/ców stacjonujących na Oceanie Spokojnym, bez obawy o przechwycenie tajnych informacji przez systemy nasłuchu innych państw i ich pomyślną kryptoanalizę.  Posiadanie tej technologii, w perspektywie kliku/kilkunastu lat, może realnie ułatwić Chinom  realizację swoich strategicznych celów. A chociażby z przykładu Enigmy dobrze wiemy, że od kryptografii mogą zależeć losy Świata. 

© Jakub Mielczarek

Stany skupienia grawitacji

Ogólna Teoria Względności Einsteina przyzwyczaiła nas do myślenia o grawitacji w języku geometrycznej struktury jaką jest czterowymiarowa czasoprzestrzeń. Jednakże, coraz  większa liczba wyników badań nad kwantową naturą oddziaływań grawitacyjnych wskazuje na możliwość występowania różnych faz (stanów skupienia) pola grawitacyjnego. Czasoprzestrzenny stan skupienia jest jedną z kilku możliwości jakie obecnie znamy.

Czy ta różnorodność fazowa grawitacji powinna nas dziwić? Absolutnie nie. Występowanie faz jest jedną z podstawowych własności  układów złożonych (ang. complex systems). Połączenie dużej ilości stopni swobody (np. cząsteczek) oraz wprowadzenie pomiędzy nimi nieliniowego oddziaływania w sposób nieodłączny wiąże się z występowaniem jakościowo różnych sposobów wewnętrznej organizacji takiego układu, czyli faz. Ponadto, fazy te rozdzielone są przez ostre granice zwane przejściami fazowymi. Zachowanie to dotyczy nie tylko systemów dyskretnych ale również ciągłych układów fizycznych jakimi są pola  samooddziałujące (przykładem takiego pola jest pole grawitacyjne).

Z kwantowego punktu widzenia, pole grawitacyjne należy uznać za przykład układu złożonego czy też układu wielociałowego (ang. many-body system). „Atomy” przestrzeni lub czasoprzestrzeni, które wyłaniają się z kwantowych teorii grawitacji, mogą, poprzez

scientificamerican1008-44-I3
„Atomy” przestrzeni w Pętlowej Grawitacji Kwantowej. Źródło

wzajemne oddziaływanie, tworzyć makroskopowe konfiguracje o jakościowo różnych własnościach. W zależności od warunków w których znajdzie się pole grawitacyjne, może przyjąć ono jedną z kilku zidentyfikowanych dotychczas teoretycznie faz. Jest to zachowanie analogiczne do przypadku zbioru cząsteczek H_2O, który w zależności od temperatury otoczenia i zajmowanej objętości utworzy jeden z trzech stanów skupienia: ciekły, stały (lód) lub gazowy (para wodna).

Nic nie stoi na przeszkodzie by przeprowadzić stosowne eksperymenty i zaobserwować stany skupienia wody. Dla grawitacji,  z uwagi na niezwykle słabe sprzężenie pomiędzy materią a polem grawitacyjnym, taka możliwość obecnie nie istnieje. Wytworzenie stanów pola grawitacyjnego w których moglibyśmy spodziewać się wystąpienia nowej fazy wymagałoby ekstremalnych gęstości energii, prawdopodobnie możliwych do osiągnięcia jedynie w bardzo wczesnym Wszechświecie lub we wnętrzach czarnych dziur. Teoretyczna analiza struktury fazowej grawitacji jest również zadaniem niełatwym. Problem polega na tym, że zazwyczaj w badaniach nad kwantową grawitacją rozpatrujemy funkcję (np. hamiltonian) opisującą oddziaływanie pomiędzy pojedynczymi kwantami („atomami”) pola grawitacyjnego. Z analizy samej postaci tej funkcji praktycznie niemożliwe jest wyciągnięcie wniosków dotyczących struktury fazowej rozważanego układu. Wiąże się to z faktem, iż występowanie faz jest przykładem zjawiska emergentnego. Na tej samej zasadzie, znajomość potencjału oddziaływania pomiędzy dwiema cząsteczkami wody nie mówi nam jeszcze nic o stanach skupienia wody które wyłonią się w makroskopowych układach takich cząsteczek.

Jak więc możemy sobie z tym problemem poradzić? Istnieją dwie główne drogi: symulacje wielociałowe kwantowej grawitacji oraz teoria renormalizacji, której zastosowanie może również wymagać przeprowadzenia symulacji.  Przybliżę tutaj podejście pierwsze. Najbardziej zaawansowane badania tego typu prowadzi się obecnie w ramach tak zwanych Kauzalnych Dynamicznych Triangulacjami (ang. Causal Dynamical Triangulations – CDT).  Wyniki najnowszych badań w ramach CDT wskazują na występowanie trzech lub

pd
Trzy fazy czterowymiarowej grawitacji w CDT. Źródło

czterech (w zależności od tego jaki  tzw. parametr porządku jest badany) faz grawitacji. Jedną z nich jest geometryczna faza C opisująca, na odpowiednio dużych skalach, czterowymiarowy Wszechświat, zgodny  z OTW.  Zaobserwowano również sub-fazę fazy C w której ujawniają się pewne nowe, niegeometryczne własności, jak również zidentyfikowano dwie dodatkowe fazy A i B. W fazie A, pole grawitacyjne przyjmuje formę charakteryzującą się fraktalną strukturą polimerową (tzw. branched polymer). Natomiast, faza B (tzw. crumpled phase) wyróżnia się dążącą do nieskończoności liczbą wymiarów, odzwierciedlającą wysoką ilość połączeń pomiędzy tak zwanymi sympleksami, z których zbudowana jest konfiguracja pola grawitacyjnego. W fazie tej, wszystkie „atomy” czasoprzestrzeni stają się swoimi sąsiadami. Jest to zachowanie zupełnie odmiennie do tego obserwowanego w fazie geometrycznej w której każdy sympleks ma małą i średnio taką samą liczbę sąsiadów.  Dzięki tej własności, w fazie C, dobrze określone jest pojęcie lokalności, możemy wprowadzić układ współrzędnych i w konsekwencji dokonać interpretacji konfiguracji pola w języku czasoprzestrzeni. Taka interpretacja nie jest możliwa w zbitej fazie B, dlatego też określamy ją mianem fazy niegeometrycznej. Istnienie tego typu stanu grawitacji wyłoniło się również z symulacji przeprowadzonych w podejściu zwanym Quantum Graphity. W rozważanych modelach, zaobserwowano przejście fazowe od fazy niegeometrycznej do fazy geometrycznej wraz z obniżaniem temperatury układu. Proces taki przyjęło się określać mianem geometrogenezy.

Rodzi się oczywiście pytanie czy niegeometryczne stany skupienia grawitacji, takie jak obserwowane w CDT fazy A i B występują lub występowały gdzieś w naszym Wszechświecie? Tak jak już wspomniałem, z uwagi na to, że wytworzenie takich faz wymagałoby użycia ekstremalnych wartości energii, prawdopodobnie jedynymi miejscami gdzie możemy ich poszukiwać są albo wnętrza czarnych dziur lub też bardzo wczesne etapy ewolucji Wszechświata. Empiryczne badanie wnętrz czarnych dziur, na obecnym poziomie zrozumienia fizyki czarnych dziur, nie jest możliwe. Pozostaje jedynie szansa w obserwacjach kosmologicznych. Rozważa się modele w których w epoce Plancka zachodzi wspomniana geometrogeneza z fazy crumpled do fazy geometrycznej. Co więcej,  związane z tym przejście fazowe może cechować się tak zwanym zachowaniem krytycznym. To zaś może prowadzić do generowania pierwotnych zaburzeń kosmologicznych oraz, poprzez  mechanizm Kibble’a-Zurka, do tworzenia grawitacyjnych defektów topologicznych. Rysuje to pewne nadzieje odnośnie możliwości empirycznego badania fazowej różnorodności grawitacji. Jest to jednakże zagadnienie niezwykle zawiłe i prawdopodobnie ostatecznie będzie możliwe uzyskanie jedynie pewnych słabych ograniczeń obserwacyjnych. Dlatego też, podstawowym narzędziem do badania stanów skupienia grawitacji pozostają dalsze eksperymenty numeryczne z wykorzystaniem coraz to lepszych algorytmów i sprzętu komputerowego.

Chciałbym na koniec pokreślić, że zagadnienie struktury fazowej grawitacji jest dużo szersze niż tu omówiono i było w ostatnim czasie przedmiotem wielu analiz w ramach niezależnych podejściach do kwantowej grawitacji. Z konieczności, musiałem ograniczyć się tutaj do przytoczenia zaledwie kilku wybranych wyników. Dalsze przykłady można znaleźć w artykule Spacetime as a quantum many-body system  oraz w artykule Towards the map of quantum gravity (w rozdziale Phases of gravity i w literaturze tam cytowanej).

© Jakub Mielczarek

O symulacjach ludzkiego mózgu

Przeprowadzenie pełnej symulacji komputerowej ludzkiego mózgu wydaje się najprostszą drogą do osiągnięcia tak zwanej silnej sztucznej inteligencji (ang. artificial general intelligence – AGI). Mówiąc precyzyjniej, w tym przypadku należałoby dokonać emulacji mózgu, co wiązałoby się ze ścisłym odwzorowaniem (w ramach symulacji) struktury połączeń neuronalnych, wag synaptycznych oraz innych szczegółów morfologicznych pojedynczych neuronów i mózgu konkretnej osoby. Zagadnienie pozyskiwania danych wejściowych do emulacji mózgu jest obszerne i opiszę je niezależnie. Natomiast, tutaj chciałbym się skoncentrować na przeanalizowaniu aspektów obliczeniowych związanych z przeprowadzeniem symulacji mózgu ludzkiego.

Podstawową jednostką przetwarzającą informacje w mózgu jest neuron. Typowo, mózg dorosłego człowieka zawiera niecałe 10^{11} neuronów i około 10^{14} połączeń synaptycznych (po około 100 synaps na jeden neuron). Każde połączenie synaptyczne ma określoną siłę, którą w modelu neuronu określa tak zwana waga synaptyczna.  Poniżej skoncentrujemy się na modelu mózgu uwzględniającego dwa główne aspekty przetwarzania informacji, mianowicie plastyczność (ustalanie wag synaptycznych) oraz występowanie potencjałów czynnościowych  (tzw. spikes).

Chcąc przeprowadzić symulację mózgu należy zacząć od zdefiniowania modelu matematycznego pojedynczego neuronu. Neuron jest  skomplikowaną komórką, przetwarzający sygnały elektrochemiczne poprzez złożone procesy fizykochemiczne zachodzące w jego błonie komórkowej. Zachowanie potencjału czynnościowego neuronu, kluczowego dla przetwarzania informacji w mózgu, można jednakże z dużą precyzją opisać za pomocą matematycznych modeli opierających się na analizie przewodności elektrycznej błony komórkowej.   Najbardziej znanym przykładem takiego opisu jest model Hodgkina-Huxleya. Uproszczoną wersją modelu Hodkina-Huxleya jest zaproponowany w 2003 roku przez model Eugene M. Izhikevicha, opisywany przez układ dwóch równań różniczkowych.

Model neuronu IzhinkevichaModel ten jest zredukowaną (poprzez zastosowanie metod matematycznych analizy układów dynamicznych) postacią modelu Hodkina-Huxleya. Opisywany jest przez układ dwóch równań różniczkowych:

\frac{dv}{dt}= 0,04 v^2 +5 v +140 - u +I,

\frac{du}{dt} =a(bv-u),

wraz z warunkiem resetowania neuronu po wygenerowaniu impulsu nerwowego:

jeśli v \geq 30 mV  to v \rightarrow c i u \rightarrow u+d .

W powyższych wzorach,  v jest potencjałem czynnościowym, u jest zaś zmienną pomocniczą (tzw. membrane recovery variable). Natomiast a,b,c i d są parametrami modelu. Wartość  potencjału  synaptycznego pobudzającego określona jest przez I. Zachęcam do zabawy numerycznej z powyższym modelem.

Załóżmy teraz, że chcielibyśmy przeprowadzić symulację mózgu ludzkiego opartego na neuronach opisywanych przez model Izhikevicha, rozszerzony o uwzględnienie wag synaptycznych. Zacznijmy od kwestii pamięci  potrzebnej do przeprowadzenia takiej symulacji. Przypuśćmy, że do określenia każdej z wag potrzebujemy 1 bajt (8 bitów) informacji. To rozsądna wartość gdyż 1 B pozwala nam zapisać aż 2^8=256 różnych wartości danej wagi. Mnożąc tę wartość przez liczbę połączeń synaptycznych dostajemy 100 TB. Takie ilości danych nikogo dzisiaj nie przerażają i są standardem. Nie wolno zapomnieć również o pamięci operacyjnej oraz pamięci potrzebnej do zmagazynowania informacji o samym neuronie. Dla prostych modeli neuronu może to być 1 kB  na neuron co łącznie daje również około 100 TB. Natomiast, pamięć potrzeba do symulowania mózgu na poziomie oddającym szczegóły morfologiczne pojedynczych neuronów wymagałaby wartości rzędu  100 PB (petabjatów), co odpowiadałoby około 1 MB pamięci przypadającej na pojedynczy neuron. Skale patebajtowe to wciąż dużo ale powoli się do nich przyzwyczajamy. Już cztery lata temu, dzienna aktywność na Facebooku generowała 4 petabajty danych. W skali roku są to już nawet nie setki petabajtów lecz eksobajty (1EB = 1000 PB) danych.

Przejdźmy teraz do mocy obliczeniowej. Posłużymy się tu definicją tak zwanych FLOPS-ów, czyli ilości operacji zmiennoprzecinkowych na sekundę.

FLOPS – Floating Point Operations Per Second.  To liczba operacji  na liczbach zmiennoprzecinkowych wykonywanych w trakcie sekundy przez daną jednostkę obliczeniową. Typowy rdzeń procesora wykonuje cztery takie operacje na jeden cykl, czyli 4 FLOPy. Procesor komputera na którym piszę ten tekst pracuje z częstotliwością 1,6 GHz i posiada dwa rdzenie. Każdy z rdzeni wykonuje więc 1,6 miliarda cykli na sekundę. Dostajemy stąd 4 FLOP \cdot 1,6 GHz = 6,4  GFLOP/s = 6,4 GFLOPS. Mnożąc ten wynik przez ilość rdzeni otrzymamy całkowitą moc obliczeniową mojego procesora, równą 12,8 GFLOPS (gigaflopsa).  Przykład ten łatwo uogólnić w celu wyznaczenia mocy  obliczeniowej bardziej złożonych jednostek obliczeniowych.

Model Hodkina-Huxleya wymaga około 1,2 miliona FLOPS-ów do symulacji w czasie rzeczywistym. Natomiast model Izhikevicha  jedynie 13 000 FLOPS-ów w czasie rzeczywistym. Mnożąc to przez liczbę neuronów otrzymujemy około 10^{15} FLOPS lub inaczej 1 PFLOPS (petaflops). Oparcie się na modelu Hodkina-Huxleya  wymagałoby zaś około 10^{17} FLOPS czyli 100 PFLOPS.

Dzisiejszy najlepszy superkomputer, chiński Sunway TaihuLight, dysponuje mocą właśnie około 100 PFLOPS. Najlepszy polski superkomputer Prometheus dysponuje mocą ponad 2 PFLOPS, wystarczającej więc do symulowania modelu mózgu ludzkiego

Zrzut ekranu 2018-04-20 o 01.13.18
Wykładniczy wzrost w czasie mocy obliczeniowej superkomputerów.  Zielone punty to suma mocy z listy TOP500 superkomputerów, pomarańczowe trójkąty to #1 z listy, niebieskie kwadraty to #500 z listy.   Źródło

opartego o modele neuronów Izhikevicha. Całkowita moc pięciuset najlepszych superkomputerów świata osiąga dzisiaj wartość 1000 PFLOPS. Obserwuje się, że moc obliczeniowa superkomputerów zwiększa się o czynnik około 10^3 w ciągu dekady (patrz na wykres po prawej). Ekstrapolując obecne trendy, można przewidzieć, że za 10 lat, w roku 2028 moce pojedynczych najlepszych komputerów mogą osiągać wartości 100 EFLOPS = 100 000 FLOPS, natomiast przeciętny superkomputer będzie dysponował mocą 1000 PFLOPS. Wykonywanie symulacji układów o złożoności ludzkiego mózgu nie będzie więc miało żadnych barier od strony dostępności mocy obliczeniowych. 

Żyjemy w czasach w których moce obliczeniowe pojedynczych  superkomputerów stają się wystarczające do symulowania modeli ludzkich mózgów. Nie tylko staje się to możliwe ale w coraz większym stopniu już się to dzieje. Pozwolę sobie, w tymi miejscu, przytoczyć kilka reprezentatywnych przykładów takich badań:

1) Izhikevich. W 2005-tym roku przeprowadził on symulację modelu mózgu zbudowanego z 10^{11} neuronów i 10^{15} synaps, czyli odpowiadający rozmiarami mózgowi ludzkiemu. W symulacji uwzględniono 22 typy neuronów oraz plastyczność synaptyczną zależną od opóźnienia impulsów nerwowych (tzw. STDP). Z uwagi na ograniczone dostępne moce obliczeniowe, symulacja ta nie była przeprowadzona w czasie rzeczywistym, lecz w zwolnieniu o czynnik około 10^6. W symulacji zaobserwowano m.in. spontaniczną aktywność symulowanego mózgu oraz pojawienie się aktywności neuronalnej o częstotliwości fal alfa i gamma.  

2) Human Brain Project (HBP). Celem projektu jest  pełna  symulacja mózgu ludzkiego do roku 2023.  HBP jest flagowym projektem w ramach H2020, finansowanym ze środków Unii Europejskiej.  Projekt wyspecjalizował się w symulowaniu kolumn neuronalnych. Wykorzystywane modele neuronów są niezwykle precyzyjne, natomiast dane wejściowe pochodzą z obrazowania układów biologicznych. Obecnie w projekcie wprowadzane są tak zwane komputery neuromorficzne. Najbardziej rozbudowane symulacje w ramach HBP dotyczyły około miliona neuronów, każdy o niezwykle wysokim poziomie precyzji modelowania.

3) Spaun. W 2012-tym roku przeprowadzono symulację modelu zawierającego 2.5 miliona neuronów. Symulacja została wyposażona w zmysł wzroku (poprzez jedno oko) oraz w zdolności motoryczne (poprzez ramię). Zaobserwowano zachowania podobne do ludzkich. Symulacje była w stanie przeprowadzić osiem niezależnych percepcyjnych, motorycznych i poznawczych zadań w dowolnej kolejności.

4) SyNAPSE. Finansowany przez DARPA projekt symulacji mózgu oparty o procesory neuromorficzne. W ramach tego projektu przeprowadzono symulację modelu mózgu zawierającego 500 miliardów neuronów, czyli około pięć razy więcej niż w mózgu ludzkim. Jednakże, bazowano na uproszczonych modelach neuronów, podobnych do tych wykorzystanych w symulacjach Izhikevicha. 

Największym wyzwaniem stojącym przed symulacjami ludzkiego mózgu jest obecnie wprowadzenie odpowiednich danych początkowych. Dzisiaj są one albo generowane losowo z uwzględnieniem pewnych cech architektury mózgu albo częściowo pozyskiwane z danych obrazowania tkanki mózgu zwierząt (jak to ma np. miejsce w HBP). Możemy się jednakże spodziewać, że rozwój technik zarówno inwazyjnego jak i bezinwazyjnego obrazowania tkanki mózgowej umożliwi w ciągu dekady przeprowadzenie realistycznych emulacji mózgu ludzkiego. Ale o tym, tak jak już wspomniałem, innym razem. Niecierpliwym zaś rekomenduję raport Brain Emulation: A Roadmap opublikowany, w ramach działającego na Uniwersytecie w Oksfordzie  Future of Humanity Institute, przez Andersa Sandberga i Nicka Bostroma.

Bez wątpienia, wchodzimy obecnie w epokę petabajtów jak  i petaFLOPS-ów. Są to właśnie te skale pamięci i mocy obliczeniowej które są potrzebne do przeprowadzenia realistycznych symulacji modeli ludzkiego mózgu. Symulacje te stają się na naszych oczach faktem a ich precyzja będzie rosnąć, uwzględniając coraz to większą liczbę szczegółów budowy morfologicznej mózgu i samych neuronów. Sięgając dalej w przyszłość, prowadzone symulacje wykroczą poza przypadek ludzkiego mózgu, rozszerzając jego możliwości poznawcze co w konsekwencji może urzeczywistnić ideę tak zwanej superinteligencji.

© Jakub Mielczarek

Kosmiczna stacja paliw

 

Nie każdy przyszły marsjański astronauta, tak jak ochotnicy w programie Mars One, chciałby dotrzeć do Czerwonej Planety z pustym zbiornikiem paliwa. Jednakże koszty potrzebne do przetransportowania odpowiednich ilości paliwa rakietowego na powierzchnię Marsa są ogromne. Rozwiązaniem dużo korzystniejszym ze względów ekonomicznych jak i perspektywicznym pod kątem rozwoju marsjańskiej kolonii byłoby wytworzenie paliwa rakietowego na powierzchni Marsa.

Naturalnym pierwszym kandydatem na paliwo rakietowe jest ciekły wodór, uzyskany w procesie elektrolizy wody. Marsjańska gleba bogata jest w wodę w stanie stałym. Regolit marsjański należałoby więc najpierw np. ogrzać w celu odparowania wody, po czym skroploną wodę poddać elektrolizie. Energię elektryczną potrzebną do przeprowadzenia

MarsGasStation
Wizja artystyczna instalacji do produkcji paliwa rakietowego na Marsie. Źródło

tego procesu można nietrudno pozyskać z instalacji fotowoltaicznej. Warto podkreślić, że w procesie elektrolizy wody powstaje również tlen który może być wykorzystany zarówno jako utleniacz paliwa jak i składnik mieszanki tlenowej dla astronautów.  Otrzymany w procesie elektrolizy wodór okazuje się jednak nie być optymalnym źródłem energii do napędzania, startujących z Marsa, statków kosmicznych.

Problem polega na tym, że wodór jako paliwo rakietowe, w celu zwiększenia gęstości energii, należy zmagazynować w stanie ciekłym. Utrzymywanie zaś ciekłego wodoru poniżej temperatury wrzenia jest zadaniem bardzo wymagającym. Wiąże się to z faktem, iż temperatura wrzenia wodoru jest niezwykle mała i równa (przy ciśnieniu atmosferycznym) około -253°C (20 K).  Co więcej, nawet w tych warunkach gęstość wodoru jest bardzo niska i pozostaje na poziomie  0,07 kg/litr.    Przygotowanie systemu który umożliwiłby utrzymanie wodoru w tak ekstremalnym stanie na powierzchni Marsa, przynajmniej na początkowym etapie rozwoju tamtejszej kolonii, byłoby zadaniem niesłychanie trudnym.

Z pomocą przychodzi jednakże jeszcze jeden składnik występujący dosyć obficie na Marsie, a mówiąc precyzyjniej tworzy jego atmosferę. Chodzi mianowicie o dwutlenek węgla, stanowiący około 95 % składu atmosfery, wytwarzającej na powierzchni Marsa ciśnienie około 6 hPa. Jest to ciśnienie porównywalne z tym występującym w ziemskiej stratosferze.

Wykorzystanie (uprzednio sprężonego) dwutlenku węgla w połączeniu z wodorem pozwala na przeprowadzenie tak zwanej reakcji metanacji, okrytej przez Paula Sabatiera, laureata Nagrodą Nobla w dziedzinie chemii z 1912-ego roku. Reakcja ta, zwana reakcją Sabatiera, może zostać zapisana w postaci następującego równania:

CO_2 +4H_2 \rightarrow CH_4+2H_2O.   

Reakcja powyższa przebiega w sposób optymalny w temperaturze około 300-400°C i wymaga zastosowania odpowiedniej powierzchni pełniącej funkcję katalizatora (wykonanego np. z niklu lub rutenu).

Wytworzony w procesie Sabatiera metan stanowi dobrą alternatywę dla wodoru jako paliwa rakietowego. Przechowywanie ciekłego metanu jest znacznie łatwiejsze, gdyż temperatura jego wrzenia wynosi około -162°C (111 K) co jest prawie 100 K więcej niż temperatura wrzenia wodoru. Systemy przechowywania ciekłego metanu to bardzo dobrze rozwinięta technologia, stosowana powszechnie w różnych warunkach. Wynika to z faktu, iż zyskujący na coraz większej popularności LNG (ang. liquefied natural gas) to w głównej mierze metan.  Przechowywanie LNG wymaga zastosowania zbiornika kriogenicznego utrzymujący gaz we wspomnianej temp. około -160°C. Zbiorniki takie stosowane są zarówno w autobusach zasilanych przez LNG jak i w ogromnych gazowcach. Gazowce LNG z Kataru, USA czy też Norwegii przyjmowane są w Polsce przez  Terminal LNG w Świnoujściu mogący zmagazynować 320 000 m³ LNG. 

Wykorzystanie ciekłego metanu jako paliwa rakietowego w postaci mieszanki (tzw. methalox), zawierającej ciekły tlen jako utleniacz, zapowiedziała firma SpaceX w kontekście swoich planów eksploracji Marsa. Rozwijany przez SpaceX silnik Raptor przystosowany jest właśnie do pracy oparciu o methalox.  Opracowywana rakieta

SpaceX-carbon-fiber-fuel-tank-mars-spaceship
Wykona z włókna węglowego testowa wersja zbiornika na ciekły metan oraz ciekły tlen dedykowana do rakiety BFR. Źródło

BFR ma zawierać siedem takich silników oraz zbiorniki pozwalające zmagazynować 240 000 kg ciekłego metanu oraz 860 000 kg ciekłego tlenu. Gęstość ciekłego metanu to około 423 kg/m³, co daje objętość metanu w zbiorniku rakiety BFR równą około 567 m³. Ciekły metan który można zgromadzić we wspomnianym wcześniej terminalu LNG w Świnoujściu wystarczyłby na napełnienie zbiorników ponad pięciuset rakiet BFR! 

Warto podkreślić, że opisana tutaj reakcja metanacji, oprócz aplikacji kosmicznych, ma również potencjalnie szerokie zastosowanie na Ziemi. Reakcję tę stosuje się w szczególności w eksperymentalnych systemach typu Power-to-gasktóre pozwalają magazynować nadwyżki w produkcji energii w postaci metanu. Jest to podejście szczególnie obiecujące w kontekście energii elektrycznej pozyskiwanej z farm fotowoltaicznych które wytwarzają prąd w ciągu dnia. Bodajże najbardziej rozwinięty system tego typu został opracowany przez Audi w ramach rozwijanej technologii e-gas:

Kolejna ważna własność reakcji Sabatiera to możliwość przekształcania dwutlenku węgla w wodę i metan. Nadmierna emisja dwutlenku węgla  do atmosfery jest główną przyczyną obserwowanych zmian klimatycznych.  Wyobrazić możemy sobie technologię w której dwutlenek węgla z rekcji spalania np. w elektrowni węglowej podlega bezpośredniej konwersji w metan w wyniku reakcji Sabatiera. Otrzymany metan jest zaś na przykład wprowadzany do systemu dystrybucji gazu. Proces metanacji może więc pomóc w ograniczeniu emisji CO_2 i tym samy przyczynić się do spowolnienia postępujących zmian klimatycznych. 

Zanim powstanie marsjańska stacja wytwarzania metanu wraz z kosmiczną stacją paliw, pozwalającą napełnić zbiorniki rakiet ciekłym metanem, prototypowe instalacje tego typu muszą zostać zbudowane i dokładnie przetestowane na Ziemi. Miejmy nadzieję, że jedna z pierwszych takich kosmicznych stacji paliw powstanie i będzie testowana w Polsce. Warto pokreślić, że technologie takie jak opisany tu reaktor Sabatiera pozwolą nam nie tylko zdobywać Kosmos ale mogą nam również pomóc przetrwać na Ziemi.

© Jakub Mielczarek

Wszechświat na komputerze kwantowym

Jednym z kierunków jakie rozwijam w prowadzonych przeze mnie aktualnie badaniach jest wykorzystanie komputerów kwantowych do symulowania fizyki na skali Plancka. Dla przypomnienia, długość Plancka, czyli l_{Pl} \approx 1.62 \cdot 10^{-35} m to najmniejsza, znana nam, skala fizyczna w “tkance” Wszechświata, na której istnienie wskazują rozważania teoretyczne. Fizykę opisującą rzeczywistość na skali Plancka nazywamy natomiast Kwantową Grawitacją. Niestety, z uwagi na obecny brak (pomimo wielu starań) możliwości empirycznego badania fizyki na skali Plancka, nie istnieje ugruntowana Kwantowa Teoria Grawitacji. Dysponujemy natomiast szeregiem teorii i modeli starających się uchwycić wiele aspektów kwantowej natury oddziaływań grawitacyjnych (przegląd wielu z nich można znaleźć np. w pracy Towards the map of quantum gravity).

Do kwestii empirycznego badania fizyki na skali Plancka możemy jednak podejść w trochę mniej bezpośredni sposób. Mianowicie, zakładając konkretny teoretyczny opis grawitacyjnych stopni swobody, możemy wykonać symulację rozważanego układu na skali Plancka i przeprowadzić na nim dowolne pomiary. Nie istnieją w takim przypadku ograniczenia  empiryczne wynikające z rozdzielczości urządzeń pomiarowych. Cała fizyka którą symulujemy znajduje się w pamięci superkomputera, do której posiadamy nieograniczony dostęp.  Najbardziej zaawansowane symulacje tego typu wykonuje się  obecnie w ramach podejścia zwanego Kauzalne Dynamiczne Triangulacje (ang. Causal Dynamical Triangulations – CDT).  W ramach CDT, symulowane są takie konfiguracje jak kwantowy Wszechświat zbudowany z nawet setek tysięcy elementarnych czasoprzestrzennych sympleksów.

Fig1
Kolaż obrazyjący symulowanie fizyki na skali Plancka na procesorze kwantowym. Wykorzystano zdjęcie procesora kwantowego firmy D-Wave oraz wizję artystyczną czasoprzestrzeni na skali Plancka

Symulacje o których mowa przeprowadzane są na powszechnie dzisiaj dostępnych superkomputerach klasycznych. Kwantowa natura oddziaływań grawitacyjnych musi być w związku z tym odpowiednio tłumaczona na język algorytmów klasycznych. Wykorzystanie komputerów kwantowych do symulowania kwantowej grawitacji pozwoliłoby proces ten wyeliminować. Mianowicie, symulacje układów kwantowych (takich jak kwantowa przestrzeń/czasoprzestrzeń) z wykorzystaniem komputerów kwantowych zasadniczo różni się od symulacji klasycznych. Komputery kwantowe pozwalają na “mapowanie” danego układu kwantowego na kwantowe stopnie swobony procesora kwantowego. Mówimy tu o tak zwanych dokładnych symulacjach (ang. exact simulations), które pozwalają imitować wyjściowy układ kwantowy. Z punktu widzenia mechaniki kwantowej, imitacja wytworzona na procesorze kwantowym jest równoważna oryginalnemu układowi kwantowemu.

W moim niedawnym artykule Spin networks on adiabatic quantum computer oraz eseju Quantum Gravity on a Quantum Chip,  pokazuję, że wykorzystanie dostępnego komercyjnie  tzw. kwantowego annealer’a (wyżarzacza kwantowego)   firmy D-Wave daje możliwość symulowania fizyki na skali Plancka opisywanej przez sieci spinowe. Sieci spinowe rozpinają przestrzeń Hilberta podejścia do grawitacji kwantowej zwanego Pętlową Grawitacją Kwantową (ang. Loop Quantum Gravity – LQG).  Kwantowe stopnie swobody sieci spinowej są w przypadku procesora kwantowego D-Wave imitowane z wykorzystaniem stanów qubitowych realizowanych przez nadprzewodzące obwody kwantowe (bazujące o tzw. złącza Josephsona). Jak pokazano w ramach rozważanego modelu, adiabatyczne obliczenia kwantowe umożliwiają zidentyfikowanie fizycznych stanów teorii.

Infographic.png
Infografika obrazująca reprezentację sieci spinowych w ramach architektury procesora adiabatycznego komputera kwantowego D-Wave. Szczegóły w pracy Spin networks on adiabatic quantum computer.

Jednym z ważnych zagadnień, którego zbadanie mogą pozwolić symulacje kwantowe, jest tak zwana granica semi-klasyczna, czyli obszar w którym grawitacja kwantowa koresponduje z klasyczną teorią grawitacji, czyli Ogólną Teorią Względności. Wszystko wskazuje na to, że symulacje sieci spinowych na adiabatycznym komputerze kwantowym mogą niebawem umożliwić wykonanie pierwszego kroku w tym kierunku.

Potencjał i możliwe konsekwencje symulowania fizyki na skali Plancka są jednak dużo szersze. Kwantowe symulacje mogą nie tylko okazać się praktycznym narzędziem do badania fizyki na skali Plancka ale mogą również pomóc odsłonić głębszą naturę relacji pomiędzy grawitacją a teorią informacji kwantowej (jak np. kwantowa wersja hipotezy It from bit). Bardzo ciekawa możliwość w kontekście symulacji  kwantowych wiąże się z relacją pomiędzy grawitacją a splątaniem kwantowym. Mianowicie, akumulujące się wyniki rozważań teoretycznych, w szczególności  korespondencja AdS/CFT, zasada holograficzna, entropia splątania sieci tensorowych MERA czy też hipoteza EPR=ER, wskazują na możliwość interpretacji pola grawitacyjnego w zadanej objętości (ang. bulk) jako przejawu splątania kwantowego niżej-wymiarowego układu na brzegu (ang. boundary) tego obszaru. Nie koniecznie więc do symulowania kwantowej grawitacji musimy angażować grawitacyjne stopnie swobody. Możliwe, że wystarczą do tego kwantowe symulacje (konforemnych) teorii pola na brzegu układu. Wykonanie odpowiednich pomiarów splątania kwantowego teorii na brzegu umożliwi zrekonstruowanie konfiguracji pola grawitacyjnego wewnątrz tego obszaru.  

Korzyści płynące z symulacji fizyki na skali Plancka na komputerach kwantowych nie leżą wyłącznie po stronie nauk podstawowych. Nowe typy procesorów kwantowych mogą  okazać się niezbędne do symulowania złożonych systemów kwantowograwitacyjnych, co może okazać się inspiracją  do rozwoju technologicznego. Symbiotyczny rozwój kwantowej grawitacji oraz technologii kwantowych może również doprowadzić do wypracowania nowych rozwiązań w obszarze obliczeń kwantowych. Jako przykład przytoczyć można zastosowanie sieci spinowych jako bazy do przetwarzania informacji kwantowej. 

Pozwolę sobie na koniec wspomnieć, iż umiejętność symulowania kwantowych stopni swobody na skali Plancka może w przyszłości umożliwić badanie od podstaw procesu formowania struktur we Wszechświecie. Idąc dalej, uwzględnienie również innych typów pól pozwoli symulować realistyczne modele Wszechświata. Wraz z upływem czasu i rozwojem technologii obliczeń kwantowych, możliwe będzie uwzględnienie coraz to większej ilości detali. A być może, któregoś dnia będziemy również w stanie symulować zaprojektowane przez nas Superwszechświaty, wykraczające swoją złożonością poza Ten nam znany.

© Jakub Mielczarek

Kosmiczna droga do kwantowej grawitacji

Każdego dnia obserwujemy i odczuwamy działanie siły grawitacji. Dzięki jej obecności upuszczone przedmioty spadają na powierzchnię Ziemi, a nam trudno jest się od niej oderwać. Żeby pokonać siłę grawitacji i uciec w przestrzeń kosmiczną musimy budować potężne rakiety. Ta sama siła utrzymuje ruch Księżyca w pobliżu Ziemi i Ziemię krążącą wokół Słońca. Siła  grawitacji odpowiada za ruch Słońca w Galaktyce i ruch Galaktyki w gromadzie galaktyk. Wszystkie te zjawiska mają jeden wspólny opis w postaci prawa powszechnego ciążenia Newtona. Jest to bardzo prosta relacja mówiąca, że pomiędzy dwoma ciałami posiadającymi masy działa przyciągająca siła grawitacji proporcjonalna do iloczynu ich mas i odwrotnie proporcjonalna do kwadratu odległości pomiędzy środkami ich mas. Współczynnikiem proporcjonalności w tej relacji jest stała grawitacji Newtona G. Prawo powszechnego ciążenia jest piękne, proste i bardzo praktyczne. Nie mówi nam ono jednak zbyt wiele o tym czym siła grawitacji tak w zasadzie jest i skąd się bierze. Znamy skutek i potrafimy go ilościowo opisać, nie znamy jednak jego przyczyny. Co takiego znajduje się pomiędzy ciałami obdarzonymi masą, że przyciągają się one wzajemnie? Czy jest to coś w rodzaju niewidzialnej nici? Do odpowiedzi na to pytanie przybliżył nas Einstein konstruując ogólną teorię względności. Teoria ta opisuję siłę grawitacji jako efekt zakrzywienia przestrzeni. Mianowicie, przestrzeń ulega odkształceniom pod wpływem  znajdujących się w niej ciał obdarzonych masą. Żeby sobie to lepiej uzmysłowić, wyobraźmy sobie rozciągnięty płat materiału. Jeśli umieścimy na nim masywną kulę, spowoduje to zapadnięcie powierzchni materiału. Umieszczona w pobliżu mała kulka stoczy się w kierunku dużej kuli, co zinterpretujemy jako przyciąganie pomiędzy kulkami. Postać tego oddziaływania okazuje się być taka sama (dla mało masywnych ciał) jak ta dana przez prawo Newtona.  Ponadto teoria przewiduje pewne nowe efekty w pobliżu bardzo masywnych ciał, czego nie ujmuje prawo Newtona. Efekty te zostały zweryfikowane obserwacyjnie.

Oddziaływanie grawitacyjne  można więc uważać jako efekt modyfikacji kształtu przestrzeni przez obdarzone masą ciała.  Opis ten daje bardzo intuicyjne wyjaśnienie przyczyny istnienia siły grawitacji, rodzi również jednak nowe pytania. W szczególności czym jest owa tajemnicza przestrzeń ulegająca odkształceniom pod wpływem masy? Teoria względności nie mówi zbyt wiele na ten temat. Z jej perspektywy, przestrzeń jest to rodzaj ciągłego ośrodka nie mającego żadnej struktury wewnętrznej. Istnieją jednak przesłanki teoretyczne wskazujące na to, że przestrzeń powinna, na dostatecznie małych skalach, posiadać pewien rodzaj wewnętrznej struktury. Żeby to zobrazować, wróćmy do przytoczonej analogii przestrzeni jako  rozciągniętego płatu materiału. Widząc tkaninę z dużej odległości wydaję się ona tworzyć ciągłą strukturę. Jeśli jednak popatrzymy na nią z bliska ukaże nam ona swoją włóknistą naturę. Jak sugerują przewidywania teoretyczne, włókna z których może być utkana przestrzeń mają średnice rzędu 10-35 metra, co odpowiada tak zwanej długości (skali) Plancka.

Długość Plancka, odpowiada rozmiarom przy których spodziewamy się występowania efektów kwantowej grawitacji. Najprostszą metodą wprowadzenia długości Plancka jest tak zwana analiza wymiarowa. Rozważmy mianowicie trzy stałe fizyczne:

c– prędkość światła,

G– stałą grawitacji,

\hslash– zredukowaną stałą Plancka.

Wykorzystując te stałe możemy otrzymać wielkość o wymiarze długości

l_{\text{Pl}} = \sqrt{\frac{\hslash G}{c^3}} \approx 1.62 \cdot 10^{-35} \text{m}

zwaną długością Plancka.Teorię opisującą przestrzeń na rozmiarach mniejszych od długości  Plancka określamy mianem kwantowej teorii grawitacji (lub w skrócie kwantowej grawitacji). W odróżnieniu od klasycznej teorii grawitacji, którą jest ogólna teoria względności. Klasyczność oznacza tu ciągły opis przestrzeni, kwantowość natomiast oznacza opis ziarnisty.

Jak się okazuje, znalezienie kwantowego opisu grawitacji jest zadaniem niezwykle trudnym. Badania w tym kierunku rozpoczęto już w latach trzydziestych ubiegłego wieku. Niestety, jak dotąd, nie doprowadziły one do zamierzonego celu. Znaleziono co prawda pewnych kandydatów do miana teorii kwantowej grawitacji takich jak: teorię superstrun, pętlową teorię grawitacji czy teorię kauzalnej dynamicznej triangulacji. Nie wiadomo jednak czy teorie te dają właściwy opis zjawisk fizycznych, ponieważ żadna z tych teorii nie doczekała się, jak dotąd,  doświadczalnego potwierdzenia. Trudność ta wynika z faktu, że przewidywane efekty kwantowej grawitacji występują na niezwykle małych odległościach, porównywalnych z długością Plancka. Aby więc zweryfikować przewidywania pretendentów do  miana teorii kwantowej grawitacji musimy zajrzeć bardzo daleko w głąb struktury materii.

Zazwyczaj, jeśli chcemy zbadać Świat na rozmiarach mniejszych niż te dostępne naszym zmysłom, posługujemy się mikroskopem. W ten sposób możemy poznać np. tajemnice mikroświata na odległościach 10-6 metra. Żeby zajrzeć jeszcze dalej w głąb materii potrzeba trochę większych odpowiedników mikroskopu zwanych akceleratorami cząstek elementarnych.  Pozwalają one dzisiaj badać materię do rozmiarów rzędu 10-18 metra. Są to najmniejsze skale odległości na których zbadaliśmy jak dotąd nasz Wszechświat. Stąd pozostaje więc około siedemnastu rzędów wielkości do skali Plancka. Technika akceleratorowa niestety nie pozwala pójść dużo dalej.

Ta ogromna przepaść odległości skłania wielu fizyków do uznania teorii kwantowej grawitacji jako nieweryfikowalnej doświadczalnie. Stwierdzenie to jest uzasadnione jednak tylko wówczas, jeśli do skali Plancka wiedzie jedynie droga wskazywana przez fizyków cząstek. Czyli bazująca na konstrukcji coraz to większych akceleratorów, pozwalających badać Wszechświat na coraz mniejszych skalach.  Ale czy możliwa jest jakaś inna droga? Jak inaczej zbadać strukturę mikroświata niż budując coraz to większe mikroskopy? Okazuje się, że taka droga potencjalnie istnieje. Wymaga ona jednak  nie budowy nowych mikroskopów, lecz teleskopów. Może to na początku wydawać się trochę dziwne. Przecież teleskopy pomagają nam podglądać odległe miejsca we Wszechświecie i olbrzymie struktury wielokrotnie większe od Słońca, jak galaktyki oraz gromady galaktyk. Droga ta wydaje się więc prowadzić w zupełnie innym kierunku.  Może i kierunek jest przeciwny ale droga, jak się okazuje, prowadzi w to samo miejsce. Zupełnie tak jak na powierzchni Ziemi. Wszystko dzięki temu, że Wszechświat podlega ekspansji. Podczas tej ekspansji odległości pomiędzy ciałami (np. galaktykami) ulegają ciągłemu wzrostowi. Jeśli natomiast popatrzymy wstecz w czasie, ciała te będą się do siebie zbliżać. Gęstość materii we Wszechświecie będzie więc wzrastać. Odległości pomiędzy cząsteczkami będą maleć, aż do osiągnięcia wartości długości Plancka! Możemy się więc spodziewać, że ich zachowanie będzie wtedy zupełnie inne niż to przewidywane w ramach opisu klasycznego.  Taką zasadniczą różnicę przewiduje, wspomniana już, pętlowa teoria grawitacji. Mianowicie mówi ona, że nie jest możliwe dowolne zwiększanie gęstości materii we Wszechświecie. Co za tym idzie, cząstki nie mogą zbliżyć się do siebie na dowolną odległość, lecz tylko na większą niż długość Plancka. Zachowanie takie jest wynikiem ziarnistej struktury przestrzeni. Prowadzi to do bardzo ciekawych konsekwencje odnośnie zachowania się Wszechświata.

W opisie klasycznym nie ma ograniczenia na maksymalną, możliwą do osiągnięcia, gęstość materii.   Idąc więc wstecz w czasie, gęstość materii  we Wszechświecie może rosnąć aż do nieskończoności. Nieskończoność ta nosi nazwę kosmicznej osobliwości i jest bolączką opisu klasycznego. Mianowicie, w stanie tym, teoria klasyczna traci swoją zdolność przewidywania. Pętlowa teoria grawitacji daje rozwiązanie tego problemu usuwając stan kosmicznej osobliwości. Zamiast niefizycznej osobliwości następuje faza tak zwanego odbicia (ang. bounce), podczas której gęstość materii we Wszechświecie osiąga maksymalną, skończoną wartość. W opisie tym objętość Wszechświata najpierw maleje, aż do osiągnięcia minimalnej wartości, a następnie zaczyna rosnąć. Stąd nazwa odbicie.

Efekty kwantowej grawitacji mogły więc mieć bardzo istotny wpływ na ewolucję Wszechświata. W szczególności, mogły doprowadzić do kosmicznego  odbicia.  Miało to jednak miejsce bardzo dawno, bo około czternaście miliardów lat temu.  Dlatego, w dzisiejszym Wszechświecie, mogły nie pozostać już żadne pozostałości fazy obicia. Okazuje się jednak, szczęśliwie dla nas, że część informacji na temat tej fazy może wciąż być dostępna dla obserwacji.  Wszystko  dzięki fotonom mikrofalowego promieniowania tła (ang. cosmic microwave background, CMB) które powstały około  400 000 lat po fazie odbicia. Może to wydawać się bardzo dużo, jest to jednak tylko ułamek sekundy w skalach czasowych Wszechświata.

Szereg eksperymentów dokonuje obecnie pomiarów temperatury tego promieniowania w zależności od kierunku na niebie. Okazuje się, że temperatura ta podlega małym wahaniom. Jest to odzwierciedleniem niejednorodności gęstości materii w okresie formowania się CMB. Niejednorodności te są dla nas niezwykle ważne, ponieważ to właśnie dzięki nim  powstały wszystkie późniejsze struktury we Wszechświecie takie jak galaktyki, gwiazdy czy planety. Te obserwowane małe fluktuacje gęstości miały swój początek  jednak dużo wcześniej. Mianowice podczas tak zwanej fazy kosmicznej inflacji, w której nastąpił bardzo gwałtowny wzrost rozmiarów wszechświata.  To właśnie wtedy, w początkowo jednorodnym Wszechświecie, powstały pierwsze zaburzenia dzięki którym jest on  dziś tak bogaty w struktury. Gdyby nie inflacja, Wszechświat pozostałby jednorodnie wypełnionym materią, nieciekawym tworem. W takim wszechświecie nie miałyby szans powstać struktury złożone takie jak Człowiek.

Fazę kosmicznej inflacji można już dzisiaj badać za pomocą obserwacji mikrofalowego promieniowania tła.  Jest to niesamowite, ponieważ ten etap w historii Wszechświata miał miejsce tuż po fazie odbicia, przewidywanego w ramach pętlowej teorii grawitacji. Słowo „tuż” oznacza tu około 10-36 sekundy. To sugeruje, że faza inflacji mogła nastąpić w konsekwencji efektów kwantowej grawitacji. Tak też wskazują  badania prowadzone w ramach pętlowej grawitacji kwantowej. Mianowicie, teoria ta przewiduje że, po fazie odbicia następuje, w sposób nieunikniony,  faza kosmicznej inflacji!  Efekty pętlowej grawitacji kwantowej prowadzą również do pewnych dodatkowych modyfikacji odnośnie postaci zaburzeń gęstości materii generowanych podczas  fazy inflacji. To natomiast ma wpływ na kształt fluktuacji temperatury  mikrofalowego promieniowania tła. Modyfikacje te są jednak na tyle małe, że jak dotąd nie udało się ich zaobserwować. Możliwe, że nowe obserwacje wykonane przez satelitę Planck doprowadzą od przełomu w tej kwestii. Aby się o tym przekonać, musimy jednak poczekać do moment upublicznienia wyników obserwacji  planowanego na 2012 rok. Już dzisiaj jednak, możemy nauczyć się wiele na temat kwantowej grawitacji poprzez badanie jej wpływu na fazę kosmicznej inflacji.

Droga do kwantowej grawitacji jest kręta i często prowadzi w ślepe zaułki. Droga „na wprost”  z wykorzystaniem akceleratorów cząstek elementarnych wydaje się nie do przejścia. Trzeba więc próbować wytyczać nowe szlaki. Czasem prowadzą one w zupełnie przeciwnym kierunku. Jednym z nich jest kosmiczna droga do kwantowej grawitacji, prowadząca przez bezkresny ocean Wszechświata. Zawiodła ona nas  niezwykle daleko, bo aż 14 miliardów lat wstecz, lecz zarazem tylko 10-36 sekundy od miejsca przeznaczenia. Wiemy więc, że cel jest już blisko.  Tu jednak fale wzmagają się coraz bardziej, i dalsza podróż staje się niezwykle trudna. Pozostaje więc mocno trzymać ster!

© Jakub Mielczarek

The origin of primordial perturbations

The Universe is full of gravitating structures on different length scales. The stars, galaxies, clusters of galaxies, super-clusters, voids are among them. But, why is the Universe not just filled with a homogeneous distribution of dust?  Or why and how the structures mentioned were formed? This is one among the questionsthe cosmologists try to answer. The standard technique applied by them is the theory of cosmological perturbations. This theory requires, that the perturbations of the energy density \delta \rho compared to the average energy density \rho have to fulfil the condition \frac{\delta \rho}{\rho}\ll 1. Amazingly, this condition was fulfilled for a long period in the comic history. The theory of cosmological perturbations indicates however, that the factor \frac{\delta \rho}{\rho} grows with time and at some point \frac{\delta \rho}{\rho}\approx 1 and the linear perturbation theory breaks down. At this point the non-linear evolution starts which trigger gravitational collapse, leading to formation of bound gravitational objects like e.g. galaxies.  It is worth mentioning that the evolution of \frac{\delta \rho}{\rho}  follows differently depending on the length scale.  Therefore, the bounded gravitational structures can be formed at the different times on the different scales. So, the classical cosmology can explain how the gravitational structures were formed from some tiny perturbations of the matter distribution that had filled the Universe. In particular, observations of the cosmic microwave background (CMB) anisotropies of temperature indicate that \frac{\delta T}{T} \approx10^{-5} which translate to \frac{\delta \rho}{\rho}=\frac{1}{4} \frac{\delta T}{T} \approx 10^{-5}.  Therefore, when the CMB (which was at the redshift z \simeq 1070) was formed, the Universe was very homogeneous and only tiny perturbations of the primordial plasma were present. Tracing the evolution of the Universe backwards, one can investigate the properties of the perturbations before the CMB was formed. This way, one finds that in the very early universe there were some tiny primordial perturbations. All the structures observed in the Universe have seeds in these initial perturbations, and so it is crucial to answer what is the mechanism responsible for the formation of them?

The observations of the CMB anisotropies and polarisation give us certain indications regarding the form of the primordial perturbations. In particular,  we could naively suspect that the primordial perturbations have a thermal origin. Since the Universe was in thermal equilibrium at some early stages, this sounds to be a natural explanation. However, this possibility is completely rejected by the observations of the CMB anisotropies. While the thermal fluctuations lead to the spectrum of perturbations in the form \mathcal{P} \sim 1/k (white-noise spectrum), the observations of the CMB indicate that the spectrum [We are discussing here a spectrum of the so-called scalar perturbations. Issue of the tensor perturbation (gravitational waves) will be broached later] has a nearly scale-invariant [In cosmology, the scale-invariance means simply: constant. This definition is different from the standard mathematical notion where the scale-invariance is a scallig property of any power-law function] form \mathcal{P} \sim k^{n_{\text{S}}-1}, where n_{\text{S}} \approx 1. This is quite a problematic issue since it is not so easy to find a mechanism that produces a spectrum in this form. But, it is also a good point, since when we find the simple mechanism which leads to the observed spectrum, then we are more certain about its authenticity.

Presently, the  best explanation of the form of the primordial perturbations is given by the theory of  comic inflation (See e.g. [1]). Inflation is a general concept which basically states that the Universe went through a phase of an accelerated (nearly exponential) expansion in its early ages. During this phase, the primordial perturbations were easily formed from the quantum fluctuations. This is a very elegant and a simple solution of the problem. However, the remaining question is: “what drives the Universe to inflate exponentially?”.  This problem can be solved introducing the matter content in the form ofa self-interacting scalar field \phi called inflaton. A scalar field is the simplest possible field and its excitations are the spin-0 particles. Moreover, it can very easily drive the proper inflationary phase. However, some obscurity regarding the nature of this field appears. This come from the fact that in Nature we do not observe any elementary spin-0 particles that can be the excitations of the scalar field.  The scalar fields appear however in some effective theories as Yukawa’s theory, where the scalar \pi-meson mediates the strong  interaction. Another example is given by the Higgs  boson which is the spin-0 excitation of the scalar Higgs field. This field can be, in some sense, regarded as fundamental. Therefore, the detection of the  Higgs  boson at the LHC could give support to the theory of inflation where the scalar field (however different) is also used. It could just say, that the fundamental scalar fields can in fact be present in Nature. At present, since the nature of the inflaton field remains unknown, \phi should be understood as an effective matter component of the Universe.

As was already mentioned, the realisation of inflation requires self-interaction of the scalar field. This introduces another ambiguity, since the field can self-interact in many different ways, which result with many possible choices of the field potential V(\phi). The forms of  potentials can be however constrained and ever excluded based on the observations of CMB. The simple model that I would like to discuss in more details is based on the massive potential V(\phi)=\frac{m^2}{2}\phi^2. This is the most natural choice of  V(\phi), since it just says that the excitations of the field have the mass m.   The field evolves in the quadratic potential  similarly as a ball in the harmonic potential. However, the evolution differ from the standard harmonic oscillations case, since, the field is coupled with the gravitational field. This makes the evolution a little bit more complicated. In particular, the slow-roll evolution appears, when the field goes down the potential well. During this phase, the cosmic acceleration (inflation) occurs. Using the standard techniques of quantum field theory on curved spacetimes one can calculate what will be the resulting spectrum of primordial perturbations. From these calculations, we obtain the spectrum of the scalar primordial perturbations in the form

\mathcal{P}_{\text{S}}(k) = \underbrace{\frac{1}{\pi \epsilon} \left(\frac{H}{m_{\text{Pl}}} \right)^2}_{=S} \left( \frac{k}{aH}\right)^{n_{\text{S}}-1},

as well as the spectrum of the tensor perturbations (gravitational waves) in the form

\mathcal{P}_{\text{T}}(k) = \underbrace{\frac{16}{\pi} \left(\frac{H}{m_{\text{Pl}}} \right)^2}_{=T} \left( \frac{k}{aH}\right)^{n_{\text{T}}},

where H is a Hubble factor and m_{\text{Pl}}\approx 1.22\cdot 10^{19} GeV is the Planck mass.  Expressions for the scalar and tensor spectral indices are  respectively

n_{\text{S}} =1-4\epsilon and  n_{\text{T}} =-2\epsilon,

where \epsilon \ll 1 is called a slow-roll parameter. Therefore, prediction from this so-called slow-roll inflation is that the scalar spectral index n_{\text{S}} is almost equal to one but a little bit smaller (in jargon: red shifted). Let us confront this with the available CMB data. Recent results from the 7-years observations of the WMAP satellite [2] give

n_{\text{S}} = 0.963 \pm 0.012.

This is in full agreement with the prediction from the slow-roll inflation which supports the model. Moreover, the WMAP satellite measured also an amplitude of the scalar perturbations [2]

S = 2.441^{+0.088}_{-0.092} \cdot 10^{-9}

at the pivot scale k_{0}=0.002 \ \text{Mpc}^{-1}. Based on the measurements of S and n_{\text{S}}  one can compute the mass of inflation

m \simeq m_{\text{Pl}} \frac{1}{4}\sqrt{3\pi S} (1-n_{\text{S}})=(1.4 \pm 0.5) \cdot 10^{-6} m_{\text{Pl}}.

Therefore, the only parameter of the model can be recovered from the observational data. The crucial check of validity of this model would be given by measurements of the tensor power spectrum \mathcal{P}_{\text{T}}. This spectrum can be however, detected only if the B-type polarisation of the CMB will be measured. While the B-type polarisation has not been detected yet, there are huge efforts in this direction. Experiments such as PLANCK [3], BICEP [4] or QUIET [5] are (partly) devoted to the search for the B-mode. The crucial parameterthat quantify the contribution of the gravitational waves is the so called tensor-to-scalar ratio r. This is defined as a ratio of the tensor to scalar amplitude of perturbations at some given scale.  Within the slow-roll inflationmodel, one can predict the value of r, based on observation of the spectral index n_{\text{s}}. Namely, a prediction of the slow-roll inflation model is the following

r :=\frac{T}{S}=16\epsilon=4(1-n_{\text{S}})=0.15 \pm 0.05,

where the value from WMAP-7 was applied. Moreover, based on  WMAP-7 data, the tensor spectral index is predicted to be n_{\text{T}}=\frac{n_{\text{S}}-1}{2}=-0.019 \pm 0.006. It is however unlikely to confront this quantity with observational data in the near future. Present observational constraints on the value of r are

r < 2.1 \ \text{at} \ 95 \% \ \text{C.L.} \ (\text{WMAP-7}),

r < 0.73 \ \text{at} \ 95 \% \ \text{C.L.} \ (\text{BICEP}),

which come from the constraint on the amplitude of the B-type polarisation of the CMB. The predicted vale of r  is placed below the present observational limitations.  However e.g. the PLANCK satellite (which is currently collecting the data) sensitivity reaches r=0.05 which is sufficient to detect the B-type polarisation as predicted by the slow-roll inflation. This would be a great support for the theory of inflation and the slow-roll model. However if, at this level of sensitivity, the B-type polarisation would not be detected, then the simple slow-rollinflaton would have rejected or required modifications. What will turn out to be a true? For the answer, we have to patiently wait till the end of 2012, when the first results from the PLANCK satellite will be released.

  1. A. Linde, Lect. Notes Phys. 738, 1 (2008).
  2. E. Komatsu et al., Submitted to Astrophs. J. Suppl. Ser., arXiv:1001.4538v1
  3. [Planck Collaboration],  “Planck: The scientific programme,”  arXiv:astro-ph/0604069.
  4. H. C. Chiang et al., “Measurement of CMB Polarization Power Spectra from Two Years of BICEP Data,” arXiv:0906.1181 [astro-ph.CO]
  5. D. Samtleben and f. t. Q. Collaboration,  “Measuring the Cosmic Microwave Background Radiation (CMBR) polarization  with QUIET,”  Nuovo Cim.  22B (2007) 1353  [arXiv:0802.2657 [astro-ph]].

© Jakub Mielczarek, 1st April 2010

Kosmologia i jej granice

Współczesne teorie kwantowej kosmologii wskazują na to, że Wszechświat przeszedł przez fazę tak zwanego odbicia (ang. bounce). Przed odbiciem podlegał on kontrakcji a następnie, dzięki odpychaniu kwantowemu, wszedł w obecną gałąź ekspansji. W eseju zastanawiamy się w jakim stopniu Wszechświat przed fazą odbicia jest poznawalny. Wskazujemy potencjalną metodę badawczą oraz jej ograniczenia.

Kosmologia zyskała w ostatnich dziesięcioleciach miano nauki empirycznej. Fundamentem który stanął u jej podstaw były obserwacje Hubble’a, wskazujące na rozszerzanie się Wszechświata. Na tej solidnej podstawie stanął cały gmach kosmologii współczesnej. Jego głównymi filarami stały się obserwacje  mikrofalowego promieniowania tła, struktur wielkoskalowych oraz odległych supernowych.

O Wszechświecie wiemy już naprawdę wiele. Jest to fakt zaskakujący, tym bardziej, że nie jest to układ który badać łatwo. Nie możemy go obejść dookoła i zmierzyć linijką. Jesteśmy w Nim jako Jego intergralna część, niczym pojedynczy neuron składający się na mózg. Z punktu widzenia jednego z 10^{11} neuronów budujących mózg nie jest łatwo powiedzieć cokolwiek o mózgu jako całości. Jesteśmy skazani bowiem na odbieranie sygnałów tylko od sąsiadujących z nami komórek. Ekranowanie pola elektrycznego tworzy natomiast horyzont, za który nie możemy zajrzeć. Nie jesteśmy więc w stanie stwierdzić, że tworzymy układ który posiada samoświadomość. Podobnie jest z badaniem Wszechświata jako całości. Jesteśmy skazani na poznawanie go tylko na podstawie docierających do nas sygnałów. Ponadto jesteśmy ekranowani przez horyzont kosmologiczny, nie pozwalający nam spojrzeć zbyt daleko. Pomimo tych trudności stawiamy sobie nowe cele, zadajemy nowe pytania i co najważniejsze udaje się nam czasem uzyskać na nie odpowiedzi. Prowadzi i stymuluje nas przy tym, wykształcona ewolucyjnie, ciekawość. Czujemy ciągły niedosyt, odpowiadając na jedne pytania zadajemy nowe. Odpowiadamy na nie, udoskonalamy technologie obserwacyjne, dokonujemy nowych odkryć, zadajemy nowe pytania… To naturalny cykl poznawczy, współgrający z rozwojem technologicznym naszej Cywilizacji. Pomińmy jednak teraz technologiczne aspekty poznania. Przyjmijmy, że są one nam dostępne “na życzenie”. Czy pozwoliłoby to nam jednak odpowiedzieć na wszystkie nurtujące nas pytania dotyczące historii Wszechświata? Ograniczmy nasze rozważania do chwili obecnej, tzn. będziemy szukali odpowiedzi na pytanie: Czego możemy dowiedzieć się o Wszechświecie dzisiaj? To czy będziemy mogli uzyskać odpowiedzi na te same pytania stawiając je za powiedzmy milion lat jest kwestią mniej dla nas istotną. Niemniej jednak jest to temat poruszany przez niektórych badaczy zwiastujących nieuchronny koniec kosmologii [1], rozumiany w kosmologicznych jednostkach czasu. Nasze życie nie przyszło być jednak przez nie taktowane. Bliżej nam bowiem do skal czasu wybijanych przez spadające krople wody. Krople wody które są podstawą naszej egzystencji na Ziemi. Na ile więc jesteśmy w stanie zaspokoić naszą ciekawość poznania Wszechświata? W jakim stopniu jesteśmy poznać Kosmos który dał nam życie?

Jedna z najskrytszych tajemnic Wszechświata została ukryta około 14 miliardów lat temu. Jeszcze do niedawna wydawało się, że jest to tajemnica najgłębsza. Ostatnie dziesięciolecie zmieniło jednak radykalnie pogląd na ten temat. Mówimy mianowicie o fazie która, w podejściu klasycznym, przejawia się jako osobliwość. Przyjęło się również mówić osobliwość początkowa. Wyznaczała ona bowiem początek historii Wszechświata. Dzisiejszy poziom zrozumienia zjawisk grawitacyjnych pozwala nam jednak stwierdzić, że jest to osobliwość teorii a nie osobliwość fizyczna. Fizycznym stanem, który zastępuje stan osobliwy jest bounce [2]. Tak przynajmniej wskazuje pętlową kosmologię kwantową [3]. Teoria ta wyrosła z pętlowej grawitacji kwantowej [4], która jest próbą kwantowego opisu grawitacyjnych stopni swobody.

Czym jest bounce? W fazie tej wszechświat początkowo ulega kontrakcji a następnie, dzięki ”odpychaniu kwantowemu”, wchodzi do obecnej fazy ekspansii. Przechodzi on tym samym przez obszar w którym wszechświat osiąga maksymalną gęstość energii

\rho_{\text{c}} = \frac{\sqrt{3}}{16\pi^2\gamma^3} m^4_{\text{Pl}}.

Tutaj m_{\text{Pl}} \approx 1.22 \cdot 10^{19} \text{GeV} to tak zwana masa Plancka, natomiast \gamma to parametr Barbero-Immirzi. Efektywna dynamika czynnika skali  rządzona jest przez zmodyfikowane równanie Friedmanna

H^2=\frac{8\pi G}{3}\rho\left(1-\frac{\rho}{\rho_{\text{c}}} \right),

gdzie H to parametr Hubble’a, natomiast \rho to gęstość energii.

Wracając do meritum, możemy spytać: czy faza bounce’u może być zbadana obserwacyjnie?   Wydaje się, że zaglądnąć w środek serca Wszechświata jest niezwykle trudno. Zamaskowany jest on bowiem epoką promieniowania, w której Wszechświat wypełniony był przez gęstą plazmę. Wysokoenergetyczne oddziaływania występujące w tej fazie błyskawicznie tuszują wszelkie znamiona ery bounce’u. Sprawa wydaje się więc, na pierwszy rzut oka, rozstrzygnięta. Jak mielibyśmy mianowicie zobaczyć bounce, obserwując jedynie powierzchnię otaczającej go “ognistej kuli”? Promieniowanie to, dla jasności, pochodzi z powierzchni ostatniego rozproszenia. Jego pozostałością jest obserwowane dziś mikrofalowe promieniowanie tła.

Sprawa ma się  podobnie jak w przypadku obserwacji Słońca. Promieniowanie które do nas dociera, pochodzi z jego zewnętrznej warstwy zwanej chromosferą. Nie pozwala nam ono zajrzeć  do wnętrza Słońca. A jednak wiemy, że znajduje się tam rdzeń helowo-wodorowy.  Informację tą uzyskano w inny sposób. Wyjaśniono mianowicie zasadę działania Słońca w oparciu o znaną i dobrze zbadaną laboratoryjnie fizykę jądrową. Zbudowano model i potwierdzono go w oparciu o obserwacje gwiazd, których na sferze niebieskiej nie brakuje. Takiej wygody nie mamy przy próbie zbadania kwantowej ery Wszechświata. Po pierwsze, fizyka którą dysponujemy do opisu kwantowej fazy Wszechświata istnieje tylko na papierze. Po drugie, mamy tylko jeden Wszechświat do obserwacji. W tym dosyć pesymistycznym konsensusie przychodzi nam jednak z pomocą horyzont. Ten sam horyzont, który pilnuje abyśmy nie zobaczyli zbyt wiele, pozwala nam jednak zerknąć przez dziurkę od klucza.  Pozwala nam zajrzeć do drugiego pokoju, którego solidne ściany chronią znajdujący się w nim skarb. Otwór nie jest zbyt duży, wystarczający jednak aby ujrzeć kontur skrywanej tajemnicy.

Jak jednak ten metaforyczny obraz ma się do rzeczywistości fizycznej? Postaram się to teraz wyjaśnić. Istota tkwi w tym, że wszystkie zdarzenia zachodzące w obrębie horyzontu podlegają przyczynowej zależności. Obszary układu którego elementy nie są w takiej koneksji nie podlegają ewolucji, w przeciwieństwie do obszarów podhoryzontalnych. Wyobraźmy sobie proces jakim jest fala. Fala o długości podhoryzontalej podlega ewolucji rządzonej równaniem falowym. Jeśli jednak długość fali przekroczy promień horyzontu, zacznie dziać się coś bardzo ciekawego. Mianowicie, fala przestanie ewoluować, w żargonie mówi się, że “zamarza”. Jest to naturalną konsekwencją braku wzajemnego oddziaływania podukładów. Jeśli zamarza woda to nie mogą się na niej rozchodzić fale powierzchniowe. Natomiast sama fala, jeśli istniała przed zamarznięciem, może pozostać w formie skrystalizowanej. Tak samo jest w przypadku fal przecinających horyzont kosmologiczny. Fale, o których mowa to tak zwane mody drgań pól. W szczególności, jeśli rozważymy pole kwantowe, fale takie odpowiadają fluktuacjom próżni. Fale te nieustannie tworzą się i znikają, przestrzegając przy tym zasadę nieoznaczoności Heisenberga. Mody te nazywamy cząstkami wirtualnymi. Jeśli jednak dany mod przetnie skalę horyzontu, ulegnie “zamrożeniu” i stanie się klasyczną cząstką. Idea ta jest podstawą mechanizmu kosmologicznej kreacji cząstek. Jak jednak mechanizm ten ma się do idei testowania kwantowej fazy Wszechświata? Popatrzmy  na rysunek poniżej.

Widać na nim ewolucję horyzontu kosmologicznego (promienia Hubble’a R_{\text{H}} = 1/|H|) podczas fazy bounce’u. Ulega on jak widać najpierw kurczeniu do skończonych rozmiarów, a następnie ponownie zaczyna puchnąć (Pominęliśmy tu osobliwe zachowanie promienia Hubble’a w punkcie odbicia. Jak można jednak pokazać, nie ma to istotnego wpływu na nasze rozważania).  Na rysunku przedstawiono również przykładową fizyczną skalę długości \lambda. Jak łatwo zauważyć, w fazie bounce’u wszystkie skale długości zachowują się w podobny sposób. Mianowicie, będąc początkowo pod horyzontem, przecinają go, a następnie ponownie pod niego powracają. Jak widać, pierwsze nad horyzont wchodzą największe skale długości. Warto uświadomić sobie w tym miejscu, że proces ten zachodzi przed fazą Wielkiego Wybuchu! Mody wielkoskalowe, będące przed przecięciem horyzontu fluktuacjami, stają się, po jego przecięciu, klasycznymi cząstkami. Proces taki uważa się w istocie za mechanizm dający początek tworzeniu się wszelkich struktur we Wszechświecie. Gdyby nie horyzont, Wszechświat pozostawałby jednorodny, wypełniony jedynie fluktuacjami kwantowymi. Dzięki temu jednak, że informacja rozchodzi się ze skończoną prędkością, mogły powstać pierwotne zaburzenia. Doprowadziły one do powstania galaktyk, gwiazd, planet i w rezultacie Nas samych.
Istotną cechą całego omawianego mechanizmu generowania klasycznych zaburzeń jest to, że na skalach ponadhoryzontalych pozostają one “zamrożone”. Jeśli więc pewnym modom udało się wejść nad horyzont w erze kwantowej, mają one szansę pozostać tam w niezmienionej formie aż do ponownego przecięcia horyzontu. Nie są one bowiem wtedy zależne od mikrofizyki na skalach podhoryzontalnych. Innymi słowy to, że Wszechświat wypełniony jest gorącą, silnie oddziałującą plazmą nie robi na nich zbyt dużego wrażenia.

Zaburzenia na skalach ponadhoryzontalnych odbijają się bezpośrednio na obserwowanym mikrofalowym promieniowaniu tła (CMB). Obserwacje widma tego promieniowania mogą więc odsłonić znamiona kwantowej ery Wszechświata [5]. Pozwalają nam zaglądnąć w dziurkę od klucza daną nam przez horyzont. Efekt bounce’u może bezpośrednio przejawiać się w obserwowanym widmie CMB. W szczególności prowadząc do tłumienia tzw. niskich multipoli. Efekt taki w rzeczywistości obserwuje się.   Dostępne nam obecnie dane doświadczalne nie pozwalają jednak wyłonić faworyta spośród kilku kandydatów pretendujących do wyjaśnienia tego zjawiska. Najbliższe lata, głównie dzięki obserwacjom satelity Planck, mogą jednak  przynieść odpowiedź. Byłoby to niezwykle donośne odkrycie.  Pojawia się tu jednak jeszcze jeden problem. Nie wynikający jednak ze zbyt niskiej zdolności rozdzielczej czy czułości przyrządów pomiarowych. Mianowice chodzi tu o tak zwaną kosmiczną wariancję. Jest to efekt statystyczny który uwidacznia się dla wielkości mierzonych na skalach horyzontalnych. W przypadku pomiarów CMB odpowiada to niskim multipolom l. Czyli właśnie tym, dla których spodziewamy się efektów bounce’u. Względna niepewność pochodząca od kosmicznej wariancji wyraża się jako

\frac{\Delta C_l}{C_l} = \sqrt{\frac{2}{2l+1}}.

Widać stąd, że dla np. l=2 względna niepewność pochodząca od kosmicznej wariancji wynosi 0.63, czyli wynik pomiaru jest porównywalny z jego niepewnością. Efektu tego nie da się usunąć i stanowi on poważne utrudnienie w testowaniu scenariucza kosmicznego bounce’u.

Jeśli jednak, scenariusz kwantowego bounce’u rzeczywiście ma realizację fizyczną, to obserwacje widma CMB mogą pozwolić zaglądnąć na drugi biegun ognistej kuli. Czyli  do Wszechświata przed Wielkim Wybuchem. Czego możemy się o nim dowiedzieć? Możemy dostrzec kontur którym jest jego globalna ewolucja. Nie jest to dużo, wystarczająco jednak aby nasycić własną ciekawość.

Wszechświat uchyla przed nami swoje tajemnice. Pozwala nam zerknąć w swoje najskrytsze obszary. Wymaga jednak abyśmy potrafili go czytać. Nie jest to jednak lektura prosta. Językiem bowiem, w którym jest zapisana jest fizyka. My natomiast nie znamy połowy alfabetu. Pchani przez ciekawość musimy się jednak z nią zmierzyć. Szczęśliwie oręż nasz zacny a zwie się rozum.

  1. L. M. Krauss, R. J. Scherrer, “The End of Cosmology?”, Scientific American Magazine, February 25, 2005.
  2. A. Ashtekar, T. Pawłowski and P. Singh,  “Quantum nature of the big bang,”  Phys. Rev. Lett.  96 (2006) 141301.
  3. M. Bojowald,  “Loop quantum cosmology,”  Liv. Rev. Rel.  8 (2005) 11.
  4. A. Ashtekar and J. Lewandowski,  “Background independent quantum gravity: A status report,”  Class. Quant. Grav.  21 (2004).
  5. J. Mielczarek,  “Gravitational waves from the Big Bounce,”  JCAP 0811 (2008) 011.

© Jakub Mielczarek, 14 paździenika 2008