Kauzalne Dynamiczne Triangulacje

W 1948-tym roku, w artykule Space-Time Approach to Non-Relativistic Quantum Mechanics, Richard Feynman wprowadził nowatorskie podejście do mechaniki kwantowej, oparte o tak zwane całki po trajektoriach. W jego oryginalnym sformułowaniu, amplituda prawdopodobieństwa przejścia cząstki punktowej z pozycji x_i w chwili t_i do pozycji x_f w chwili x_f wyraża się poprzez następującą całkę:

\langle x_f, t_f |x_i, t_i \rangle = \int D x(t) e^{\frac{i}{\hslash} S[x(t)]},

gdzie S[x] to tak zwane działanie, będące funkcjonałem trajektorii x od punktu (t_i,x_i) do punktu (t_f,x_f). Działanie wyraża się poprzez funkcję Lagrange’a L (lagranżjan) w następujący sposób:

S[x(t)] = \int_{t_i}^{t_f} dt L(x(t),\dot{x}(t),t) .

Sformułowanie całek po trajektoriach mówi nam, że amplituda prawdopodobieństwa (tzw. propagator) \langle x_f, t_f |x_i, t_i \rangle jest całką (sumą) po czynnikach fazowych e^{\frac{i}{\hslash} S[x(t)]} dla wszystkich możliwych trajektorii x(t) biegnących od (t_i,x_i) do (t_f,x_f). Praktyka wygląda jednak nieco inaczej i w obliczeniach uwzględniane są zazwyczaj jedynie trajektorie które nie łamią przyczynowości (kauzalności).  Są to trajektorie które, w swoje drodze od x_i do  x_f, nie cofają się nigdy wstecz w czasie.  Obrazuje to rysunek poniżej:

pathintegral
Trajektorie kauzalne i akauzalne. 

Niebieskie krzywe na powyższym rysunku to trajektorie kauzalne. Dla tych trajektorii, w dowolnej chwili czasu, np. dla t_2, cząstka istnieje tylko w jednym miejscu, oznaczonym jako szary punkt. Dla porównania, czerwona krzywa przedstawia trajektorię akauzalną, dla której, w przedziale od t_3 do t_1, następuje cofanie się w czasie. Alternatywnie, możemy tę trajektorię zinterpretować w następujący sposób: Mianowicie, idąc w przód w czasie, od  t_i aż do chwili t_1,  mamy jedną cząstkę. Natomiast, w chwili  t_1 następuje kreacja cząstki i antycząstki. Przy czym, antycząstka porusza się wstecz w czasie i anihiluje z wyjściową cząstką w chwili t_3. Natomiast, powstała w chwili  t_1 cząstka podąża trajektorią kauzalną aż do t_f. Uwzględnienie procesów kreacji i anihilacji cząsteczek wychodzi, jednakże, poza opis cząstkowy i wymaga odwołania się do opisu w języku kwantowej teorii pola. Opis całek po trajektoriach dla cząstek nie jest więc wystarczający do tego by opisać trajektorie akauzalne, dla których możemy w pewnych momentach (np. w chwili t_2) obserwować więcej niż jedną cząstkę (np. w chwili t_2 mamy ich 3). Warto tu wspomnieć, że Richard Feynman jeszcze w czasach przed powstaniem nowoczesnej kwantowej teorii pola (której sam był współtwórcą) zastanawiał się nad znaczeniem akauzalnych trajektorii.  Opisuje to James Gleick w książce biograficznej Feynmana pt. “Geniusz”. Feynman miał mianowicie pomysł, iż wszystkie cząstki i antycząstki danego typu (np. elektrony i pozytony) są częścią jednej bardzo długiej pozawijanej w czasoprzestrzeni trajektorii. Przy czym, jej częściom skierowanym w przód w czasie odpowiadają cząstki, natomiast odcinkom skierowanym w tył w czasie odpowiadają antycząstki. Zmiany zwrotu takiej trajektorii w czasie (tak jak w t_1 i t_3 na rysunku powyżej) interpretujemy zaś jako kreacja lub anihilacja par cząstka-antycząstka. Obraz ten możemy, jedynie do pewnego stopnia, zachować w ramach współczesnej kwantowej teorii pól. W szczególności, antycząstki faktycznie można opisywać jako poruszające się wstecz w czasie cząstki (w sensie zadziałania na stan cząstki operacjami inwersji w czasie oraz parzystości). Nie wchodząc w dalsze szczegóły pomysłu Feynmana, zwróćmy jeszcze jedynie uwagę na kwestię prędkości, czyli pochodnej położenia po czasie, v = \frac{dx}{dt}. Na powyższym rysunku, różniczkowalność trajektorii  (brak “kolców”) powoduje, że zbliżając się do punktów w t_1 i t_3 dla (czerwonej) trajektorii akauzalnej, prędkość v dąży do plus lub minus nieskończoności (w zależności od której strony dochodzimy do punktu zwrotu).  To zaś jest w sprzeczności ze Szczególną Teorią Względności która, poprzez lorentzowską geometrię czasoprzestrzeni Minkowskiego, wprowadza górne ograniczenie na prędkość rozchodzenia się informacji, równe prędkości światła w próżni.

Ograniczenie na prędkość propagacji nie istniałoby, gdyby czasoprzestrzeń posiadała geometrię euklidesową. Choć wiemy, że w rzeczywistości tak nie jest, okazuję się jednak, że przejście z czasoprzestrzeni Minkowkiego do przestrzeni euklidesowej ma znacznie na gruncie rozważań teoretycznych.  Mianowicie, rozpatrywanie euklidesowych wersji teorii pozwala na analizę tak zwanych instantonów. Są to, dla cząstek,  rozwiązania w odwróconej studni potencjału, czyli w obszarach do których klasyczne cząstki nie mają dostępu. Rozważanie instantonów, w szczególności, pozwala wyznaczać prawdopodobieństwa tunelowania kwantowego.

Wick
Obrót Wicka na płaszczyźnie zespolonej.

Technicznie, przejście z czasoprzestrzeni Minkowskiego do przestrzeni euklidesowej możemy przeprowadzić za pomocą  obrotu Wicka.  Jest to przykład tak zwanego przedłużenia analitycznego, rozszerzającego rzeczywistą zmienną czasową t do dziedziny liczb zespolonych.  W tym szczególnym przypadku, dokonujemy zamiany t \rightarrow i \tau, gdzie \tau jest naszą nową (euklidesową) zmienną czasową, zaś i to jednostka urojona (i^2=-1). Obrót Wick ma bardzo ważne znacznie w podejściu całek po trajektoriach. Przekształca on mianowicie zespoloną całkę do postaci przypominającej rzeczywistą sumę statystyczną Z(T) (ang. partition function), rozważaną w fizyce statystycznej.  Co więcej, okazuje się, że jeśli rozważymy szczególny typ trajektorii w których wracamy do wyjściowego położenia po czasie \frac{\hslash}{k_{B}T}, (gdzie k_B to stała Boltzmanna) całka po trajektorii da nam dokładnie funkcję rozdziału dla temperatury T:

Z(T) = \int dx  \langle x, i \frac{\hslash}{k_{B}T} |x, 0 \rangle  = \oint D x(t) e^{-\frac{1}{\hslash} S_E[x(t)]},

gdzie S_E[x(t)] = -i S[x(t)] to tzw. działanie euklidesowe. Natomiast, przy całkowaniu \oint, spełniony jest warunek x(\tau=0)=x(\tau=\frac{\hslash}{k_{B}T}). Jest to ważny wynik gdyż pozwala rozpatrywać  całki po trajektoriach jako pewne układy statystyczne i stosować do ich obliczania metody znane z fizyki statystycznej. W szczególności, chodzi o symulacje komputerowe oparte na metodach Monte Carlo. Stan równowagi termodynamicznej takiego układu można natomiast związać z euklidesową trajektorią klasyczną (minimalizującą działanie S_E[x(t)]). Fluktuacje termiczne dualnego systemu statystycznego odpowiadają zaś fluktuacjom kwantowym wokół rozważanej wyjściowo trajektorii klasycznej.

Powyższe rozważania możemy zastosować nie tylko do cząstek, ale również do pól fizycznych, takich jak pole grawitacyjne. W przypadku grawitacji, całki po trajektoriach pozwalają analizować możliwe efekty kwantowej natury zjawisk grawitacyjnych. Jednym z najlepiej zbadanych podejść do grawitacji kwantowej, bazującym na całkach po trajektoriach, są tak zwane Kauzalne Dynamiczne Triangulacje (ang. Causal Dynamical Triangulations – CDT), wprowadzone przez Jana Ambjørna, Jerzego Jurkiewicza oraz Renate Loll i rozwijane już przez ponad 20 lat.  W przypadku tym, zamiast cząstki, rozważamy konfigurację pola grawitacyjnego, której odpowiada geometria przestrzenna. Rozważania w  ramach CDT przeprowadzono najpierw dla przypadku modelu przestrzeni jednowymiarowej, po czym uogólniono je do dwóch oraz, finalnie, trzech wymiarów przestrzennych.

Ewolucji geometrii przestrzennej w czasie, odpowiada geometria czasoprzestrzenna. Konfiguracje czasoprzestrzenne, łączące dwa brzegowe (początkowy i końcowy) stany geometrii przestrzennej są zaś naszymi nowymi trajektoriami (analogicznie do przypadku rozważanej wcześniej cząstki punktowej).  Działaniem które należy rozważyć w całkach po trajektoriach jest tak zwane działania Hilberta-Einsteina, z którego można wyprowadzić (korzystając z zasady najmniejszego działania) równania ogólnej teorii względności (OTW). Do działania grawitacyjnego, można również dodać wkład odpowiadający polom materii, co jednak wprowadza dodatkowe komplikacje. W związku z tym, w przeprowadzonych dotychczas rozważaniach, koncentrowano się na tzw. przypadku próżniowym, uwzględniającym kontrybucję od (dodatniej) stałej  kosmologicznej \Lambda. Całkowite działanie ma, w tym przypadku, postać:

S= \frac{1}{16 \pi G} \int_{\mathcal{M}} d^4x \sqrt{-det(g)} (R-2\Lambda),

gdzie całkowanie odbywa się po rozmaitości \mathcal{M} z brzegami czasowymi \mathcal{B}_{i} oraz \mathcal{B}_{f}. Natomiast, G to stała Newtona, R jest skalarem krzywizny Ricciego, det(g) oznacza zaś wyznacznik z metryki czasoprzestrzennej g_{\mu\nu}.

W przypadku CDT, powyższe działanie poddawane jest obrotowi Wicka, umożliwiając przejście do geometrii euklidesowej. Z jednej strony, zabieg taki przeprowadza zespolony propagator do postaci rzeczywistej funkcji rozdziału, prowadząc do wspomnianego związku z fizyką statystyczną. Z drugiej jednak strony, geometria czasoprzestrzenna pozbawiana  zostaje stożków świetlnych, co pozwala na obecność akauzalnych wkładów do całki po trajektoriach.  Idea CDT opiera się na narzuceniu kauzalności trajektorii, pomimo rozważania teorii, wydawałoby się, euklidesowej. Wprowadzenie warunku kauzalności usuwa z całki po trajektoriach “gałęzie” odchodzące z głównego “pnia” czasoprzestrzeni łączącej stan początkowy | \mathcal{B}_{i} \rangle ze stanem końcowym | \mathcal{B}_{2} \rangle. Przedstawiono to na poniższym rysunku:

cdtpath2
Przykładowa trajektoria geometrii od konfiguracji początkowej | \mathcal{B}_{i} \rangle do konfiguracji końcowej | \mathcal{B}_{2} \rangle. W ramach Kauzalnych Dynamicznych Triangulacji, nie są dozwolone akauzalne rozgałęzienia geometrii.

Jedynie w przypadku jednowymiarowej części przestrzennej możliwe okazało się uzyskanie amplitud prawdopodobieństwa w oparciu o obliczenia analityczne. Zbadania przypadków wyżej-wymiarowych, w tym tego odpowiadającego  czterowymiarowej czasoprzestrzeni, wymaga zastosowania metod numerycznych. Przeprowadzenie symulacji kwantowych ciągłych geometrii wymaga jednakże ich wcześniejszej dyskretyzacji, w celu zredukowania liczby stopni swobody. W praktyce, stosowana jest tak zwana dyskretyzacja Regge, bazująca na triangulacji ciągłej geometrii czasoprzestrzennej. Przygotowana w ten sposób dyskretna geometria, wraz z dyskretną wersją działania, stanowi punkt wyjścia do przeprowadzenia symulacji komputerowych.

Narzucenie na (dyskretne) trajektorie warunku kauzalności, przekłada się na zachowanie w czasie ich topologii. Na przykład, jeśli wyjściowa geometria przestrzenna posiada topologię okręgu \mathbb{S} (jak na rysunku powyżej), pozostaje nią w całym toku ewolucji. Złamanie kauzalności, poprzez  pojawienie się odnóg, powoduje że topologia przestrzenna ulega zmianie, na przykład poprzez rozszczepienie okręgu na dwa okręgi. Sytuację taką widzimy w dolnej części, umieszczonego powyższej, rysunku.

Najbardziej zaawansowane na świecie symulacje CDT przeprowadzane są od wielu lat w Zakładzie Teorii Układów Złożonych w Instytucie Fizyki  na Uniwersytecie Jagiellońskim w Krakowie. W symulacjach tych, przyjmuje się topologię przestrzenną 3-sfery (\mathbb{S}^3), bądź też trójwymiarowego torusa (\mathbb{S}\times \mathbb{S}\times \mathbb{S}). Przy czym, przypadek topologii 3-sfery został, jak dotąd, najlepiej przebadany i na dyskusji, otrzymanych dla niego, wyników się tutaj skupimy.

Pierwszym ważnym rezultatem przeprowadzonych symulacji jest wykazanie istnienia nietrywialnej struktury fazowej czasoprzestrzeni. Zagadnie to dyskutuję w moim wcześniejszym wpisie  “Stany skupienia grawitacji“. Jedna z obserwowanych faz, tak zwana faza C, odpowiada przypadkowi semi-klasycznemu, który koresponduje z rozwiązaniami klasycznej OTW. Ważną własnością fazy C jest to, że jej wymiar,  na odpowiednio dużych skalach, równy jest 4, co jest zgodne z przypadkiem czterowymiarowej czasoprzestrzeni w której żyjemy. Jednakże, analiza tak zwanego wymiaru spektralnego (ang. spectral dimension), wskazuje na to że wymiar spada kiedy rozpatrujemy odpowiednio małe skale przestrzenne i czasowe [Ambjorn, Jurkiewicz & Loll (2005)]. Jest to tak zwana redukcja wymiarowa, spotykana również w innych podejściach do kwantowej grawitacji. Redukcja wymiarowa wskazuje na to, że choć na odpowiednio dużych skalach geometria fazy C zgodna jest z euklidesową wersją czasoprzestrzeni de Sittera, to jednak na małych skalach wykazuje ona naturę kwantową. Dlatego też, określamy ją mianem semi-klasycznej, czyli korespondującej z fizyką klasyczną, jednakże wciąż wykazującą pewne własności kwantowe. Poniżej przedstawiono jak wygląda przykładowa semi-klasyczna trajektoria otrzymana w ramach komputerowych symulacji CDT.

CDT
Przykładowa trajektoria instantonowa, otrzymana w ramach Kauzalnych Dynamicznych Triangulacji.  Źródło

Jak należy rozumieć przedstawiony powyżej kształt? Po pierwsze, uściślijmy, że oś symetrii rotacyjnej powyższej geometrii odpowiada czasowi urojonemu \tau. Po drugie, w czasie tym narzucony jest symetryczny warunek brzegowy \mathcal{B}(\tau_i)=\mathcal{B}(\tau_f), wymagany w przypadku przejścia od całek po trajektoriach do funkcji rozdziału Z(T).

Okazuje się, że otrzymany kształt dla trajektorii semi-klasycznej (odpowiadającej stanowi równowagi termodynamicznej w ujęciu fizyki statystycznej) zgodny jest z rozwiązaniem dla klasycznego instantonu de Sittera. Instanton ten jest euklidesową trajektorią (pod barierą potencjału) dla modelu de Sittera w zakresie czynnika skali a \in [0,a_0], gdzie a_0 = \sqrt{\frac{3}{\Lambda}}. Aby otrzymać równanie trajektorii instantonowej, rozważmy wszechświat de Sittera (metryka FRW z dodatnią stałą kosmologiczną oraz dodatnią krzywizną przestrzenną), dla którego równanie Friedmanna przyjmuje postać:

\left(\frac{\dot{a}}{a} \right)^2 = \frac{\Lambda}{3} - \frac{1}{a^2}.

Rozwiązaniem tego równania jest funkcja hiperboliczna a(t) = a_0 \cosh (t/a_0). Jest to przykład nieosobliwej ewolucji, reprezentującego wszechświat ulegający najpierw kontrakcji, aż do minimalnej wartości czynnika skali równej  a_0, po czym następuje etap ekspansji. Zarówno kontrakcja jak i ekspansja przebiegają w sposób wykładniczy.

Niedozwolonym obszarem dla wprowadzonego powyżej przypadku lorentzowkiego jest przedział czynnika skali a \in [0,a_0), znajdujący się pod barierą potencjału dla tego modelu. Jednakże, dokonując  obrotu Wicka t \rightarrow i \tau przekształcamy rozwiązanie w postaci funkcji cosinus hiperboliczny do funkcji cosinus:

a(\tau) = a_0 \cos (\tau/a_0),

tak, że a \in [0,a_0]. Jest to poszukiwane rozwiązanie euklidesowe, dla obszaru pod barierą potencjału modelu lorentzowskiego. Ponieważ czynniki skali a jest zdefiniowany jako wartość nieujemna, rozwiązanie instantonowe jest dobrze określone w  skończonym przedziale czasu urojonego:  \tau \in [- \frac{\pi}{2}a_0, \frac{\pi}{2}a_0]. Znając ewolucję czynnika skali możemy wyznaczyć również ewolucję objętości, która wyraża się jako  V(\tau) = 2 \pi^2 a^3(\tau) =2 \pi^2 a^3_0 \cos^3 (\tau/a_0). Okazuje się, że funkcja ta jest zgodna z wynikami symulacji przeprowadzonymi w ramach CDT. Mówiąc ściślej, pokrywa się ona z, otrzymaną z uśrednienia po trajektoriach, zależnością objętości części przestrzennej od czasu \tau [Ambjorn, Jurkiewicz & Loll (2004)].

Pokrywanie się przewidywań CDT z klasyczną geometrią przestrzeni de Sittera to bardzo istotny rezultat. Pokazuje on, że jednorodna i izotropowa klasyczna czasoprzestrzeń może wyłonić się jako wynik uśrednienia kwantowych (często bardzo niejednorodnych) trajektorii. Ponadto, w przeciągu ostatnich lat pokazano, że również przewidywane w ramach CDT fluktuacje kwantowe instantonu są z godne z przewidywaniami analitycznymi bazującymi o model de Sittera [Ambjorn, Gorlich, Jurkiewicz & Loll (2008)]. Wyniki te, jak również rezultaty dotyczące struktury fazowej grawitacji oraz redukcji wymiarowej, dają impuls do tego by zacząć myśleć o weryfikacji empirycznej przewidywań CDT. O ile trudno tu mówić o wykorzystaniu naziemnych eksperymentów, to przewidywania dotyczące kosmologii wczesnego wszechświata rodzą pewne nadzieje na narzucenie więzów obserwacyjnych na przewidywania CDT.

Pierwszy krok w tym kierunku poczyniłem w moim artykule From causal dynamical triangulations to astronomical observationsEPL 119 (2017) no. 6, 60003 [arXiv:1503.08794], w którym rozważałem możliwość wykorzystania obserwacji mikrofalowego promieniowania tła do badania, przewidywanej w ramach CDT,  redukcji wymiarowej. Jak pokazały obliczenia, pewne szczególne (mało prawdopodobne) scenariusze ewolucji wczesnego wszechświata, uwzględniające przewidywania CDT, już dzisiaj można wykluczyć na postawie obserwacji astronomicznych. Dokonanie znaczącego postępu w tym kierunku w najbliższych latach, nie będzie jednak zadaniem łatwym.

Niezależnie jednak od możliwości weryfikacji empirycznej, zaawansowane symulacje komputerowe kwantowej czasoprzestrzeni, prowadzone w ramach Kauzalnych Dynamicznych Triangulacji, dają nam unikalną możliwość zrozumienia tego jak klasyczna czasoprzestrzeń może wyłaniać się z dynamiki ogromnej liczby kwantowych “cegiełek” na skali Plancka. Wszak jak pozostawił napisane na swojej tablicy Richard Feynman: “What I cannot create, I do not understand.”

© Jakub Mielczarek

Zwarte przestrzenie fazowe

Jednym z zagadnień, nad którym obecnie pracuję, jest konstrukcja teorii pól z tak zwanymi zwartymi przestrzeniami fazowymi. Teorie takie są uogólnieniem powszechnie rozważanych w fizyce teoretycznej teorii z afinicznymi (płaskimi) przestrzeniami fazowymi. Kierunek badawczy związany z uzwarcaniem przestrzeni fazowych pól fizycznych zainicjowaliśmy, wspólnie z dr Tomaszem Trześniewskim, w 2016-tym roku w pracy “The Nonlinear Field Space Theory” Phys. Lett. B 759 (2016) 424 (open access). Badania te kontynuujemy obecnie w ramach grantu Sonata Bis 7 z NCN pt. “Teorie pola ze zwartymi przestrzeniami fazowymi − od grawitacji do układów złożonych”. Jednym z ambitnych celów tego projektu jest zbudowanie (kwantowej) teorii grawitacji, cechującej się zwartą przestrzenią fazową. O wynikach prowadzonych przez nas badań napiszę więcej w jednym z kolejnych wpisów. Tutaj zaś chciałbym przygotować niezbędną podbudowę teoretyczną do dyskusji  naszych dotychczasowych rezultatów. Przedstawię mianowicie ideę zwartej przestrzeni fazowej na przykładzie układu fizycznego z jednym stopniem swobody, co można uważać za teorię pola skalarnego w punkcie (w przestrzeni zerowymiarowej).

Rozważmy więc pojedynczy stopień swobody, opisywany zmienną q. Wartości q należą do, tak zwanej, przestrzeni konfiguracyjnej \mathcal{C}, którą wyjściowo przyjmijmy za zbiór liczb rzeczywistych, \mathcal{C} = \mathbb{R}. Zmienna q może więc przyjmować dowolną wartość z zakresu liczb rzeczywistych i opisywać stopień swobody wybranego układu fizycznego. Jeśli, na przykład, interpretujemy q jako wartość pola skalarnego w punkcie, to wybór \mathcal{C} = \mathbb{R} oznacza, że pole to może zmieniać swoją wartość w zakresie od - \infty do +\infty. Jeśli zaś q opisuje położenie cząstki, to wybór \mathcal{C} = \mathbb{R} mówi nam, że mamy do czynienia z ruchem w jednym wymiarze przestrzennym, po całej osi liczb rzeczywistych.

Do pełnego scharakteryzowani stanu cząstki nie wystarczy podanie jej położenia. Tak samo, do określenia stanu pola nie wystarczy znajomość jego wartości. W obydwu przypadkach, konieczne jest określenie również tego jak q zmienia się w czasie. Informację tę zawiera, sprzężony z q, pęd kanoniczny p. Pary (q,p) wyznaczają zaś punkty należące do, tak zwanej, przestrzeni fazowej \Gamma. Z geometrycznego punktu widzenia, przestrzeń fazowa jest zazwyczaj tzw. wiązką kostyczną do przestrzeni konfiguracyjnej:

\Gamma = T^*(\mathcal{C}) := \left\{ (q,p) : q \in \mathcal{C}, p \in T_q^*(\mathcal{C}) \right\} ,

gdzie T_q^*(\mathcal{C})  to przestrzeń kostyczna do przestrzeni \mathcal{C} w punkcie q. Dla rozważanego przypadku \mathcal{C} = \mathbb{R}, otrzymujemy \Gamma = T^*(\mathcal{C}) = \mathbb{R} \times \mathbb{R} = \mathbb{R}^2, czyli płaszczyznę rzeczywistą. Dowolny punkt na tej płaszczyźnie reprezentuje stan układu klasycznego. Ewolucji układu w czasie odpowiadają zaś trajektorie (rysunek poniżej).

PhaseSpace
Przestrzeń fazowa \Gamma = T^*(\mathcal{C}) = \mathbb{R}^2, gdzie \mathcal{C}= \mathbb{R}T_{q_0}^*(\mathcal{C}) to przestrzeń kostyczna do przestrzeni \mathcal{C} w punkcie q_0. Wiązka kostyczna jest sumą rozłączną przestrzeni kostycznych dla wszystkich q_0 \in \mathcal{C}. Czarna trajektoria reprezentuje ewolucję układu w czasie. Niebieski punkt wskazuje na jednen ze stanów układu.

Istnieją jednak przypadki w których przestrzeni fazowej nie możemy wyrazić jako wiązki kostycznej  \Gamma = T^*(\mathcal{C}). Przykładem tego jest chociażby (zwarta) przestrzeń fazowa o geometrii sfery, którą przedyskutujemy dokładniej w dalszej części.  Przypadek ten wpisuje się natomiast w ogólną definicję przestrzeni fazowych, jako tak zwanych rozmaitości symplektycznych, czyli rozmaitości różniczkowych posiadających zamknięte formy różniczkowe

\omega = \frac{1}{2} \omega_{ij} dx^i \wedge dx^j,

gdzie, dla rozważanej wcześniej przestrzeni fazowej  \Gamma = \mathbb{R}^2, i =1,2 oraz x_1=q i x_2=p a forma różniczkowa przyjmuje postać \omega = dp \wedge dq. Symbol \wedge oznacza tak zwany iloczyn zewnętrzny (ang. exterior product) form różniczkowych, w rozważanym przypadku 1-formy dp oraz 1-formy dq. Zamkniętość  2-formy \omega oznacza zaś, że d\omega = d(dp \wedge dq) = 0. Niniejsza własność gwarantuje spełnienie tzw. tożsamości Jacobiego, która zaś implikuje łączność algebry Poissona. Algebra ta konstruowana jest w oparciu o nawias Poissona \{f,g\} :=\mathcal{P}^{ij}(\frac{\partial f}{\partial x^i})(\frac{\partial g}{\partial x^j}), gdzie \mathcal{P}^{ij} :=(\omega^{-1})^{ij} to tak zwany tensor Poissona, otrzymywany przez  odwrócenie formy symplektycznej \omega (co nie zawsze jest możliwe). Dla rozważanego przypadku \Gamma = \mathbb{R}^2, nawias ten wyraża się jako \{f,g\} = \frac{\partial f}{\partial q} \frac{\partial g}{\partial p}- \frac{\partial f}{\partial p} \frac{\partial g}{\partial q} , tak że dla pary kanonicznie sprzężonych zmiennych q i p otrzymujemy \{q, p\}=1. Wykorzystując nawias Poissona, możemy wprowadzić równanie Hamiltona \frac{df}{dt} = \{f, H\}+\frac{\partial f}{\partial t}, gdzie H jest tak zwaną funkcją Hamiltona (hamiltonianem), zaś f jest dowolną funkcją na przestrzeni fazowej. Równanie to opisuje ewolucję w czasie t układu fizycznego.

Płaskie (afiniczne) przestrzenie fazowe, tak  jak rozważany tu przypadek \Gamma = \mathbb{R}^2 mają szerokie zastosowanie do opisu świata fizycznego. Jednakże, w wielu przypadkach, nieograniczoność tych przestrzeni prowadzi do trudności. Na przykład,  w przypadku teorii pól, afiniczność przestrzeni fazowej przekłada się na nieograniczoność energii (hamiltonianu), będącej funkcją zmiennych fazowych. To zaś skutkuje możliwością pojawienia się niefizycznych nieskończoności. Lista potencjalnych problemów jest dłuższa. Możliwym sposobem na ich rozwiązanie jest uzwarcenie przestrzeni fazowej. Poniżej, przedstawię jak taka procedura  wygląda w przypadku \Gamma = \mathbb{R}^2 (płaszczyzna) uzwarconej do \Gamma = S^2 (sfera).

Rozważmy zatem sferyczną przestrzeń fazową, tak by w granicy gdy jej promień dąży do nieskończoności, odzyskiwać przypadek przestrzeni fazowej  \Gamma = \mathbb{R}^2. Innymi słowy, płaska przestrzeń fazowa będzie lokalnym przybliżeniem dla przestrzeni sferycznej,  w podobny sposób jak geometria euklidesowa jest lokalnym przybliżeniem dla (nieeuklidesowej) geometrii sferycznej.  Zamiast jednak rozważać kąty i długości, w przypadku przestrzeni fazowej obiektem naszego zainteresowania będzie forma symplektyczna \omega.

Naturalnym wyborem formy symplektycznej dla sfery jest 2-forma powierzchni \omega = S \sin \theta d \phi \wedge d \theta. Kąty \phi \in (-\pi, \pi] oraz \theta \in [0,\pi] to standardowe kąty w sferycznym układzie współrzędnych. Stała S została zaś wprowadzona ze względów wymiarowych, tak by forma symplektyczna  \omega miała wymiar powierzchni na płaszczyźnie fazowej 2D, czyli położenie razy pęd (= moment pędu). W celu wyrażenia tej formy poprzez zmienne q oraz p, wykorzystywane w przypadku \Gamma = \mathbb{R}^2, wykonajmy następującą zmianę zmiennych:

\phi = \frac{q}{R_1}  oraz  \theta = \frac{\pi}{2}-\frac{p}{R_2},

gdzie R_1 i R_2 to parametry wprowadzone ze względów wymiarowych. Stosując to do formy \omega = S \sin \theta d \phi \wedge d \theta, otrzymujemy:

\omega= \frac{S}{R_1R_2} \cos\Big(\frac{p}{R_2}\Big)dp\wedge dq.

Chcąc by w granicy R_1\rightarrow \infty oraz R_2 \rightarrow \infty, powyższa forma redukowała się do przypadku płaskiego, czyli \omega=dp\wedge dq, musimy przyjąć by S = R_1 R_2.

Sphere
Afiniczna (płaska) przestrzeń fazowa \Gamma = \mathbb{R}^2 może być rozpatrywana jako lokalne przybliżenie zwartej przestrzeni fazowej, na przykład o geometrii sfery \Gamma = S^2.

Spełnienie warunku poprawnej granicy afinicznej implikuje więc, że 2-forma \omega dla (zwartej) sferycznej przestrzeni fazowej ma postać:

\omega=\cos\Big(\frac{p}{R_2}\Big)dp\wedge dq.

Podobnie, jak w rozważanym wcześniej przypadku \Gamma = \mathbb{R}^2, w oparciu o formę symplektyczną możemy wyznaczyć postać nawiasu Poissona dla sferycznej przestrzeni fazowej:

\{f,g\} =  \frac{1}{\cos\Big(\frac{p}{R_2}\Big)}\left( \frac{\partial f}{\partial q} \frac{\partial g}{\partial p}- \frac{\partial f}{\partial p} \frac{\partial g}{\partial q}\right).

Różnica z przypadkiem \Gamma = \mathbb{R}^2 polega na obecności czynnika 1/\cos\Big(\frac{p}{R_2}\Big). W konsekwencji, nawias Poissona pomiędzy zmiennymi kanonicznymi przyjmuje postać \{q,p\} =  1/\cos\Big(\frac{p}{R_2}\Big).  Warto tu podkreślić, że zmienne q oraz p są dobrze zdefiniowane na sferze jedynie lokalnie.  Ich wartości nie zmieniają się na sferze w sposób ciągły. W szczególności, q \in (-\pi R_1, \pi R_1], tak że w puncie q= \pi R_1 następuje nieciągłość.  O ile, nie ma to znaczenia w przypadku kiedy rozważamy małe wartości q (w otoczeniu granicy afinicznej), tak w przypadku analizy globalnych własności sferycznej przestrzeni fazowej zasadne jest wprowadzenie zmiennych które zdefiniowane są w sposób globalny.  Naturalnym wyborem takich zmiennych jest parametryzacja sfery w kartezjańskim układzie współrzędnych. Dowolny punkt na sferze może być więc wskazywany przez wektor \vec{S}=(S_x,S_y,S_z) o składowych:

S_x:= S \sin\theta \cos\phi = S \cos \left( \frac{p}{R_2} \right) \cos \left( \frac{q}{R_1} \right),

S_y:= S \sin\theta \sin\phi = S \cos \left( \frac{p}{R_2} \right) \sin \left( \frac{q}{R_1} \right),

S_z:= S \cos\theta = S \sin \left( \frac{p}{R_2} \right).

Przy czym, spełnione jest równanie sfery  \vec{S}\cdot\vec{S}= S_x^2+S_y^2+S_x^2=S^2. Wykorzystując nawias Poissona dla sferycznej przestrzeni fazowej, możemy teraz pokazać że składowe wektora \vec{S} spełniają następującą relacje:

\{S_x,S_y\} = S_z, \ \ \ \{S_z,S_x\} = S_y, \ \ \ \{S_y,S_z\} = S_x.

Jest to tak zwana algebra su(2).  Oznacza to, że składowe wektora \vec{S} są generatorami obrotów, co jest konsekwencją  symetrii sferycznej przestrzeni fazowej. Zgodnie więc z definicją,  wektor \vec{S}, którego składowe spełniają powyższą algebrę, nazywamy momentem pędu (lub spinem). Fakt, iż sferyczna przestrzeń fazowa jest przestrzenią fazową momentu pędu ma daleko idące konsekwencje. W szczególności, obserwacja, że sferyczna przestrzeń fazowa (momentu pędu lub spinu) może być lokalnie opisywana przez płaską przestrzeń fazową z jednym stopniem swobody stała się podstawą do wprowadzenia, przeze mnie w 2017-tym roku, tak zwanej Korespondencji Spin-Pole  (Spin-Field Correspondence).  Korespondencja ta wiąże, w granicy dużego spinu (S\rightarrow \infty), znane afiniczne teorie pola z układami spinowymi. W szczególności, jak pokazaliśmy z moimi współpracownikami z Uniwersytetu Fudan w Szanghaju w pracy  “Klein-Gordon field from the XXZ Heisenberg model” (przyjęte do druku w International Journal of Modern Physics D), pole skalarne Kleina-Gordona można otrzymać z łańcucha spinowego XX Heisenberga (model XXZ Heisenberga w granicy \Delta \rightarrow 0 parametru anizotropii).

Posłużyłem się powyżej określeniem spin, które zarezerwowane jest do określenia wewnętrznego momentu pędu cząstek, bezpośrednio związanego z jej kwantową naturą  i wyrażającego się w ułamkach (n/2, gdzie n = 0,1,2,3,\dots) zredukowanej stałej Plancka \hslash.  Jednakże, jak dotąd, nasze rozważania były skupione na analizie klasycznych przestrzeni fazowych, dla których wartość momentu pędu S pozostawała nieokreślona. Dla kompletności naszych rozważań, zakończymy więc naszą dyskusję zarysem analizy przypadku kwantowego. Mianowicie, w ujęciu kwantowym, stan układu nie jest opisywany przez punkt w przestrzeni fazowej lecz przez wektor w przestrzeni Hilberta (warto tu zaznaczyć, że w podejściu zwanym mechaniką kwantową na płaszczyźnie fazowej, stan kwantowy układu można związać z tak zwaną funkcją gęstości kwaziprawdopodbieństwa (funkcja Wignera) określoną na przestrzeni fazowej). Wymiar przestrzeni Hilberta, czyli ilość liniowo niezależnych wektorów bazowych, wiąże się natomiast z powierzchnią przestrzeni fazowej. Mianowicie, zasada nieoznaczoności Heisenberga mówi nam, że iloczyn nieoznaczoności pomiarów q i p ograniczony jest od dołu w następujący sposób (dla przypadku płaskiej przestrzeni fazowej):

\Delta q \Delta p \geq \frac{\hslash}{2}.

Nie możemy dokładniej wyznaczyć więc klasycznego stanu stopnia swobody na płaszczyźnie fazowej niż jako powierzchni \sim \hslash. Do opisu układu, którego przestrzeń fazowa ma powierzchnię A potrzebujemy więc około A/\hslash niezależnych wektorów w przestrzeni Hilberta. W przypadku płaskiej przestrzeni fazowej, z uwagi na nieskończoność powierzchni, przestrzeń Hilberta musi więc posiadać nieskończony wymiar.  Jednakże, dla przypadku sfery \Gamma=S^2, powierzchnia przestrzeni fazowej jest równa:

A =  \int_{\Omega} \omega = 4 \pi S < \infty,

gdzie wykonano całkowani po pełnym kącie bryłowym \Omega. Wymiar przestrzeni Hilberta jest więc skończony i proporcjonalny do \sim S/\hslash. Ponieważ wymiar przestrzeni Hilberta jest liczbą naturalną, dozwolone są jedynie pewne wartości S, będące wielokrotnością stałej Plancka \hslash. Sama zwartość przestrzeni fazowej implikuje więc kwantowanie momentu pędu (spinu). Dokładny rachunek, wykorzystujący kwantowanie algebry su(2) lub też stosując tak zwane kwantowanie geometryczne sfery, mówi nam, że wymiar przestrzeni Hilberta dla spinu wyraża się jako \text{dim} H_s = 2s+1, gdzie s=0,\frac{1}{2}, 1, \frac{3}{2}, \dots. Natomiast, powierzchnia przestrzeni fazowej wyraża się jako  4 \pi S =4 \pi \hslash s .  Jeśli, na przykład, rozważymy spin elektronu, dla którego s=1/2, odpowiadająca mu powierzchnia przestrzeni fazowej będzie równa 2\pi \hslash.  

© Jakub Mielczarek

Kwantowe cienie

Rzucany przez przedmiot cień nie zawsze daje nam właściwe wyobrażenie o naturze oświetlanego obiektu. Dowodzi tego chociażby twórczość duetu artystycznego Tim Noble i Sue Webster, której przykład pozwoliłem sobie zamieścić poniżej.

Real Life Is Rubbish
Tim Noble i Sue Webster Real Life Is Rubbish (2002). Źródło

Przyjrzymy się powyższemu zdjęciu trochę bliżej. Widzimy na nim stertę śmieci które, pod określonym kątem, rzucają cień dwojga ludzi – Twórców instalacji. Jednym z zamysłów Artystów było niewątpliwie to by wprowadzić nasz mózg w zakłopotanie, poprzez dwoistość interpretacji tego co widzimy. Co mianowicie jest pierwotne, czy są to sylwetki ludzi czy też oświetlane przedmioty? Oczywiście, z punktu widzenia fizyki , sprawa jest prosta, pierwotna jest sterta rupieci, natomiast cień jest wtórny, a ponadto nie jest on obiektem fizycznym. Wchodząc na warstwę czysto artystyczną, Twórcy skłaniają nas więc do interpretowania prawdziwego (fizycznego) życia jako nie wartego więcej niż to co zdołaliśmy wyrzucić. Świat alegorii nie rządzi się jednak prawami fizyki, przez co nieskrępowanie moglibyśmy kontynuować dalej nasze wywody na temat interpretacji i znaczeń. Jest to niewątpliwe zarówno przyjemne ćwiczenie naszej kreatywności oraz intelektualne wyzwanie. Chciałbym jednak żebyśmy, po tej małej rozgrzewce, wykorzystali nasze umysły do zastanowienia się nad tym czy skoro nie jeden cień to może większa ich ilość może nam pozwolić odsłonić naturę obiektu  który te cienie rzuca. Wyobraźmy sobie na przykład, że instalację Real Life Is Rubbish zaczynamy oświetlać pod innymi kątami. Otrzymane cienie nie będą miały już nic wspólnego z sylwetkami ludzi, mogą nie przypominać zupełnie niczego.  Czy istnieje jednak metoda na to by wykorzystując te dwuwymiarowe rzuty zrekonstruować trójwymiarowy kształt sterty śmieci? Okazuje się, że jest to możliwe, chociaż w przypadku nietransparentnych obiektów taka procedura ma swoje istotne ograniczenia. Transparentność przedmiotów zależy jednak w dużym stopniu od długości fali którymi je oświetlimy. Jeśli zamiast światła widzialnego użylibyśmy rentgenowskiego zakresu promieniowania elektromagnetycznego, na podstawie rzucanych przez przedmiot cienieni moglibyśmy zrekonstruować jego trójwymiarowy kształt. Metoda ta nazywa się tomografią i jest powszechnie stosowana w obrazowaniu medycznym.  Bodajże najpopularniejszym jej przykładem jest tomografia komputerowa (CT), pozwalająca dzięki obrazom (cieniom) rentgenowskim, otrzymanym pod różnym kątem, stworzyć trójwymiarowy obraz, na przykład mózgu (film poniżej).

Od strony matematycznej, zasada działania tomografii opiera się na tak zwanej transformacie Radona. Jest to operacja  która na podstawie dwuwymiarowych projekcji (cieni) pozwala odzyskać trójwymiarowy rozkład gęstości obiektu.

Podobną do tomografii komputerowej procedurę rekonstrukcji trójwymiarowego obrazu możemy przeprowadzić również w mikroskali – w świecie kwantowym. Nosi ona nazwę tomografii kwantowej.  Odpowiednikiem rozkładu gęstości jest tu tak zwana funkcja Wignera, którą otrzymujemy ze stanu  kwantowego | \Psi \rangle, lub ogólniej tak zwanej macierzy gęstości, która w przypadku stanów czystych (ang. pure states) może być wyrażona w następujący sposób: \hat{\rho} = | \Psi \rangle \langle \Psi |.  Na przykład, dla cząstki w jednym wymiarze funkcję Wignera W(x,p), gdzie x to położenie a p to pęd możemy zapisać jako

W(x,p) = \frac{1}{\pi \hslash} \int_{-\infty}^{+\infty} \langle x+y | \hat{\rho} | x-y \rangle e^{-2i py/\hslash} dy.

Z uwagi na ścisłą relację pomiędzy funkcją Wignera a macierzą gęstości, poprzez tomografię kwantową rozumiemy zrekonstruowanie, poprzez dokonanie odpowiednich pomiarów “kwantowych cieni” stanu układu kwantowego, jednego z tych dwóch obiektów.  Chciałbym Ci teraz drogi Czytelniku pokazać jak to wygląd w praktyce i w jaki sposób tomografię stanu kwantowego będziesz mogła lub mógł przeprowadzić samodzielnie, nie odchodząc nawet od komputera.  Choć świat kwantowy może Ci się jawić jako zupełnie niedostępny a wykonywanie w nim pomiarów jako coś mało realnego, dzięki rozwojowi technologii kwantowych możemy się dzisiaj do niego całkiem łatwo dostać.  Wszystko za sprawą dostępnego publicznie pięciokubitowego komputera kwantowego firmy IBM, do którego możesz uzyskać dostęp poprzez tę stronę internetową. Jako wstęp do zagadnienia komputerów kwantowych zachęcam Cię do zapoznania się z moim wcześniejszym wpisem Elementary quantum computing.  Zakładając, że jesteś uzbrojona/ny w podstawowe wiadomości dotyczące mechaniki kwantowej, chciałbym przejść do pokazania Ci jak przeprowadzić tomografię stanu kwantowego pojedynczego kubitu, czyli stanu

|\Psi \rangle = \alpha|0\rangle +\beta |1\rangle,

gdzie, \alpha, \beta \in \mathbb{C} (liczby zespolone), a warunek normalizacji stanu kwantowego \langle \Psi | \Psi \rangle = 1 implikuje, że |\alpha|^2+|\beta|^2=1. Kubit jest nośnikiem najmniejszej porcji informacji kwantowej (odpowiednik klasycznego bitu) i od strony matematycznej jest elementem dwuwymiarowej przestrzeni wektorowej nad ciałem liczb zespolonych, czyli tak zwanej przestrzeni Hilberta.

Zanim przejdziemy do przeprowadzenia pomiarów na kubicie wykorzystując komputer kwantowy IBM Q, wprowadźmy najpierw niezbędne podstawy teoretyczne. Po pierwsze, będziemy chcieli zrekonstruować macierz gęstości \hat{\rho}, która w przypadku kubitu jest macierzą 2\times2 i można ją wyrazić jako:

\hat{\rho} = \frac{1}{2} \left( \hat{\mathbb{I}}+ \langle \hat{X}\rangle \hat{X}+ \langle \hat{Y}\rangle \hat{Y}+ \langle \hat{Z}\rangle \hat{Z}    \right) = \frac{1}{2}\left( \hat{\mathbb{I}}+\vec{S}\cdot \vec{\sigma}  \right) =\frac{1}{2} \left( \begin{array}{cc} 1+\langle \hat{Z}\rangle & \langle \hat{X}\rangle-i\langle \hat{Y}\rangle \\ \langle \hat{X}\rangle+i\langle \hat{Y}\rangle   & 1-\langle \hat{Z}\rangle \end{array} \right) .

Powyżej, wprowadziłem operatory \hat{X}, \hat{Y}, \hat{Z}, którym w reprezentacji macierzowej odpowiadają tak zwane macierze Pauliego:

\hat{X} := \sigma_x = \left( \begin{array}{cc} 0 & 1  \\ 1  & 0 \end{array} \right),  \ \  \hat{Y} := \sigma_y = \left( \begin{array}{cc} 0 & -i  \\ i  & 0 \end{array} \right),  \ \ \hat{Z} := \sigma_z = \left( \begin{array}{cc} 1 & 0  \\ 0  & -1 \end{array} \right) ,

składające się na wektor \vec{\sigma} = (\sigma_x,\sigma_y,\sigma_z).  Natomiast,  wektor \vec{S} = (\langle \hat{X}\rangle,\langle \hat{Y}\rangle,\langle \hat{Z}\rangle) złożony jest z wartości średnich które można obliczyć w oparciu o ogólne wyrażenie: \langle \hat{A}\rangle := \text{tr} (\hat{\rho} \hat{A}).

Po drugie, warto w tym momencie wprowadzić użyteczne pojęcie sfery Blocha. Mianowicie, jest to sfera jednostkowa która reprezentuje wszystkie możliwe stany kwantowe kubitu. Każdy punkt na tej sferze to inny stan kwantowy i wskazuje na niego wprowadzony powyżej wektor \vec{S}. Równanie sfery Blocha to więc \vec{S}\cdot \vec{S} = \langle \hat{X}\rangle^2+\langle\hat{Y}\rangle^2+\langle \hat{Z}\rangle^2=1. Warto zaznaczyć, że powyższe równanie sfery jest konsekwencją tego, iż \hat{\rho}=\hat{\rho}^2, co wynika z założenia dotyczącego czystości stanu kwantowego.

Bloch

Sferę Blocha wygodnie sparametryzować poprzez poprzez kąty \phi \in [0, 2 \pi) oraz \theta \in [0, \pi] tak, że stan kwantowy kubitu możemy z ich pomocą zapisać jako

| \Psi \rangle = \cos(\theta/2) |0 \rangle + e^{i \phi} \sin (\theta/2)| 1 \rangle,

gdzie pominięty został nieistotny globalny czynnik fazowy. Tomografia stanu kwantowego kubitu równoważna jest ze znalezieniem składowych wektora \vec{S},  wskazującego na konkretny punk na sferze Blocha. Wektor ten jest obiektem który chcemy zrekonstruować, podobnie jak rozważany wcześniej oświetlany przedmiot. Korzystając z tej analogii, możemy obrazowo powiedzieć, że wektor Blocha \vec{S} “rzuca trzy cienie” będące jego składowymi (rzutami).  Tomografia stanu kwantowego wymaga określenia tych trzech składowych. Jednakże, w przypadku stanów czystych, długość wektora  \vec{S} jest równa jeden (spełnione jest równanie sfery \vec{S}\cdot \vec{S} = \langle \hat{X}\rangle^2+\langle\hat{Y}\rangle^2+\langle \hat{Z}\rangle^2=1) co wprowadza relację pomiędzy “cieniami”. W takim przypadku, wystarczy zmierzyć jedynie dwie spośród wszystkich trzech składowych. Trzeci rzut możemy zaś wyznaczyć z równania sfery Blocha.  Z uwagi na to, że w przypadku ogólnym, stan kwantowy poprzez jego oddziaływanie ze środowiskiem może nie być do końca czysty (staje się tak zwanym stanem mieszanym) zasadne jest by z góry nie dokonywać założenia o czystości stanu kwantowego.

Komputer kwantowy IBM, pracujący w oparciu  o tak zwane kubity nadprzewodzące, pozwala nam wykonać pomiary w bazie własnej operatora \hat{Z}.  Wielokrotne powtórzenie pomiarów w takiej bazie, dla każdorazowo przygotowanego na nowo takiego samego stanu kwantowego, pozwala wyznaczyć wartość średnią operatora \hat{Z} w tym stanie. Mianowicie, ponieważ \hat{Z}|0\rangle = |0\rangle oraz  \hat{Z} |1\rangle = -|1\rangle, otrzymujemy

\langle \hat{Z} \rangle = (\alpha^* \langle 0| +\beta^* \langle 1|)(\alpha|0\rangle -\beta |1\rangle) = |\alpha|^2-|\beta|^2 = P(0)-P(1),

gdzie wykorzystaliśmy ortonormalność stanów bazowych |0\rangle i |1\rangle. Poszukiwana średnia jest więc różnicą pomiędzy prawdopodobieństwami znalezienia układu w stanie |0\rangle a w stanie  |1\rangle. Wyznaczenie średnich \langle \hat{X} \rangle  oraz \langle \hat{Y} \rangle, niezbędnych do przeprowadzenia tomografii, nie jest już takie bezpośrednie. Należy mianowicie dokonać pomiarów w bazach własnych operatorów \hat{X}   oraz \hat{Y}. Jak pokażemy poniżej, można tego dokonać dokonując odpowiednich transformacji badanego stanu kwantowego.  Do tego celu będą nam pomocne dodatkowe operatory:

\hat{H} = \frac{1}{\sqrt{2}} \left( \begin{array}{cc} 1 & 1  \\ 1  & -1 \end{array} \right), \ \ \  \hat{S} = \left( \begin{array}{cc} 1 & 0  \\ 0  & i \end{array} \right), \ \ \  \hat{S}^{\dagger} = \left( \begin{array}{cc} 1 & 0  \\ 0  & -i \end{array} \right) ,

pierwszy z nich to tak zwany operator Hadamarda, stowarzyszona z nim tak zwana bramka Hadamarda jest ważnym elementem w konstrukcji obwodów kwantowych. Operator \hat{S} to natomiast operator obrotu fazy o 90 stopni, natomiast \hat{S}^{\dagger} to jego sprzężenie hermitowskie.

Ponieważ jesteśmy już blisko momentu w którym zaczniemy dokonywać konkretnych pomiarów, zdecydujmy się na wybór stanu kwantowego który będziemy chcieli poddać tomografii. Mój wybór padł na stan:

| \Psi \rangle = \hat{T} \hat{H} | 0 \rangle = \frac{1}{\sqrt{2}} \left( | 0 \rangle + e^{i \frac{\pi}{4}} | 1 \rangle  \right),

dla którego wektor Blocha wskazuje, pod kątem \phi = 45^{\circ}, na punkt na  równiku na sferze Blocha. Natomiast, Ciebie drogi Czytelniku, po przeanalizowaniu poniższego przykładu,  zachęcam do eksperymentowania z wybranymi przez Ciebie stanami kwantowymi. Dodam jeszcze, że powyżej wykorzystałem operator \hat{T} zdefiniowany jest w następujący sposób:

\hat{T} := \sqrt{\hat{S}}=\left( \begin{array}{cc} 1 & 0  \\ 0  & e^{i \frac{\pi}{4}} \end{array} \right).

Dla wybranego przeze mnie stanu kwantowego, macierz gęstości przybiera postać:

\hat{\rho}_1 = \frac{1}{2} \left( \begin{array}{cc} 1 & \frac{1}{\sqrt{2}}-\frac{i}{\sqrt{2}}  \\  \frac{1}{\sqrt{2}}+ \frac{i}{\sqrt{2}}   & 1 \end{array} \right) .

Sprawdzenie tego pozostawiam jako zadanie dla Ciebie. Porównują elementy tej macierzy z wprowadzoną na wstępie ogólną postacią macierzy gęstości dla kubitu możemy odczytać, że wartości operatorów \hat{X}, \hat{Y}, \hat{Y} mają w tym stanie następujące wartości:

\langle \hat{X} \rangle = \frac{1}{\sqrt{2}},  \ \ \langle \hat{Y} \rangle = \frac{1}{\sqrt{2}}, \ \  \langle \hat{Z} \rangle = 0.

Przekonajmy się teraz na ile te przewidywania teoretyczne zgadzają się z pomiarami otrzymanymi w komputerze kwantowym charakteryzującym się błędami zarówno bramek kwantowych oraz odczytu jaki i wynikającymi z tak zwanej dekoherencji kwantowej, wprowadzającej mieszanie stanu kwantowego.

Pomiar \langle \hat{Z} \rangle

Poniżej, przedstawiono obwód kwantowy umożliwiający wytworzenie stanu | \Psi \rangle = \hat{T} \hat{H} | 0 \rangle = \frac{1}{\sqrt{2}} \left( | 0 \rangle + e^{i \frac{\pi}{4}} | 1 \rangle  \right), oraz wykonanie na nim pomiarów w bazie \{|0\rangle, |1 \rangle \}. Obwód taki możemy łatwo zbudować korzystając z kreatora dostępnego na stronie IBM Experience.

Tom-ZPowtarzając powyższy algorytm 1024 razy otrzymaliśmy  P(0)=0.567 oraz  P(1)=0.433, co pozwala wyznaczyć \langle \hat{Z} \rangle = P(0)-P(1)=0.134. Niepewność tego wyniku ma dwa źródła. Pierwsze jest związane z błędami instrumentalnymi pochodzącymi od błędów bramek, będącymi na poziomie 0.001 na bramkę jedno-kubitową, oraz błędami odczytu, który jest na poziomie 0.08. Drugie źródło niepewności jest związane ze statystyczną naturą mechaniki kwantowej. W  rozważanej sytuacji spodziewamy się, że z jednakowym prawdopodobieństwem będziemy otrzymywać jako wynik pomiaru stany |0\rangle oraz  |1\rangle. Zagadnienie oszacowania odpowiednich niepewności jest matematycznie równoważne do przypadku błądzenia przypadkowego w jednym wymiarze. Jeśli przez N_0 oznaczymy ilość wyników  |0\rangle a przez N_1 ilość wyników dla |1\rangle, tak, że N_0+N_1=N=1024, to odchylenie standardowe N_0 i N_1 wyniesie s=\sqrt{N/4}=16. Stąd, możemy wyznaczyć niepewność estymacji prawdopodobieństwa, wynikającą ze statystycznej natury mechaniki kwantowej na s/N = 1/\sqrt{4N} \approx 0.016. Sumaryczną niepewność pomiaru możemy więc określić na około 0.1, czyli około 10 \%.  Otrzymane wyniki, dla P(0) oraz P(1), są w granicach tej niepewności zgodne z teoretycznie przewidywanymi  wartościami.

Pomiar \langle \hat{X} \rangle

Wykonanie pomiaru wartości średniej \langle \hat{X} \rangle wymaga obrócenia układu tak żeby ustawić kierunek X wzdłuż osi Z. Można tego dokonać dzięki poniższej relacji operatorowej

\hat{X} = \hat{H} \hat{Z} \hat{H},

którą łatwo dowieść wykorzystując reprezentację macierzową zaangażowanych tu operatorów. Na tej podstawie, wartość średnią operatora \hat{X} w  stanie  |\Psi \rangle możemy wyrazić jako

\langle \hat{X} \rangle = \langle \Psi | \hat{X} |\Psi \rangle = (\langle \Psi | \hat{H}) \hat{Z} (\hat{H}|\Psi \rangle) .

Żeby więc obliczyć wartość  \langle \hat{X} \rangle należy na stan  |\Psi \rangle zadziałać operatorem \hat{H}, po czym wystarczy dokonać pomiarów w bazie operatora \hat{Z}. Ilustruje to poniższy obwód kwantowy:

Tom-XWykonując 1024 pomiary, zupełnie tak samo jak w przypadku \langle \hat{Z} \rangle, otrzymujemy  P(0)=0.870, P(1)=0.130, co pozwala nam wyznaczyć \langle \hat{X} \rangle = P(0)-P(1)=0.740. Rozważania dotyczące niepewności pomiaru są analogiczne jak w przypadku wyznaczania  \langle \hat{Z} \rangle.

Pomiar \langle \hat{Y} \rangle

Podobnie jak w przypadku pomiaru \langle \hat{X} \rangle, również wyznaczenie wartości średniej operatora \hat{Y} może zostać wykonana poprzez odpowiednią transformację stanu kwantowego. W tym przypadku, należy wykorzystać transformację:

\hat{Y} = (\hat{S} \hat{H}) \hat{Z}(\hat{S} \hat{H})^{\dagger} = (\hat{S} \hat{H}) \hat{Z}(\hat{H} \hat{S}^{\dagger}),

(udowodnij tę relację) na której podstawie:

\langle \hat{Y} \rangle = \langle \Psi | \hat{Y} |\Psi \rangle = (\langle \Psi | \hat{S} \hat{H}) \hat{Z} (\hat{H} \hat{S}^{\dagger}|\Psi \rangle).

W celu wyznaczenia wartość średniej \langle \hat{Y} \rangle musimy więc na otrzymany stan zadziałań najpierw operatorem \hat{S}^{\dagger}, następnie operatorem \hat{H}, po czym dokonać pomiarów w bazie operatora \hat{Z}, jak to przedstawiono na obwodzie poniżej:

Tom-Y

Stąd, postępując analogicznie jak w poprzednich przypadkach, otrzymujemy P(0)=0.837, P(1)=0.163, a to pozwala nam wyznaczyć  \langle \hat{Y} \rangle = P(0)-P(1)=0.674. Czym kończymy nasze pomiary. Pozostaje nam pozbierać otrzymane wyniki.

Zbierając wszystko razem  

Zbierając powyższe wyniki, otrzymujemy następujący wektor Blocha:

\vec{S} = (\langle \hat{X}\rangle,\langle \hat{Y}\rangle,\langle \hat{Z}\rangle) =  (0.740,0.674,0.134),

którego kwadrat modułu \vec{S}\cdot \vec{S} \approx 1.02 co jest, w granicach błędu, zgodne z przypadkiem stanu czystego. Natomiast, otrzymana w wyniku przeprowadzonej tomografii macierz gęstości to

\hat{\rho}_2 = \frac{1}{2} \left(\begin{array}{cc} 1.134  & 0.740-i 0.674 \\ 0.740+i 0.674  & 0.866 \end{array} \right) .

Powszechnie stosowaną metodą ilościowego określenia zgodności dokonanej tomografii z wartością teoretyczną jest wyznaczenie tak zwanej wierności (ang. fidelity) zdefiniowanej w następujący sposób:

F(\hat{\rho}_1,\hat{\rho}_2):= \text{tr}\sqrt{\sqrt{\hat{\rho}_1}\hat{\rho}_2 \sqrt{\hat{\rho}_1}} .

Stosując powyższe wyrażenia do teoretycznie przewidzianej macierzy gęstości \rho_1 oraz macierzy gęstości otrzymanej w wyniku procedury tomografii \rho_2, otrzymujemy wartość F(\hat{\rho}_1,\hat{\rho}_2) \approx 99.996 \%. Wierność zrekonstruowanego kwantowego tomogramu jest więc bardzo wysoka, co jest jednak zgodne z oczekiwaniami dla pojedynczego kubitu. W przypadku tomografii przeprowadzonej dla większej ilości kubitów, wierność odwzorowania będzie odpowiednio niższa. O ile niższa? To już zależy od konkretnego stanu kwantowego. Jeśli masz ochotę na dalsze ambitniejsze wyzwanie, zachęcam Cię do przeprowadzenia tomografii jednego ze splątanych stanów Bella. Stany te odgrywają dużą rolę zarówno w obliczeniach kwantowych jak i w teleportacji kwantowej oraz kwantowej kryptografii (np. protokół Ekerta). W zastosowaniach tych, przygotowanie stanu kwantowego o odpowiednio wysokiej wierności ma znaczenie praktyczne i uzależnione jest od tego na przykład bezpieczeństwo zaszyfrowanej kwantowo informacji. Przyglądając się uważnie “kwantowym cieniom” stanu Bella możemy zdiagnozować czy jest on wystarczajaco “zdrowy” do wykonania powierzonego mu zadania.

© Jakub Mielczarek

Stany skupienia grawitacji

Ogólna Teoria Względności Einsteina przyzwyczaiła nas do myślenia o grawitacji w języku geometrycznej struktury jaką jest czterowymiarowa czasoprzestrzeń. Jednakże, coraz  większa liczba wyników badań nad kwantową naturą oddziaływań grawitacyjnych wskazuje na możliwość występowania różnych faz (stanów skupienia) pola grawitacyjnego. Czasoprzestrzenny stan skupienia jest jedną z kilku możliwości jakie obecnie znamy.

Czy ta różnorodność fazowa grawitacji powinna nas dziwić? Absolutnie nie. Występowanie faz jest jedną z podstawowych własności  układów złożonych (ang. complex systems). Połączenie dużej ilości stopni swobody (np. cząsteczek) oraz wprowadzenie pomiędzy nimi nieliniowego oddziaływania w sposób nieodłączny wiąże się z występowaniem jakościowo różnych sposobów wewnętrznej organizacji takiego układu, czyli faz. Ponadto, fazy te rozdzielone są przez ostre granice zwane przejściami fazowymi. Zachowanie to dotyczy nie tylko systemów dyskretnych ale również ciągłych układów fizycznych jakimi są pola  samooddziałujące (przykładem takiego pola jest pole grawitacyjne).

Z kwantowego punktu widzenia, pole grawitacyjne należy uznać za przykład układu złożonego czy też układu wielociałowego (ang. many-body system). „Atomy” przestrzeni lub czasoprzestrzeni, które wyłaniają się z kwantowych teorii grawitacji, mogą, poprzez

scientificamerican1008-44-I3
„Atomy” przestrzeni w Pętlowej Grawitacji Kwantowej. Źródło

wzajemne oddziaływanie, tworzyć makroskopowe konfiguracje o jakościowo różnych własnościach. W zależności od warunków w których znajdzie się pole grawitacyjne, może przyjąć ono jedną z kilku zidentyfikowanych dotychczas teoretycznie faz. Jest to zachowanie analogiczne do przypadku zbioru cząsteczek H_2O, który w zależności od temperatury otoczenia i zajmowanej objętości utworzy jeden z trzech stanów skupienia: ciekły, stały (lód) lub gazowy (para wodna).

Nic nie stoi na przeszkodzie by przeprowadzić stosowne eksperymenty i zaobserwować stany skupienia wody. Dla grawitacji,  z uwagi na niezwykle słabe sprzężenie pomiędzy materią a polem grawitacyjnym, taka możliwość obecnie nie istnieje. Wytworzenie stanów pola grawitacyjnego w których moglibyśmy spodziewać się wystąpienia nowej fazy wymagałoby ekstremalnych gęstości energii, prawdopodobnie możliwych do osiągnięcia jedynie w bardzo wczesnym Wszechświecie lub we wnętrzach czarnych dziur. Teoretyczna analiza struktury fazowej grawitacji jest również zadaniem niełatwym. Problem polega na tym, że zazwyczaj w badaniach nad kwantową grawitacją rozpatrujemy funkcję (np. hamiltonian) opisującą oddziaływanie pomiędzy pojedynczymi kwantami („atomami”) pola grawitacyjnego. Z analizy samej postaci tej funkcji praktycznie niemożliwe jest wyciągnięcie wniosków dotyczących struktury fazowej rozważanego układu. Wiąże się to z faktem, iż występowanie faz jest przykładem zjawiska emergentnego. Na tej samej zasadzie, znajomość potencjału oddziaływania pomiędzy dwiema cząsteczkami wody nie mówi nam jeszcze nic o stanach skupienia wody które wyłonią się w makroskopowych układach takich cząsteczek.

Jak więc możemy sobie z tym problemem poradzić? Istnieją dwie główne drogi: symulacje wielociałowe kwantowej grawitacji oraz teoria renormalizacji, której zastosowanie może również wymagać przeprowadzenia symulacji.  Przybliżę tutaj podejście pierwsze. Najbardziej zaawansowane badania tego typu prowadzi się obecnie w ramach tak zwanych Kauzalnych Dynamicznych Triangulacjami (ang. Causal Dynamical Triangulations – CDT).  Wyniki najnowszych badań w ramach CDT wskazują na występowanie trzech lub

pd
Trzy fazy czterowymiarowej grawitacji w CDT. Źródło

czterech (w zależności od tego jaki  tzw. parametr porządku jest badany) faz grawitacji. Jedną z nich jest geometryczna faza C opisująca, na odpowiednio dużych skalach, czterowymiarowy Wszechświat, zgodny  z OTW.  Zaobserwowano również sub-fazę fazy C w której ujawniają się pewne nowe, niegeometryczne własności, jak również zidentyfikowano dwie dodatkowe fazy A i B. W fazie A, pole grawitacyjne przyjmuje formę charakteryzującą się fraktalną strukturą polimerową (tzw. branched polymer). Natomiast, faza B (tzw. crumpled phase) wyróżnia się dążącą do nieskończoności liczbą wymiarów, odzwierciedlającą wysoką ilość połączeń pomiędzy tak zwanymi sympleksami, z których zbudowana jest konfiguracja pola grawitacyjnego. W fazie tej, wszystkie „atomy” czasoprzestrzeni stają się swoimi sąsiadami. Jest to zachowanie zupełnie odmiennie do tego obserwowanego w fazie geometrycznej w której każdy sympleks ma małą i średnio taką samą liczbę sąsiadów.  Dzięki tej własności, w fazie C, dobrze określone jest pojęcie lokalności, możemy wprowadzić układ współrzędnych i w konsekwencji dokonać interpretacji konfiguracji pola w języku czasoprzestrzeni. Taka interpretacja nie jest możliwa w zbitej fazie B, dlatego też określamy ją mianem fazy niegeometrycznej. Istnienie tego typu stanu grawitacji wyłoniło się również z symulacji przeprowadzonych w podejściu zwanym Quantum Graphity. W rozważanych modelach, zaobserwowano przejście fazowe od fazy niegeometrycznej do fazy geometrycznej wraz z obniżaniem temperatury układu. Proces taki przyjęło się określać mianem geometrogenezy.

Rodzi się oczywiście pytanie czy niegeometryczne stany skupienia grawitacji, takie jak obserwowane w CDT fazy A i B występują lub występowały gdzieś w naszym Wszechświecie? Tak jak już wspomniałem, z uwagi na to, że wytworzenie takich faz wymagałoby użycia ekstremalnych wartości energii, prawdopodobnie jedynymi miejscami gdzie możemy ich poszukiwać są albo wnętrza czarnych dziur lub też bardzo wczesne etapy ewolucji Wszechświata. Empiryczne badanie wnętrz czarnych dziur, na obecnym poziomie zrozumienia fizyki czarnych dziur, nie jest możliwe. Pozostaje jedynie szansa w obserwacjach kosmologicznych. Rozważa się modele w których w epoce Plancka zachodzi wspomniana geometrogeneza z fazy crumpled do fazy geometrycznej. Co więcej,  związane z tym przejście fazowe może cechować się tak zwanym zachowaniem krytycznym. To zaś może prowadzić do generowania pierwotnych zaburzeń kosmologicznych oraz, poprzez  mechanizm Kibble’a-Zurka, do tworzenia grawitacyjnych defektów topologicznych. Rysuje to pewne nadzieje odnośnie możliwości empirycznego badania fazowej różnorodności grawitacji. Jest to jednakże zagadnienie niezwykle zawiłe i prawdopodobnie ostatecznie będzie możliwe uzyskanie jedynie pewnych słabych ograniczeń obserwacyjnych. Dlatego też, podstawowym narzędziem do badania stanów skupienia grawitacji pozostają dalsze eksperymenty numeryczne z wykorzystaniem coraz to lepszych algorytmów i sprzętu komputerowego.

Chciałbym na koniec pokreślić, że zagadnienie struktury fazowej grawitacji jest dużo szersze niż tu omówiono i było w ostatnim czasie przedmiotem wielu analiz w ramach niezależnych podejściach do kwantowej grawitacji. Z konieczności, musiałem ograniczyć się tutaj do przytoczenia zaledwie kilku wybranych wyników. Dalsze przykłady można znaleźć w artykule Spacetime as a quantum many-body system  oraz w artykule Towards the map of quantum gravity (w rozdziale Phases of gravity i w literaturze tam cytowanej).

© Jakub Mielczarek

Wszechświat na komputerze kwantowym

Jednym z kierunków jakie rozwijam w prowadzonych przeze mnie aktualnie badaniach jest wykorzystanie komputerów kwantowych do symulowania fizyki na skali Plancka. Dla przypomnienia, długość Plancka, czyli l_{Pl} \approx 1.62 \cdot 10^{-35} m to najmniejsza, znana nam, skala fizyczna w “tkance” Wszechświata, na której istnienie wskazują rozważania teoretyczne. Fizykę opisującą rzeczywistość na skali Plancka nazywamy natomiast Kwantową Grawitacją. Niestety, z uwagi na obecny brak (pomimo wielu starań) możliwości empirycznego badania fizyki na skali Plancka, nie istnieje ugruntowana Kwantowa Teoria Grawitacji. Dysponujemy natomiast szeregiem teorii i modeli starających się uchwycić wiele aspektów kwantowej natury oddziaływań grawitacyjnych (przegląd wielu z nich można znaleźć np. w pracy Towards the map of quantum gravity).

Do kwestii empirycznego badania fizyki na skali Plancka możemy jednak podejść w trochę mniej bezpośredni sposób. Mianowicie, zakładając konkretny teoretyczny opis grawitacyjnych stopni swobody, możemy wykonać symulację rozważanego układu na skali Plancka i przeprowadzić na nim dowolne pomiary. Nie istnieją w takim przypadku ograniczenia  empiryczne wynikające z rozdzielczości urządzeń pomiarowych. Cała fizyka którą symulujemy znajduje się w pamięci superkomputera, do której posiadamy nieograniczony dostęp.  Najbardziej zaawansowane symulacje tego typu wykonuje się  obecnie w ramach podejścia zwanego Kauzalne Dynamiczne Triangulacje (ang. Causal Dynamical Triangulations – CDT).  W ramach CDT, symulowane są takie konfiguracje jak kwantowy Wszechświat zbudowany z nawet setek tysięcy elementarnych czasoprzestrzennych sympleksów.

Fig1
Kolaż obrazyjący symulowanie fizyki na skali Plancka na procesorze kwantowym. Wykorzystano zdjęcie procesora kwantowego firmy D-Wave oraz wizję artystyczną czasoprzestrzeni na skali Plancka

Symulacje o których mowa przeprowadzane są na powszechnie dzisiaj dostępnych superkomputerach klasycznych. Kwantowa natura oddziaływań grawitacyjnych musi być w związku z tym odpowiednio tłumaczona na język algorytmów klasycznych. Wykorzystanie komputerów kwantowych do symulowania kwantowej grawitacji pozwoliłoby proces ten wyeliminować. Mianowicie, symulacje układów kwantowych (takich jak kwantowa przestrzeń/czasoprzestrzeń) z wykorzystaniem komputerów kwantowych zasadniczo różni się od symulacji klasycznych. Komputery kwantowe pozwalają na “mapowanie” danego układu kwantowego na kwantowe stopnie swobony procesora kwantowego. Mówimy tu o tak zwanych dokładnych symulacjach (ang. exact simulations), które pozwalają imitować wyjściowy układ kwantowy. Z punktu widzenia mechaniki kwantowej, imitacja wytworzona na procesorze kwantowym jest równoważna oryginalnemu układowi kwantowemu.

W moim niedawnym artykule Spin networks on adiabatic quantum computer oraz eseju Quantum Gravity on a Quantum Chip,  pokazuję, że wykorzystanie dostępnego komercyjnie  tzw. kwantowego annealer’a (wyżarzacza kwantowego)   firmy D-Wave daje możliwość symulowania fizyki na skali Plancka opisywanej przez sieci spinowe. Sieci spinowe rozpinają przestrzeń Hilberta podejścia do grawitacji kwantowej zwanego Pętlową Grawitacją Kwantową (ang. Loop Quantum Gravity – LQG).  Kwantowe stopnie swobody sieci spinowej są w przypadku procesora kwantowego D-Wave imitowane z wykorzystaniem stanów qubitowych realizowanych przez nadprzewodzące obwody kwantowe (bazujące o tzw. złącza Josephsona). Jak pokazano w ramach rozważanego modelu, adiabatyczne obliczenia kwantowe umożliwiają zidentyfikowanie fizycznych stanów teorii.

Infographic.png
Infografika obrazująca reprezentację sieci spinowych w ramach architektury procesora adiabatycznego komputera kwantowego D-Wave. Szczegóły w pracy Spin networks on adiabatic quantum computer.

Jednym z ważnych zagadnień, którego zbadanie mogą pozwolić symulacje kwantowe, jest tak zwana granica semi-klasyczna, czyli obszar w którym grawitacja kwantowa koresponduje z klasyczną teorią grawitacji, czyli Ogólną Teorią Względności. Wszystko wskazuje na to, że symulacje sieci spinowych na adiabatycznym komputerze kwantowym mogą niebawem umożliwić wykonanie pierwszego kroku w tym kierunku.

Potencjał i możliwe konsekwencje symulowania fizyki na skali Plancka są jednak dużo szersze. Kwantowe symulacje mogą nie tylko okazać się praktycznym narzędziem do badania fizyki na skali Plancka ale mogą również pomóc odsłonić głębszą naturę relacji pomiędzy grawitacją a teorią informacji kwantowej (jak np. kwantowa wersja hipotezy It from bit). Bardzo ciekawa możliwość w kontekście symulacji  kwantowych wiąże się z relacją pomiędzy grawitacją a splątaniem kwantowym. Mianowicie, akumulujące się wyniki rozważań teoretycznych, w szczególności  korespondencja AdS/CFT, zasada holograficzna, entropia splątania sieci tensorowych MERA czy też hipoteza EPR=ER, wskazują na możliwość interpretacji pola grawitacyjnego w zadanej objętości (ang. bulk) jako przejawu splątania kwantowego niżej-wymiarowego układu na brzegu (ang. boundary) tego obszaru. Nie koniecznie więc do symulowania kwantowej grawitacji musimy angażować grawitacyjne stopnie swobody. Możliwe, że wystarczą do tego kwantowe symulacje (konforemnych) teorii pola na brzegu układu. Wykonanie odpowiednich pomiarów splątania kwantowego teorii na brzegu umożliwi zrekonstruowanie konfiguracji pola grawitacyjnego wewnątrz tego obszaru.  

Korzyści płynące z symulacji fizyki na skali Plancka na komputerach kwantowych nie leżą wyłącznie po stronie nauk podstawowych. Nowe typy procesorów kwantowych mogą  okazać się niezbędne do symulowania złożonych systemów kwantowograwitacyjnych, co może okazać się inspiracją  do rozwoju technologicznego. Symbiotyczny rozwój kwantowej grawitacji oraz technologii kwantowych może również doprowadzić do wypracowania nowych rozwiązań w obszarze obliczeń kwantowych. Jako przykład przytoczyć można zastosowanie sieci spinowych jako bazy do przetwarzania informacji kwantowej. 

Pozwolę sobie na koniec wspomnieć, iż umiejętność symulowania kwantowych stopni swobody na skali Plancka może w przyszłości umożliwić badanie od podstaw procesu formowania struktur we Wszechświecie. Idąc dalej, uwzględnienie również innych typów pól pozwoli symulować realistyczne modele Wszechświata. Wraz z upływem czasu i rozwojem technologii obliczeń kwantowych, możliwe będzie uwzględnienie coraz to większej ilości detali. A być może, któregoś dnia będziemy również w stanie symulować zaprojektowane przez nas Superwszechświaty, wykraczające swoją złożonością poza Ten nam znany.

© Jakub Mielczarek

Kosmiczna droga do kwantowej grawitacji

Każdego dnia obserwujemy i odczuwamy działanie siły grawitacji. Dzięki jej obecności upuszczone przedmioty spadają na powierzchnię Ziemi, a nam trudno jest się od niej oderwać. Żeby pokonać siłę grawitacji i uciec w przestrzeń kosmiczną musimy budować potężne rakiety. Ta sama siła utrzymuje ruch Księżyca w pobliżu Ziemi i Ziemię krążącą wokół Słońca. Siła  grawitacji odpowiada za ruch Słońca w Galaktyce i ruch Galaktyki w gromadzie galaktyk. Wszystkie te zjawiska mają jeden wspólny opis w postaci prawa powszechnego ciążenia Newtona. Jest to bardzo prosta relacja mówiąca, że pomiędzy dwoma ciałami posiadającymi masy działa przyciągająca siła grawitacji proporcjonalna do iloczynu ich mas i odwrotnie proporcjonalna do kwadratu odległości pomiędzy środkami ich mas. Współczynnikiem proporcjonalności w tej relacji jest stała grawitacji Newtona G. Prawo powszechnego ciążenia jest piękne, proste i bardzo praktyczne. Nie mówi nam ono jednak zbyt wiele o tym czym siła grawitacji tak w zasadzie jest i skąd się bierze. Znamy skutek i potrafimy go ilościowo opisać, nie znamy jednak jego przyczyny. Co takiego znajduje się pomiędzy ciałami obdarzonymi masą, że przyciągają się one wzajemnie? Czy jest to coś w rodzaju niewidzialnej nici? Do odpowiedzi na to pytanie przybliżył nas Einstein konstruując ogólną teorię względności. Teoria ta opisuję siłę grawitacji jako efekt zakrzywienia przestrzeni. Mianowicie, przestrzeń ulega odkształceniom pod wpływem  znajdujących się w niej ciał obdarzonych masą. Żeby sobie to lepiej uzmysłowić, wyobraźmy sobie rozciągnięty płat materiału. Jeśli umieścimy na nim masywną kulę, spowoduje to zapadnięcie powierzchni materiału. Umieszczona w pobliżu mała kulka stoczy się w kierunku dużej kuli, co zinterpretujemy jako przyciąganie pomiędzy kulkami. Postać tego oddziaływania okazuje się być taka sama (dla mało masywnych ciał) jak ta dana przez prawo Newtona.  Ponadto teoria przewiduje pewne nowe efekty w pobliżu bardzo masywnych ciał, czego nie ujmuje prawo Newtona. Efekty te zostały zweryfikowane obserwacyjnie.

Oddziaływanie grawitacyjne  można więc uważać jako efekt modyfikacji kształtu przestrzeni przez obdarzone masą ciała.  Opis ten daje bardzo intuicyjne wyjaśnienie przyczyny istnienia siły grawitacji, rodzi również jednak nowe pytania. W szczególności czym jest owa tajemnicza przestrzeń ulegająca odkształceniom pod wpływem masy? Teoria względności nie mówi zbyt wiele na ten temat. Z jej perspektywy, przestrzeń jest to rodzaj ciągłego ośrodka nie mającego żadnej struktury wewnętrznej. Istnieją jednak przesłanki teoretyczne wskazujące na to, że przestrzeń powinna, na dostatecznie małych skalach, posiadać pewien rodzaj wewnętrznej struktury. Żeby to zobrazować, wróćmy do przytoczonej analogii przestrzeni jako  rozciągniętego płatu materiału. Widząc tkaninę z dużej odległości wydaję się ona tworzyć ciągłą strukturę. Jeśli jednak popatrzymy na nią z bliska ukaże nam ona swoją włóknistą naturę. Jak sugerują przewidywania teoretyczne, włókna z których może być utkana przestrzeń mają średnice rzędu 10-35 metra, co odpowiada tak zwanej długości (skali) Plancka.

Długość Plancka, odpowiada rozmiarom przy których spodziewamy się występowania efektów kwantowej grawitacji. Najprostszą metodą wprowadzenia długości Plancka jest tak zwana analiza wymiarowa. Rozważmy mianowicie trzy stałe fizyczne:

c– prędkość światła,

G– stałą grawitacji,

\hslash– zredukowaną stałą Plancka.

Wykorzystując te stałe możemy otrzymać wielkość o wymiarze długości

l_{\text{Pl}} = \sqrt{\frac{\hslash G}{c^3}} \approx 1.62 \cdot 10^{-35} \text{m}

zwaną długością Plancka.Teorię opisującą przestrzeń na rozmiarach mniejszych od długości  Plancka określamy mianem kwantowej teorii grawitacji (lub w skrócie kwantowej grawitacji). W odróżnieniu od klasycznej teorii grawitacji, którą jest ogólna teoria względności. Klasyczność oznacza tu ciągły opis przestrzeni, kwantowość natomiast oznacza opis ziarnisty.

Jak się okazuje, znalezienie kwantowego opisu grawitacji jest zadaniem niezwykle trudnym. Badania w tym kierunku rozpoczęto już w latach trzydziestych ubiegłego wieku. Niestety, jak dotąd, nie doprowadziły one do zamierzonego celu. Znaleziono co prawda pewnych kandydatów do miana teorii kwantowej grawitacji takich jak: teorię superstrun, pętlową teorię grawitacji czy teorię kauzalnej dynamicznej triangulacji. Nie wiadomo jednak czy teorie te dają właściwy opis zjawisk fizycznych, ponieważ żadna z tych teorii nie doczekała się, jak dotąd,  doświadczalnego potwierdzenia. Trudność ta wynika z faktu, że przewidywane efekty kwantowej grawitacji występują na niezwykle małych odległościach, porównywalnych z długością Plancka. Aby więc zweryfikować przewidywania pretendentów do  miana teorii kwantowej grawitacji musimy zajrzeć bardzo daleko w głąb struktury materii.

Zazwyczaj, jeśli chcemy zbadać Świat na rozmiarach mniejszych niż te dostępne naszym zmysłom, posługujemy się mikroskopem. W ten sposób możemy poznać np. tajemnice mikroświata na odległościach 10-6 metra. Żeby zajrzeć jeszcze dalej w głąb materii potrzeba trochę większych odpowiedników mikroskopu zwanych akceleratorami cząstek elementarnych.  Pozwalają one dzisiaj badać materię do rozmiarów rzędu 10-18 metra. Są to najmniejsze skale odległości na których zbadaliśmy jak dotąd nasz Wszechświat. Stąd pozostaje więc około siedemnastu rzędów wielkości do skali Plancka. Technika akceleratorowa niestety nie pozwala pójść dużo dalej.

Ta ogromna przepaść odległości skłania wielu fizyków do uznania teorii kwantowej grawitacji jako nieweryfikowalnej doświadczalnie. Stwierdzenie to jest uzasadnione jednak tylko wówczas, jeśli do skali Plancka wiedzie jedynie droga wskazywana przez fizyków cząstek. Czyli bazująca na konstrukcji coraz to większych akceleratorów, pozwalających badać Wszechświat na coraz mniejszych skalach.  Ale czy możliwa jest jakaś inna droga? Jak inaczej zbadać strukturę mikroświata niż budując coraz to większe mikroskopy? Okazuje się, że taka droga potencjalnie istnieje. Wymaga ona jednak  nie budowy nowych mikroskopów, lecz teleskopów. Może to na początku wydawać się trochę dziwne. Przecież teleskopy pomagają nam podglądać odległe miejsca we Wszechświecie i olbrzymie struktury wielokrotnie większe od Słońca, jak galaktyki oraz gromady galaktyk. Droga ta wydaje się więc prowadzić w zupełnie innym kierunku.  Może i kierunek jest przeciwny ale droga, jak się okazuje, prowadzi w to samo miejsce. Zupełnie tak jak na powierzchni Ziemi. Wszystko dzięki temu, że Wszechświat podlega ekspansji. Podczas tej ekspansji odległości pomiędzy ciałami (np. galaktykami) ulegają ciągłemu wzrostowi. Jeśli natomiast popatrzymy wstecz w czasie, ciała te będą się do siebie zbliżać. Gęstość materii we Wszechświecie będzie więc wzrastać. Odległości pomiędzy cząsteczkami będą maleć, aż do osiągnięcia wartości długości Plancka! Możemy się więc spodziewać, że ich zachowanie będzie wtedy zupełnie inne niż to przewidywane w ramach opisu klasycznego.  Taką zasadniczą różnicę przewiduje, wspomniana już, pętlowa teoria grawitacji. Mianowicie mówi ona, że nie jest możliwe dowolne zwiększanie gęstości materii we Wszechświecie. Co za tym idzie, cząstki nie mogą zbliżyć się do siebie na dowolną odległość, lecz tylko na większą niż długość Plancka. Zachowanie takie jest wynikiem ziarnistej struktury przestrzeni. Prowadzi to do bardzo ciekawych konsekwencje odnośnie zachowania się Wszechświata.

W opisie klasycznym nie ma ograniczenia na maksymalną, możliwą do osiągnięcia, gęstość materii.   Idąc więc wstecz w czasie, gęstość materii  we Wszechświecie może rosnąć aż do nieskończoności. Nieskończoność ta nosi nazwę kosmicznej osobliwości i jest bolączką opisu klasycznego. Mianowicie, w stanie tym, teoria klasyczna traci swoją zdolność przewidywania. Pętlowa teoria grawitacji daje rozwiązanie tego problemu usuwając stan kosmicznej osobliwości. Zamiast niefizycznej osobliwości następuje faza tak zwanego odbicia (ang. bounce), podczas której gęstość materii we Wszechświecie osiąga maksymalną, skończoną wartość. W opisie tym objętość Wszechświata najpierw maleje, aż do osiągnięcia minimalnej wartości, a następnie zaczyna rosnąć. Stąd nazwa odbicie.

Efekty kwantowej grawitacji mogły więc mieć bardzo istotny wpływ na ewolucję Wszechświata. W szczególności, mogły doprowadzić do kosmicznego  odbicia.  Miało to jednak miejsce bardzo dawno, bo około czternaście miliardów lat temu.  Dlatego, w dzisiejszym Wszechświecie, mogły nie pozostać już żadne pozostałości fazy obicia. Okazuje się jednak, szczęśliwie dla nas, że część informacji na temat tej fazy może wciąż być dostępna dla obserwacji.  Wszystko  dzięki fotonom mikrofalowego promieniowania tła (ang. cosmic microwave background, CMB) które powstały około  400 000 lat po fazie odbicia. Może to wydawać się bardzo dużo, jest to jednak tylko ułamek sekundy w skalach czasowych Wszechświata.

Szereg eksperymentów dokonuje obecnie pomiarów temperatury tego promieniowania w zależności od kierunku na niebie. Okazuje się, że temperatura ta podlega małym wahaniom. Jest to odzwierciedleniem niejednorodności gęstości materii w okresie formowania się CMB. Niejednorodności te są dla nas niezwykle ważne, ponieważ to właśnie dzięki nim  powstały wszystkie późniejsze struktury we Wszechświecie takie jak galaktyki, gwiazdy czy planety. Te obserwowane małe fluktuacje gęstości miały swój początek  jednak dużo wcześniej. Mianowice podczas tak zwanej fazy kosmicznej inflacji, w której nastąpił bardzo gwałtowny wzrost rozmiarów wszechświata.  To właśnie wtedy, w początkowo jednorodnym Wszechświecie, powstały pierwsze zaburzenia dzięki którym jest on  dziś tak bogaty w struktury. Gdyby nie inflacja, Wszechświat pozostałby jednorodnie wypełnionym materią, nieciekawym tworem. W takim wszechświecie nie miałyby szans powstać struktury złożone takie jak Człowiek.

Fazę kosmicznej inflacji można już dzisiaj badać za pomocą obserwacji mikrofalowego promieniowania tła.  Jest to niesamowite, ponieważ ten etap w historii Wszechświata miał miejsce tuż po fazie odbicia, przewidywanego w ramach pętlowej teorii grawitacji. Słowo „tuż” oznacza tu około 10-36 sekundy. To sugeruje, że faza inflacji mogła nastąpić w konsekwencji efektów kwantowej grawitacji. Tak też wskazują  badania prowadzone w ramach pętlowej grawitacji kwantowej. Mianowicie, teoria ta przewiduje że, po fazie odbicia następuje, w sposób nieunikniony,  faza kosmicznej inflacji!  Efekty pętlowej grawitacji kwantowej prowadzą również do pewnych dodatkowych modyfikacji odnośnie postaci zaburzeń gęstości materii generowanych podczas  fazy inflacji. To natomiast ma wpływ na kształt fluktuacji temperatury  mikrofalowego promieniowania tła. Modyfikacje te są jednak na tyle małe, że jak dotąd nie udało się ich zaobserwować. Możliwe, że nowe obserwacje wykonane przez satelitę Planck doprowadzą od przełomu w tej kwestii. Aby się o tym przekonać, musimy jednak poczekać do moment upublicznienia wyników obserwacji  planowanego na 2012 rok. Już dzisiaj jednak, możemy nauczyć się wiele na temat kwantowej grawitacji poprzez badanie jej wpływu na fazę kosmicznej inflacji.

Droga do kwantowej grawitacji jest kręta i często prowadzi w ślepe zaułki. Droga „na wprost”  z wykorzystaniem akceleratorów cząstek elementarnych wydaje się nie do przejścia. Trzeba więc próbować wytyczać nowe szlaki. Czasem prowadzą one w zupełnie przeciwnym kierunku. Jednym z nich jest kosmiczna droga do kwantowej grawitacji, prowadząca przez bezkresny ocean Wszechświata. Zawiodła ona nas  niezwykle daleko, bo aż 14 miliardów lat wstecz, lecz zarazem tylko 10-36 sekundy od miejsca przeznaczenia. Wiemy więc, że cel jest już blisko.  Tu jednak fale wzmagają się coraz bardziej, i dalsza podróż staje się niezwykle trudna. Pozostaje więc mocno trzymać ster!

© Jakub Mielczarek

The origin of primordial perturbations

The Universe is full of gravitating structures on different length scales. The stars, galaxies, clusters of galaxies, super-clusters, voids are among them. But, why is the Universe not just filled with a homogeneous distribution of dust?  Or why and how the structures mentioned were formed? This is one among the questionsthe cosmologists try to answer. The standard technique applied by them is the theory of cosmological perturbations. This theory requires, that the perturbations of the energy density \delta \rho compared to the average energy density \rho have to fulfil the condition \frac{\delta \rho}{\rho}\ll 1. Amazingly, this condition was fulfilled for a long period in the comic history. The theory of cosmological perturbations indicates however, that the factor \frac{\delta \rho}{\rho} grows with time and at some point \frac{\delta \rho}{\rho}\approx 1 and the linear perturbation theory breaks down. At this point the non-linear evolution starts which trigger gravitational collapse, leading to formation of bound gravitational objects like e.g. galaxies.  It is worth mentioning that the evolution of \frac{\delta \rho}{\rho}  follows differently depending on the length scale.  Therefore, the bounded gravitational structures can be formed at the different times on the different scales. So, the classical cosmology can explain how the gravitational structures were formed from some tiny perturbations of the matter distribution that had filled the Universe. In particular, observations of the cosmic microwave background (CMB) anisotropies of temperature indicate that \frac{\delta T}{T} \approx10^{-5} which translate to \frac{\delta \rho}{\rho}=\frac{1}{4} \frac{\delta T}{T} \approx 10^{-5}.  Therefore, when the CMB (which was at the redshift z \simeq 1070) was formed, the Universe was very homogeneous and only tiny perturbations of the primordial plasma were present. Tracing the evolution of the Universe backwards, one can investigate the properties of the perturbations before the CMB was formed. This way, one finds that in the very early universe there were some tiny primordial perturbations. All the structures observed in the Universe have seeds in these initial perturbations, and so it is crucial to answer what is the mechanism responsible for the formation of them?

The observations of the CMB anisotropies and polarisation give us certain indications regarding the form of the primordial perturbations. In particular,  we could naively suspect that the primordial perturbations have a thermal origin. Since the Universe was in thermal equilibrium at some early stages, this sounds to be a natural explanation. However, this possibility is completely rejected by the observations of the CMB anisotropies. While the thermal fluctuations lead to the spectrum of perturbations in the form \mathcal{P} \sim 1/k (white-noise spectrum), the observations of the CMB indicate that the spectrum [We are discussing here a spectrum of the so-called scalar perturbations. Issue of the tensor perturbation (gravitational waves) will be broached later] has a nearly scale-invariant [In cosmology, the scale-invariance means simply: constant. This definition is different from the standard mathematical notion where the scale-invariance is a scallig property of any power-law function] form \mathcal{P} \sim k^{n_{\text{S}}-1}, where n_{\text{S}} \approx 1. This is quite a problematic issue since it is not so easy to find a mechanism that produces a spectrum in this form. But, it is also a good point, since when we find the simple mechanism which leads to the observed spectrum, then we are more certain about its authenticity.

Presently, the  best explanation of the form of the primordial perturbations is given by the theory of  comic inflation (See e.g. [1]). Inflation is a general concept which basically states that the Universe went through a phase of an accelerated (nearly exponential) expansion in its early ages. During this phase, the primordial perturbations were easily formed from the quantum fluctuations. This is a very elegant and a simple solution of the problem. However, the remaining question is: “what drives the Universe to inflate exponentially?”.  This problem can be solved introducing the matter content in the form ofa self-interacting scalar field \phi called inflaton. A scalar field is the simplest possible field and its excitations are the spin-0 particles. Moreover, it can very easily drive the proper inflationary phase. However, some obscurity regarding the nature of this field appears. This come from the fact that in Nature we do not observe any elementary spin-0 particles that can be the excitations of the scalar field.  The scalar fields appear however in some effective theories as Yukawa’s theory, where the scalar \pi-meson mediates the strong  interaction. Another example is given by the Higgs  boson which is the spin-0 excitation of the scalar Higgs field. This field can be, in some sense, regarded as fundamental. Therefore, the detection of the  Higgs  boson at the LHC could give support to the theory of inflation where the scalar field (however different) is also used. It could just say, that the fundamental scalar fields can in fact be present in Nature. At present, since the nature of the inflaton field remains unknown, \phi should be understood as an effective matter component of the Universe.

As was already mentioned, the realisation of inflation requires self-interaction of the scalar field. This introduces another ambiguity, since the field can self-interact in many different ways, which result with many possible choices of the field potential V(\phi). The forms of  potentials can be however constrained and ever excluded based on the observations of CMB. The simple model that I would like to discuss in more details is based on the massive potential V(\phi)=\frac{m^2}{2}\phi^2. This is the most natural choice of  V(\phi), since it just says that the excitations of the field have the mass m.   The field evolves in the quadratic potential  similarly as a ball in the harmonic potential. However, the evolution differ from the standard harmonic oscillations case, since, the field is coupled with the gravitational field. This makes the evolution a little bit more complicated. In particular, the slow-roll evolution appears, when the field goes down the potential well. During this phase, the cosmic acceleration (inflation) occurs. Using the standard techniques of quantum field theory on curved spacetimes one can calculate what will be the resulting spectrum of primordial perturbations. From these calculations, we obtain the spectrum of the scalar primordial perturbations in the form

\mathcal{P}_{\text{S}}(k) = \underbrace{\frac{1}{\pi \epsilon} \left(\frac{H}{m_{\text{Pl}}} \right)^2}_{=S} \left( \frac{k}{aH}\right)^{n_{\text{S}}-1},

as well as the spectrum of the tensor perturbations (gravitational waves) in the form

\mathcal{P}_{\text{T}}(k) = \underbrace{\frac{16}{\pi} \left(\frac{H}{m_{\text{Pl}}} \right)^2}_{=T} \left( \frac{k}{aH}\right)^{n_{\text{T}}},

where H is a Hubble factor and m_{\text{Pl}}\approx 1.22\cdot 10^{19} GeV is the Planck mass.  Expressions for the scalar and tensor spectral indices are  respectively

n_{\text{S}} =1-4\epsilon and  n_{\text{T}} =-2\epsilon,

where \epsilon \ll 1 is called a slow-roll parameter. Therefore, prediction from this so-called slow-roll inflation is that the scalar spectral index n_{\text{S}} is almost equal to one but a little bit smaller (in jargon: red shifted). Let us confront this with the available CMB data. Recent results from the 7-years observations of the WMAP satellite [2] give

n_{\text{S}} = 0.963 \pm 0.012.

This is in full agreement with the prediction from the slow-roll inflation which supports the model. Moreover, the WMAP satellite measured also an amplitude of the scalar perturbations [2]

S = 2.441^{+0.088}_{-0.092} \cdot 10^{-9}

at the pivot scale k_{0}=0.002 \ \text{Mpc}^{-1}. Based on the measurements of S and n_{\text{S}}  one can compute the mass of inflation

m \simeq m_{\text{Pl}} \frac{1}{4}\sqrt{3\pi S} (1-n_{\text{S}})=(1.4 \pm 0.5) \cdot 10^{-6} m_{\text{Pl}}.

Therefore, the only parameter of the model can be recovered from the observational data. The crucial check of validity of this model would be given by measurements of the tensor power spectrum \mathcal{P}_{\text{T}}. This spectrum can be however, detected only if the B-type polarisation of the CMB will be measured. While the B-type polarisation has not been detected yet, there are huge efforts in this direction. Experiments such as PLANCK [3], BICEP [4] or QUIET [5] are (partly) devoted to the search for the B-mode. The crucial parameterthat quantify the contribution of the gravitational waves is the so called tensor-to-scalar ratio r. This is defined as a ratio of the tensor to scalar amplitude of perturbations at some given scale.  Within the slow-roll inflationmodel, one can predict the value of r, based on observation of the spectral index n_{\text{s}}. Namely, a prediction of the slow-roll inflation model is the following

r :=\frac{T}{S}=16\epsilon=4(1-n_{\text{S}})=0.15 \pm 0.05,

where the value from WMAP-7 was applied. Moreover, based on  WMAP-7 data, the tensor spectral index is predicted to be n_{\text{T}}=\frac{n_{\text{S}}-1}{2}=-0.019 \pm 0.006. It is however unlikely to confront this quantity with observational data in the near future. Present observational constraints on the value of r are

r < 2.1 \ \text{at} \ 95 \% \ \text{C.L.} \ (\text{WMAP-7}),

r < 0.73 \ \text{at} \ 95 \% \ \text{C.L.} \ (\text{BICEP}),

which come from the constraint on the amplitude of the B-type polarisation of the CMB. The predicted vale of r  is placed below the present observational limitations.  However e.g. the PLANCK satellite (which is currently collecting the data) sensitivity reaches r=0.05 which is sufficient to detect the B-type polarisation as predicted by the slow-roll inflation. This would be a great support for the theory of inflation and the slow-roll model. However if, at this level of sensitivity, the B-type polarisation would not be detected, then the simple slow-rollinflaton would have rejected or required modifications. What will turn out to be a true? For the answer, we have to patiently wait till the end of 2012, when the first results from the PLANCK satellite will be released.

  1. A. Linde, Lect. Notes Phys. 738, 1 (2008).
  2. E. Komatsu et al., Submitted to Astrophs. J. Suppl. Ser., arXiv:1001.4538v1
  3. [Planck Collaboration],  “Planck: The scientific programme,”  arXiv:astro-ph/0604069.
  4. H. C. Chiang et al., “Measurement of CMB Polarization Power Spectra from Two Years of BICEP Data,” arXiv:0906.1181 [astro-ph.CO]
  5. D. Samtleben and f. t. Q. Collaboration,  “Measuring the Cosmic Microwave Background Radiation (CMBR) polarization  with QUIET,”  Nuovo Cim.  22B (2007) 1353  [arXiv:0802.2657 [astro-ph]].

© Jakub Mielczarek, 1st April 2010