Kwantowa łączność satelitarna

W 2012-tym roku, dzięki Fundacji na rzecz Nauki Polskiej, miałem wielką przyjemność uczestniczyć w Spotkaniu Laureatów Nagrody Nobla w dziedzinie fizyki w Lindau.  Jednym z mecenasów spotkania w Lindau był Singapur, reprezentowany przez ówczesnego prezydenta (fizyka i matematyka) Tony’ego Tana. Singapur to malutkie państwo-miasto nie posiadające własnych zasobów naturalnych. Charakteryzujące się jednak bardzo dynamiczną i nowoczesną gospodarką opartą na usługach i rozwoju zaawansowanych technologii. Kluczowym elementem polityki Singapuru jest kierowanie dużych nakładów finansowych na badania naukowe. Jako przykład osiągnięć w dziedzinie nauki, które mogą mieć praktyczne zastosowanie zaprezentowano wyniki Centrum Technologii Kwantowych na Uniwersytecie w Singapurze. Dyrektor tego instytutu, prof. Artur Ekert, przedstawił pomysł stworzenia satelitarnego systemu przesyłania informacji wykorzystującego kryptografię kwantową. Był to wtedy, z technicznego punktu widzenia, niezwykle ambitny projekt, wręcz futurystyczny. Jednak, jak zaprezentowano podczas spotkania, udało się już zbudować pierwsze prototypowe elementy takiego systemu. Projekt  ten wybrano do prezentacji w Linadu nie bez przyczyny. To w realizację takich pomysłów każdy z uczestników spotkania bez wahania chciałby się włączyć. A Singapur właśnie na takich ludzi liczył by zasilili zaplecze naukowe swojej nowoczesnej gospodarki.

W 2017-tym roku, pięć lat po mojej wizycie w Lindau,  marzenie o kwantowej łączności satelitarnej ziściło się. Stało się to jednak nie za sprawą Singapuru lecz Chin, które mogły pozwolić sobie na znacznie większe zaangażowanie finansowe w realizację tego celu. Sam koszt budowy, wykorzystanej do  przeprowadzenia kwantowej komunikacji, satelity Micius pochłonął kwotę około 100 milionów dolarów. Satelita ten został wyposażony w specjalny transmiter umożliwiający przeprowadzenie tak zwanej Kwantowej Dystrybucji Klucza (KDK) (ang. Quantum Key Distribution (QKD)).  KDK jest podstawowym narzędziem w kryptografii kwantowej, zapewniającym bezwarunkowe zabezpieczenie  przekazu informacji. Odporność na ataki wynika tutaj wprost z zasad mechaniki kwantowej. 

Wytłumaczę trochę dokładniej jak to działa. Mianowicie, podstawowym problemem związanym z bezpieczną wymianą informacji jest przekazanie klucza który służy do zaszyfrowania i odszyfrowania wiadomości (w ramach kryptografii symetrycznej ten sam klucz jest wykorzystywany zarówno do zaszyfrowania jak i odszyfrowania wiadomości). Idealną sytuacją jest gdy może nastąpić bezpośrednia wymiana takiego klucza. Jest to jednak bardzo niepraktyczne rozwiązanie, stosowane aczkolwiek do zabezpieczania najwrażliwszego typu informacji. Powszechnie wykorzystuje się natomiast tak zwaną kryptografię asymetryczną, opartą na kluczu publicznym oraz prywatnym.  Metodę tę stosujemy (nieświadomie) każdego dnia korzystając z kart płatniczych czy też dokonując zakupów w internecie. Jednakże, dostępne w przyszłości moce obliczeniowe oraz algorytmy kwantowe bez trudu poradzą sobie z pokonaniem dzisiejszych zabezpieczeń opartych o klucz publiczny. Rodzi to uzasadnione obawy, że na przykład zaszyfrowane cenne dane będą przechowywane i rozszyfrowane w przyszłości.

Kwantowa dystrybucja klucza dostarcza metody (teoretycznie) całkowicie bezpiecznego przekazania klucza dla systemów kryptografii symetrycznej. W metodzie tej, klucz w postaci ciągu bitów, kodowany jest za pomocą stanów kwantowych. W praktyce, wykorzystywane są do tego celu pojedyncze kwanty światła, czyli fotony. Każdy bit odpowiada pewnej ustalonej superpozycji dwóch możliwych polaryzacji światła. Podstawową  własnością mechaniki kwantowej jest to, że dokonanie pomiaru redukuje stan kwantowy do jednego ze stanów bazowych. W rozważanym przypadku, stany bazowe odpowiadają dwóm polaryzacjom fotonu. Każda próba przechwycenia przesyłanej w ten sposób informacji (wiążąca się z wykonaniem pomiaru na stanie kwantowym) może być więc bez trudu wykryta. Służą do tego celu odpowiednie protokoły kwantowej dystrybucji klucza. Pierwszym, wynalezionym jeszcze w 1984-tym roku protokołem tego typu jest  BB84 (Bennett-Brassard 1984). Satelita Micius realizuje KDK właśnie w oparciu o protokół BB84, w konfiguracji downlink. Oznacza to, że satelita traktowana jest jako tak zwany zaufany dystrybutor klucza, umożliwiający stacjom naziemnym zaszyfrowanie i odszyfrowanie wiadomości. Pojedyncze fotony, niezbędne do realizacji KDK,  przygotowywane są przez złożony układ optyczny umieszczony w satelicie.  Wartym podkreślenia jest to, że sama zaszyfrowana wiadomość nie jest transmitowana przez kanał kwantowy lecz poprzez łącze radiowe. Przesyłanie informacji w postaci kwantowej jest nieefektywne i służy wyłącznie do przekazania klucza.

Szczegóły przeprowadzonych, pomiędzy majem a lipcem 2017-tego roku, udanych międzykontynentalnych kwantowych dystrybucji klucza zaprezentowano w artykule opublikowanym w styczniu bieżącego roku na łamach Physical Review Letters [arXiv:1801.04418]. W wykonanych eksperymentach, satelitę Micius orbitującą Ziemię na wysokości około 500 km wykorzystano jako zaufanego dystrybutora klucza do stacji naziemnych, zlokalizowanych w Xinglong w Chinach i  w Graz w Austrii.

realworldint
Ilustracja stacji naziemnych między którymi nastąpiła zaszyfrowana łączność, wykorzystująca kwantową dystrybucję klucza zrealizowaną przez satelitę MiciusŹródło

Zrealizowano dwa testy demonstrujące poprawną pracę systemu. Test pierwszy polegał na przesłaniu zaszyfrowanych, za pomocą szyfru z kluczem jednorazowym (ang. one-time-pad), niewielkich obrazów o rozmiarach kilku kB każdy. Z Chin do Austrii przesłano obrazek przedstawiający chińskiego filozofa Mo Di (od Niego pochodzi nazwa satelity Micius), natomiast z Austrii do Chin przesłano zdjęcie jednego z ojców mechaniki kwantowej Erwina Schrödingera. Klucz potrzebny do zaszyfrowania oraz odszyfrowania wiadomości udostępniła, poprzez kwantową dystrybucję klucza, satelita Micius.  Wykorzystanie  szyfru z kluczem jednorazowym, który jest najsilniejszym sposobem szyfrowania, wymaga użycia klucza o tej samej ilości bitów co wiadomość. Jest więc on z jednej strony bardzo niepraktyczny ale w zamian gwarantuje (przy poprawnym użyciu) stuprocentowe bezpieczeństwo przesyłanej informacji. Dlatego też jest on stosowany w przypadku wiadomości o najwyższej klauzuli tajności. 

Przesłanie zaszyfrowanych zdjęć przebiegło w następujący sposób: Satelita Micius, za pomocą protokołu KDK, udostępnił klucz zarówno nadawcy jak i odbiorcy wiadomości. Klucz musiał mieć w tym przypadku rozmiar przesyłanej wiadomości, czyli kilka kB.

medium
Przekaz wiadomości w oparciu o szyfr z kluczem jednorazowym (one-time-pad) wykorzystującym operację XOR. Klucz został udostępniony nadawcy i odbiorcy za pomocą protokołu KDK. Źródło

Obraz w formacie JPG zapisano w postaci mapy bitowej (matryca zer i jedynek) tworząc w ten sposób wiadomość binarną. Następnie, pomiędzy bitami wiadomości a bitami klucza, nadawca wykonał operację alternatywy rozłącznej XOR (reprezentowanej przez symbol  \bigoplus, to dlaczego stosuję się tutaj operację XOR jest prosto wytłumaczone w niniejszym linku).  W ten sposób, powstał szyfrogram który następnie został wysłany przez satelitarne łącze radiowe do odbiorcy. Otrzymany przez odbiorcę szyfrogram w postaci ciągu bitów złożono, ponownie poprzez spójnik logiczny XOR, z kluczem. W ten sposób odszyfrowana została oryginalna wiadomość.

Test drugi polegał na przeprowadzeniu telekonferencji pomiędzy Chińską Akademią Nauk a jej austriackim odpowiednikiem, podczas której przesył informacji przez klasyczne łącze radiowe zaszyfrowany został z wykorzystaniem kluczy udostępnionych przez satelitę Micius. Zastosowanie szyfru z kluczem jednorazowym do transmisji wideo nie byłoby możliwe. Dlatego też wykorzystano metodę która wymaga mniejszych rozmiarów klucza. Posłużono się mianowicie symetrycznym szyfrem blokowym Advanced Encryption Standard (AES)-182, certyfikowanym przez National Security Agency do szyfrowania ściśle tajnych informacji.  Dla przykładu, w oparciu o AES, ale z kluczem o długości 256 bitów,  pracuje popularny  serwis Boxcryptor (wcześniej znany jako Cloudfogger). W celu zapewnienia odpowiedniego poziomu zabezpieczenia, w trakcie 75 minutowej telekonferencji, zmiana 128-bitowego klucza następowała co jedną sekundę.  Szyfrowanie transmisji wymagało więc łącznie przesłania około 70 kB danych poprzez kanał kwantowy. 

Dlaczego opisane powyżej wyniki są tak ważne? Przyczynę związaną z bezpieczeństwem przesyłu informacji zarysowałem już częściowo powyżej. Natomiast, wyjaśnienia wymaga kwestia wykorzystania do tego celu przestrzeni kosmicznej. Dlaczego nie przesłać fotonów przez światłowód, jak to ma miejsce w standardowych łączach internetowych? Otóż, istnieją istotne ograniczenia związane z realizacją  kwantowej dystrybucji klucza przez łącza światłowodowe. W przypadku klasycznej transmisji światłowodowej, tłumienie sygnału na dużych odległościach możemy kompensować przez stosowanie odpowiednich wzmacniaczy sygnału. Mamy tu jednak do czynienia z pakietami falowymi fotonów które zachowują się w sposób klasyczny. W przypadku KDK, klucz przekazywany jest za pomocą pojedynczych fotonów, które zachowują się w sposób kwantowy. Z uwagi na obowiązujący w mechanice kwantowej tak zwany zakaz klonowania kwantowego, nie jest możliwie, w przypadku pojedynczych kwantów światła, przeprowadzenie prostego wzmocnienia sygnału. Można natomiast zastosować tak zwane kwantowe powielacze (ang. quantum repeaters), opierające swoje działanie o pamięć kwantową oraz protokół teleportacji kwantowej.  Są to bardzo skomplikowane układy. Jednakże nawet ich zastosowanie pozwala obecnie na realizację KDK na odległościach maksymalnie około 300 km.  Wykorzystanie przestrzeni kosmicznej staje się w tej sytuacji idealnym rozwiązaniem. Mianowicie, dla fotonów podróżujących  przez atmosferę i próżnię zarówno osłabienie sygnału jak i jego dekoherencja są wielokrotnie słabsze niż w przypadku światłowodów.  Kosmos jest więc obecnie nie tyle możliwością do realizacji  dalekodystansowej kwantowej dystrybucji klucza ale wręcz koniecznością.

Dalszy kierunek rozwoju technologii satelitarnej KDK to utworzenie międzykontynentalnej sieci łączności kwantowej. Sieć taką przyjęło się określać mianem internetu kwantowego. Internet kwantowy, o którym napiszę kiedyś bardziej szczegółowo,  będzie pozwalał na bezpieczne przesyłanie informacji na dużych odległościach na lądzie, jak i następnie w powietrzu i na wodzie. System znajdzie zastosowanie wszędzie tam gdzie potrzebny jest najwyższy poziom ochrony przekazywanej informacji. Czyli wyjściowo będą to głównie obszary takie jak: finanse, obronność, handel czy medycyna.  Nie będzie również przeszkodą „przeciągnięcia” kwantowego internetu poza Ziemię. Kosmiczna próżnia jest wszak idealnym medium do przesyłania informacji kwantowej. 

Wróćmy jednak na koniec na Ziemię. Posiadanie technologii satelitarnej KDK pozwoli Chinom wypracować realną przewagę na gruncie militarnym. Przykładowo, z pomocą satelitarnej KDK możliwe będzie wysyłanie rozkazów do łodzi podwodnych czy też lotniskowca/ców stacjonujących na Oceanie Spokojnym, bez obawy o przechwycenie tajnych informacji przez systemy nasłuchu innych państw i ich pomyślną kryptoanalizę.  Posiadanie tej technologii, w perspektywie kliku/kilkunastu lat, może realnie ułatwić Chinom  realizację swoich strategicznych celów. A chociażby z przykładu Enigmy dobrze wiemy, że od kryptografii mogą zależeć losy Świata. 

© Jakub Mielczarek

Stany skupienia grawitacji

Ogólna Teoria Względności Einsteina przyzwyczaiła nas do myślenia o grawitacji w języku geometrycznej struktury jaką jest czterowymiarowa czasoprzestrzeń. Jednakże, coraz  większa liczba wyników badań nad kwantową naturą oddziaływań grawitacyjnych wskazuje na możliwość występowania różnych faz (stanów skupienia) pola grawitacyjnego. Czasoprzestrzenny stan skupienia jest jedną z kilku możliwości jakie obecnie znamy.

Czy ta różnorodność fazowa grawitacji powinna nas dziwić? Absolutnie nie. Występowanie faz jest jedną z podstawowych własności  układów złożonych (ang. complex systems). Połączenie dużej ilości stopni swobody (np. cząsteczek) oraz wprowadzenie pomiędzy nimi nieliniowego oddziaływania w sposób nieodłączny wiąże się z występowaniem jakościowo różnych sposobów wewnętrznej organizacji takiego układu, czyli faz. Ponadto, fazy te rozdzielone są przez ostre granice zwane przejściami fazowymi. Zachowanie to dotyczy nie tylko systemów dyskretnych ale również ciągłych układów fizycznych jakimi są pola  samooddziałujące (przykładem takiego pola jest pole grawitacyjne).

Z kwantowego punktu widzenia, pole grawitacyjne należy uznać za przykład układu złożonego czy też układu wielociałowego (ang. many-body system). „Atomy” przestrzeni lub czasoprzestrzeni, które wyłaniają się z kwantowych teorii grawitacji, mogą, poprzez

scientificamerican1008-44-I3
„Atomy” przestrzeni w Pętlowej Grawitacji Kwantowej. Źródło

wzajemne oddziaływanie, tworzyć makroskopowe konfiguracje o jakościowo różnych własnościach. W zależności od warunków w których znajdzie się pole grawitacyjne, może przyjąć ono jedną z kilku zidentyfikowanych dotychczas teoretycznie faz. Jest to zachowanie analogiczne do przypadku zbioru cząsteczek H_2O, który w zależności od temperatury otoczenia i zajmowanej objętości utworzy jeden z trzech stanów skupienia: ciekły, stały (lód) lub gazowy (para wodna).

Nic nie stoi na przeszkodzie by przeprowadzić stosowne eksperymenty i zaobserwować stany skupienia wody. Dla grawitacji,  z uwagi na niezwykle słabe sprzężenie pomiędzy materią a polem grawitacyjnym, taka możliwość obecnie nie istnieje. Wytworzenie stanów pola grawitacyjnego w których moglibyśmy spodziewać się wystąpienia nowej fazy wymagałoby ekstremalnych gęstości energii, prawdopodobnie możliwych do osiągnięcia jedynie w bardzo wczesnym Wszechświecie lub we wnętrzach czarnych dziur. Teoretyczna analiza struktury fazowej grawitacji jest również zadaniem niełatwym. Problem polega na tym, że zazwyczaj w badaniach nad kwantową grawitacją rozpatrujemy funkcję (np. hamiltonian) opisującą oddziaływanie pomiędzy pojedynczymi kwantami („atomami”) pola grawitacyjnego. Z analizy samej postaci tej funkcji praktycznie niemożliwe jest wyciągnięcie wniosków dotyczących struktury fazowej rozważanego układu. Wiąże się to z faktem, iż występowanie faz jest przykładem zjawiska emergentnego. Na tej samej zasadzie, znajomość potencjału oddziaływania pomiędzy dwiema cząsteczkami wody nie mówi nam jeszcze nic o stanach skupienia wody które wyłonią się w makroskopowych układach takich cząsteczek.

Jak więc możemy sobie z tym problemem poradzić? Istnieją dwie główne drogi: symulacje wielociałowe kwantowej grawitacji oraz teoria renormalizacji, której zastosowanie może również wymagać przeprowadzenia symulacji.  Przybliżę tutaj podejście pierwsze. Najbardziej zaawansowane badania tego typu prowadzi się obecnie w ramach tak zwanych Kauzalnych Dynamicznych Triangulacjami (ang. Causal Dynamical Triangulations – CDT).  Wyniki najnowszych badań w ramach CDT wskazują na występowanie trzech lub

pd
Trzy fazy czterowymiarowej grawitacji w CDT. Źródło

czterech (w zależności od tego jaki  tzw. parametr porządku jest badany) faz grawitacji. Jedną z nich jest geometryczna faza C opisująca, na odpowiednio dużych skalach, czterowymiarowy Wszechświat, zgodny  z OTW.  Zaobserwowano również sub-fazę fazy C w której ujawniają się pewne nowe, niegeometryczne własności, jak również zidentyfikowano dwie dodatkowe fazy A i B. W fazie A, pole grawitacyjne przyjmuje formę charakteryzującą się fraktalną strukturą polimerową (tzw. branched polymer). Natomiast, faza B (tzw. crumpled phase) wyróżnia się dążącą do nieskończoności liczbą wymiarów, odzwierciedlającą wysoką ilość połączeń pomiędzy tak zwanymi sympleksami, z których zbudowana jest konfiguracja pola grawitacyjnego. W fazie tej, wszystkie „atomy” czasoprzestrzeni stają się swoimi sąsiadami. Jest to zachowanie zupełnie odmiennie do tego obserwowanego w fazie geometrycznej w której każdy sympleks ma małą i średnio taką samą liczbę sąsiadów.  Dzięki tej własności, w fazie C, dobrze określone jest pojęcie lokalności, możemy wprowadzić układ współrzędnych i w konsekwencji dokonać interpretacji konfiguracji pola w języku czasoprzestrzeni. Taka interpretacja nie jest możliwa w zbitej fazie B, dlatego też określamy ją mianem fazy niegeometrycznej. Istnienie tego typu stanu grawitacji wyłoniło się również z symulacji przeprowadzonych w podejściu zwanym Quantum Graphity. W rozważanych modelach, zaobserwowano przejście fazowe od fazy niegeometrycznej do fazy geometrycznej wraz z obniżaniem temperatury układu. Proces taki przyjęło się określać mianem geometrogenezy.

Rodzi się oczywiście pytanie czy niegeometryczne stany skupienia grawitacji, takie jak obserwowane w CDT fazy A i B występują lub występowały gdzieś w naszym Wszechświecie? Tak jak już wspomniałem, z uwagi na to, że wytworzenie takich faz wymagałoby użycia ekstremalnych wartości energii, prawdopodobnie jedynymi miejscami gdzie możemy ich poszukiwać są albo wnętrza czarnych dziur lub też bardzo wczesne etapy ewolucji Wszechświata. Empiryczne badanie wnętrz czarnych dziur, na obecnym poziomie zrozumienia fizyki czarnych dziur, nie jest możliwe. Pozostaje jedynie szansa w obserwacjach kosmologicznych. Rozważa się modele w których w epoce Plancka zachodzi wspomniana geometrogeneza z fazy crumpled do fazy geometrycznej. Co więcej,  związane z tym przejście fazowe może cechować się tak zwanym zachowaniem krytycznym. To zaś może prowadzić do generowania pierwotnych zaburzeń kosmologicznych oraz, poprzez  mechanizm Kibble’a-Zurka, do tworzenia grawitacyjnych defektów topologicznych. Rysuje to pewne nadzieje odnośnie możliwości empirycznego badania fazowej różnorodności grawitacji. Jest to jednakże zagadnienie niezwykle zawiłe i prawdopodobnie ostatecznie będzie możliwe uzyskanie jedynie pewnych słabych ograniczeń obserwacyjnych. Dlatego też, podstawowym narzędziem do badania stanów skupienia grawitacji pozostają dalsze eksperymenty numeryczne z wykorzystaniem coraz to lepszych algorytmów i sprzętu komputerowego.

Chciałbym na koniec pokreślić, że zagadnienie struktury fazowej grawitacji jest dużo szersze niż tu omówiono i było w ostatnim czasie przedmiotem wielu analiz w ramach niezależnych podejściach do kwantowej grawitacji. Z konieczności, musiałem ograniczyć się tutaj do przytoczenia zaledwie kilku wybranych wyników. Dalsze przykłady można znaleźć w artykule Spacetime as a quantum many-body system  oraz w artykule Towards the map of quantum gravity (w rozdziale Phases of gravity i w literaturze tam cytowanej).

© Jakub Mielczarek

O symulacjach ludzkiego mózgu

Przeprowadzenie pełnej symulacji komputerowej ludzkiego mózgu wydaje się najprostszą drogą do osiągnięcia tak zwanej silnej sztucznej inteligencji (ang. artificial general intelligence – AGI). Mówiąc precyzyjniej, w tym przypadku należałoby dokonać emulacji mózgu, co wiązałoby się ze ścisłym odwzorowaniem (w ramach symulacji) struktury połączeń neuronalnych, wag synaptycznych oraz innych szczegółów morfologicznych pojedynczych neuronów i mózgu konkretnej osoby. Zagadnienie pozyskiwania danych wejściowych do emulacji mózgu jest obszerne i opiszę je niezależnie. Natomiast tutaj, chciałbym się skoncentrować na przeanalizowaniu aspektów obliczeniowych związanych z przeprowadzeniem symulacji mózgu ludzkiego.

Podstawową jednostką przetwarzającą informacje w mózgu jest neuron. Typowo, mózg dorosłego człowieka zawiera niecałe 10^{11} neuronów i około 10^{14} połączeń synaptycznych (po około 100 synaps na jeden neuron). Każde połączenie synaptyczne ma określoną siłę, którą w modelu neuronu określa tak zwana waga synaptyczna.  Poniżej skoncentrujemy się na modelu mózgu uwzględniającego dwa główne aspekty przetwarzania informacji, mianowicie plastyczność (ustalanie wag synaptycznych) oraz występowanie potencjałów czynnościowych  (tzw. spikes).

Chcąc przeprowadzić symulację mózgu należy zacząć od zdefiniowania modelu matematycznego pojedynczego neuronu. Neuron jest  skomplikowaną komórką, przetwarzający sygnały elektrochemiczne poprzez złożone procesy fizykochemiczne zachodzące w jego błonie komórkowej. Zachowanie potencjału czynnościowego neuronu, kluczowego dla przetwarzania informacji w mózgu, można jednakże z dużą precyzją opisać za pomocą matematycznych modeli opierających się na analizie przewodności elektrycznej błony komórkowej.   Najbardziej znanym przykładem takiego opisu jest model Hodgkina-Huxleya. Uproszczoną wersją modelu Hodkina-Huxleya jest zaproponowany w 2003 roku przez model Eugene M. Izhikevicha, opisywany przez układ dwóch równań różniczkowych.

Model neuronu IzhinkevichaModel ten jest zredukowaną (poprzez zastosowanie metod matematycznych analizy układów dynamicznych) postacią modelu Hodkina-Huxleya. Opisywany jest przez układ dwóch równań różniczkowych:

\frac{dv}{dt}= 0,04 v^2 +5 v +140 - u +I,

\frac{du}{dt} =a(bv-u),

wraz z warunkiem resetowania neuronu po wygenerowaniu impulsu nerwowego:

jeśli v \geq 30 mV  to v \rightarrow c i u \rightarrow u+d .

W powyższych wzorach,  v jest potencjałem czynnościowym, u jest zaś zmienną pomocniczą (tzw. membrane recovery variable). Natomiast a,b,c i d są parametrami modelu. Wartość  potencjału  synaptycznego pobudzającego określona jest przez I. Zachęcam do zabawy numerycznej z powyższym modelem.

Załóżmy teraz, że chcielibyśmy przeprowadzić symulację mózgu ludzkiego opartego na neuronach opisywanych przez model Izhikevicha, rozszerzony o uwzględnienie wag synaptycznych. Zacznijmy od kwestii pamięci  potrzebnej do przeprowadzenia takiej symulacji. Przypuśćmy, że do określenia każdej z wag potrzebujemy 1 bajt (8 bitów) informacji. To rozsądna wartość gdyż 1 B pozwala nam zapisać aż 2^8=256 różnych wartości danej wagi. Mnożąc tę wartość przez liczbę połączeń synaptycznych dostajemy 100 TB. Takie ilości danych nikogo dzisiaj nie przerażają i są standardem. Nie wolno zapomnieć również o pamięci operacyjnej oraz pamięci potrzebnej do zmagazynowania informacji o samym neuronie. Dla prostych modeli neuronu może to być 1 kB  na neuron co łącznie daje również około 100 TB. Natomiast, pamięć potrzeba do symulowania mózgu na poziomie oddającym szczegóły morfologiczne pojedynczych neuronów wymagałaby wartości rzędu  100 PB (petabjatów), co odpowiadałoby około 1 MB pamięci przypadającej na pojedynczy neuron. Skale patebajtowe to wciąż dużo ale powoli się do nich przyzwyczajamy. Już cztery lata temu, dzienna aktywność na Facebooku generowała 4 petabajty danych. W skali roku są to już nawet nie setki petabajtów lecz eksobajty (1EB = 1000 PB) danych.

Przejdźmy teraz do mocy obliczeniowej. Posłużymy się tu definicją tak zwanych FLOPS-ów, czyli ilości operacji zmiennoprzecinkowych na sekundę.

FLOPS – Floating Point Operations Per Second.  To liczba operacji  na liczbach zmiennoprzecinkowych wykonywanych w trakcie sekundy przez daną jednostkę obliczeniową. Typowy rdzeń procesora wykonuje cztery takie operacje na jeden cykl, czyli 4 FLOPy. Procesor komputera na którym piszę ten tekst pracuje z częstotliwością 1,6 GHz i posiada dwa rdzenie. Każdy z rdzeni wykonuje więc 1,6 miliarda cykli na sekundę. Dostajemy stąd 4 FLOP \cdot 1,6 GHz = 6,4  GFLOP/s = 6,4 GFLOPS. Mnożąc ten wynik przez ilość rdzeni otrzymamy całkowitą moc obliczeniową mojego procesora, równą 12,8 GFLOPS (gigaflopsa).  Przykład ten łatwo uogólnić w celu wyznaczenia mocy  obliczeniowej bardziej złożonych jednostek obliczeniowych.

Model Hodkina-Huxleya wymaga około 1,2 miliona FLOPS-ów do symulacji w czasie rzeczywistym. Natomiast model Izhikevicha  jedynie 13 000 FLOPS-ów w czasie rzeczywistym. Mnożąc to przez liczbę neuronów otrzymujemy około 10^{15} FLOPS lub inaczej 1 PFLOPS (petaflops). Oparcie się na modelu Hodkina-Huxleya  wymagałoby zaś około 10^{17} FLOPS czyli 100 PFLOPS.

Dzisiejszy najlepszy superkomputer, chiński Sunway TaihuLight, dysponuje mocą właśnie około 100 PFLOPS. Najlepszy polski superkomputer Prometheus dysponuje mocą ponad 2 PFLOPS, wystarczającej więc do symulowania modelu mózgu ludzkiego

Zrzut ekranu 2018-04-20 o 01.13.18
Wykładniczy wzrost w czasie mocy obliczeniowej superkomputerów.  Zielone punty to suma mocy z listy TOP500 superkomputerów, pomarańczowe trójkąty to #1 z listy, niebieskie kwadraty to #500 z listy.   Źródło

opartego o modele neuronów Izhikevicha. Całkowita moc pięciuset najlepszych superkomputerów świata osiąga dzisiaj wartość 1000 PFLOPS. Obserwuje się, że moc obliczeniowa superkomputerów zwiększa się o czynnik około 10^3 w ciągu dekady (patrz na wykres po prawej). Ekstrapolując obecne trendy, można przewidzieć, że za 10 lat, w roku 2028 moce pojedynczych najlepszych komputerów mogą osiągać wartości 100 EFLOPS = 100 000 FLOPS, natomiast przeciętny superkomputer będzie dysponował mocą 1000 PFLOPS. Wykonywanie symulacji układów o złożoności ludzkiego mózgu nie będzie więc miało żadnych barier od strony dostępności mocy obliczeniowych. 

Żyjemy w czasach w których moce obliczeniowe pojedynczych  superkomputerów stają się wystarczające do symulowania modeli ludzkich mózgów. Nie tylko staje się to możliwe ale w coraz większym stopniu już się to dzieje. Pozwolę sobie, w tymi miejscu, przytoczyć kilka reprezentatywnych przykładów takich badań:

1) Izhikevich. W 2005-tym roku przeprowadził on symulację modelu mózgu zbudowanego z 10^{11} neuronów i 10^{15} synaps, czyli odpowiadający rozmiarami mózgowi ludzkiemu. W symulacji uwzględniono 22 typy neuronów oraz plastyczność synaptyczną zależną od opóźnienia impulsów nerwowych (tzw. STDP). Z uwagi na ograniczone dostępne moce obliczeniowe, symulacja ta nie była przeprowadzona w czasie rzeczywistym, lecz w zwolnieniu o czynnik około 10^6. W symulacji zaobserwowano m.in. spontaniczną aktywność symulowanego mózgu oraz pojawienie się aktywności neuronalnej o częstotliwości fal alfa i gamma.  

2) Human Brain Project (HBP). Celem projektu jest  pełna  symulacja mózgu ludzkiego do roku 2023.  HBP jest flagowym projektem w ramach H2020, finansowanym ze środków Unii Europejskiej.  Projekt wyspecjalizował się w symulowaniu kolumn neuronalnych. Wykorzystywane modele neuronów są niezwykle precyzyjne, natomiast dane wejściowe pochodzą z obrazowania układów biologicznych. Obecnie w projekcie wprowadzane są tak zwane komputery neuromorficzne. Najbardziej rozbudowane symulacje w ramach HBP dotyczyły około miliona neuronów, każdy o niezwykle wysokim poziomie precyzji modelowania.

3) Spaun. W 2012-tym roku przeprowadzono symulację modelu zawierającego 2.5 miliona neuronów. Symulacja została wyposażona w zmysł wzroku (poprzez jedno oko) oraz w zdolności motoryczne (poprzez ramię). Zaobserwowano zachowania podobne do ludzkich. Symulacje była w stanie przeprowadzić osiem niezależnych percepcyjnych, motorycznych i poznawczych zadań w dowolnej kolejności.

4) SyNAPSE. Finansowany przez DARPA projekt symulacji mózgu oparty o procesory neuromorficzne. W ramach tego projektu przeprowadzono symulację modelu mózgu zawierającego 500 miliardów neuronów, czyli około pięć razy więcej niż w mózgu ludzkim. Jednakże, bazowano na uproszczonych modelach neuronów, podobnych do tych wykorzystanych w symulacjach Izhikevicha. 

Największym wyzwaniem stojącym przed symulacjami ludzkiego mózgu jest obecnie wprowadzenie odpowiednich danych początkowych. Dzisiaj są one albo generowane losowo z uwzględnieniem pewnych cech architektury mózgu albo częściowo pozyskiwane z danych obrazowania tkanki mózgu zwierząt (jak to ma np. miejsce w HBP). Możemy się jednakże spodziewać, że rozwój technik zarówno inwazyjnego jak i bezinwazyjnego obrazowania tkanki mózgowej umożliwi w ciągu dekady przeprowadzenie realistycznych emulacji mózgu ludzkiego. Ale o tym, tak jak już wspomniałem, innym razem. Niecierpliwym zaś rekomenduję raport Brain Emulation: A Roadmap opublikowany, w ramach działającego na Uniwersytecie w Oksfordzie  Future of Humanity Institute, przez Andersa Sandberga i Nicka Bostroma.

Bez wątpienia, wchodzimy obecnie w epokę petabajtów jak  i petaFLOPS-ów. Są to właśnie te skale pamięci i mocy obliczeniowej które są potrzebne do przeprowadzenia realistycznych symulacji modeli ludzkiego mózgu. Symulacje te stają się na naszych oczach faktem a ich precyzja będzie rosnąć, uwzględniając coraz to większą liczbę szczegółów budowy morfologicznej mózgu i samych neuronów. Sięgając dalej w przyszłość, prowadzone symulacje wykroczą poza przypadek ludzkiego mózgu, rozszerzając jego możliwości poznawcze co w konsekwencji może urzeczywistnić ideę tak zwanej superinteligencji.

© Jakub Mielczarek

Kosmiczna stacja paliw

 

Nie każdy przyszły marsjański astronauta, tak jak ochotnicy w programie Mars One, chciałby dotrzeć do Czerwonej Planety z pustym zbiornikiem paliwa. Jednakże koszty potrzebne do przetransportowania odpowiednich ilości paliwa rakietowego na powierzchnię Marsa są ogromne. Rozwiązaniem dużo korzystniejszym ze względów ekonomicznych jak i perspektywicznym pod kątem rozwoju marsjańskiej kolonii byłoby wytworzenie paliwa rakietowego na powierzchni Marsa.

Naturalnym pierwszym kandydatem na paliwo rakietowe jest ciekły wodór, uzyskany w procesie elektrolizy wody. Marsjańska gleba bogata jest w wodę w stanie stałym. Regolit marsjański należałoby więc najpierw np. ogrzać w celu odparowania wody, po czym skroploną wodę poddać elektrolizie. Energię elektryczną potrzebną do przeprowadzenia

MarsGasStation
Wizja artystyczna instalacji do produkcji paliwa rakietowego na Marsie. Źródło

tego procesu można nietrudno pozyskać z instalacji fotowoltaicznej. Warto podkreślić, że w procesie elektrolizy wody powstaje również tlen który może być wykorzystany zarówno jako utleniacz paliwa jak i składnik mieszanki tlenowej dla astronautów.  Otrzymany w procesie elektrolizy wodór okazuje się jednak nie być optymalnym źródłem energii do napędzania, startujących z Marsa, statków kosmicznych.

Problem polega na tym, że wodór jako paliwo rakietowe, w celu zwiększenia gęstości energii, należy zmagazynować w stanie ciekłym. Utrzymywanie zaś ciekłego wodoru poniżej temperatury wrzenia jest zadaniem bardzo wymagającym. Wiąże się to z faktem, iż temperatura wrzenia wodoru jest niezwykle mała i równa (przy ciśnieniu atmosferycznym) około -253°C (20 K).  Co więcej, nawet w tych warunkach gęstość wodoru jest bardzo niska i pozostaje na poziomie  0,07 kg/litr.    Przygotowanie systemu który umożliwiłby utrzymanie wodoru w tak ekstremalnym stanie na powierzchni Marsa, przynajmniej na początkowym etapie rozwoju tamtejszej kolonii, byłoby zadaniem niesłychanie trudnym.

Z pomocą przychodzi jednakże jeszcze jeden składnik występujący dosyć obficie na Marsie, a mówiąc precyzyjniej tworzy jego atmosferę. Chodzi mianowicie o dwutlenek węgla, stanowiący około 95 % składu atmosfery, wytwarzającej na powierzchni Marsa ciśnienie około 6 hPa. Jest to ciśnienie porównywalne z tym występującym w ziemskiej stratosferze.

Wykorzystanie (uprzednio sprężonego) dwutlenku węgla w połączeniu z wodorem pozwala na przeprowadzenie tak zwanej reakcji metanacji, okrytej przez Paula Sabatiera, laureata Nagrodą Nobla w dziedzinie chemii z 1912-ego roku. Reakcja ta, zwana reakcją Sabatiera, może zostać zapisana w postaci następującego równania:

CO_2 +4H_2 \rightarrow CH_4+2H_2O.   

Reakcja powyższa przebiega w sposób optymalny w temperaturze około 300-400°C i wymaga zastosowania odpowiedniej powierzchni pełniącej funkcję katalizatora (wykonanego np. z niklu lub rutenu).

Wytworzony w procesie Sabatiera metan stanowi dobrą alternatywę dla wodoru jako paliwa rakietowego. Przechowywanie ciekłego metanu jest znacznie łatwiejsze, gdyż temperatura jego wrzenia wynosi około -162°C (111 K) co jest prawie 100 K więcej niż temperatura wrzenia wodoru. Systemy przechowywania ciekłego metanu to bardzo dobrze rozwinięta technologia, stosowana powszechnie w różnych warunkach. Wynika to z faktu, iż zyskujący na coraz większej popularności LNG (ang. liquefied natural gas) to w głównej mierze metan.  Przechowywanie LNG wymaga zastosowania zbiornika kriogenicznego utrzymujący gaz we wspomnianej temp. około -160°C. Zbiorniki takie stosowane są zarówno w autobusach zasilanych przez LNG jak i w ogromnych gazowcach. Gazowce LNG z Kataru, USA czy też Norwegii przyjmowane są w Polsce przez  Terminal LNG w Świnoujściu mogący zmagazynować 320 000 m³ LNG. 

Wykorzystanie ciekłego metanu jako paliwa rakietowego w postaci mieszanki (tzw. methalox), zawierającej ciekły tlen jako utleniacz, zapowiedziała firma SpaceX w kontekście swoich planów eksploracji Marsa. Rozwijany przez SpaceX silnik Raptor przystosowany jest właśnie do pracy oparciu o methalox.  Opracowywana rakieta

SpaceX-carbon-fiber-fuel-tank-mars-spaceship
Wykona z włókna węglowego testowa wersja zbiornika na ciekły metan oraz ciekły tlen dedykowana do rakiety BFR. Źródło

BFR ma zawierać siedem takich silników oraz zbiorniki pozwalające zmagazynować 240 000 kg ciekłego metanu oraz 860 000 kg ciekłego tlenu. Gęstość ciekłego metanu to około 423 kg/m³, co daje objętość metanu w zbiorniku rakiety BFR równą około 567 m³. Ciekły metan który można zgromadzić we wspomnianym wcześniej terminalu LNG w Świnoujściu wystarczyłby na napełnienie zbiorników ponad pięciuset rakiet BFR! 

Warto podkreślić, że opisana tutaj reakcja metanacji, oprócz aplikacji kosmicznych, ma również potencjalnie szerokie zastosowanie na Ziemi. Reakcję tę stosuje się w szczególności w eksperymentalnych systemach typu Power-to-gasktóre pozwalają magazynować nadwyżki w produkcji energii w postaci metanu. Jest to podejście szczególnie obiecujące w kontekście energii elektrycznej pozyskiwanej z farm fotowoltaicznych które wytwarzają prąd w ciągu dnia. Bodajże najbardziej rozwinięty system tego typu został opracowany przez Audi w ramach rozwijanej technologii e-gas:

Kolejna ważna własność reakcji Sabatiera to możliwość przekształcania dwutlenku węgla w wodę i metan. Nadmierna emisja dwutlenku węgla  do atmosfery jest główną przyczyną obserwowanych zmian klimatycznych.  Wyobrazić możemy sobie technologię w której dwutlenek węgla z rekcji spalania np. w elektrowni węglowej podlega bezpośredniej konwersji w metan w wyniku reakcji Sabatiera. Otrzymany metan jest zaś na przykład wprowadzany do systemu dystrybucji gazu. Proces metanacji może więc pomóc w ograniczeniu emisji CO_2 i tym samy przyczynić się do spowolnienia postępujących zmian klimatycznych. 

Zanim powstanie marsjańska stacja wytwarzania metanu wraz z kosmiczną stacją paliw, pozwalającą napełnić zbiorniki rakiet ciekłym metanem, prototypowe instalacje tego typu muszą zostać zbudowane i dokładnie przetestowane na Ziemi. Miejmy nadzieję, że jedna z pierwszych takich kosmicznych stacji paliw powstanie i będzie testowana w Polsce. Warto pokreślić, że technologie takie jak opisany tu reaktor Sabatiera pozwolą nam nie tylko zdobywać Kosmos ale mogą nam również pomóc przetrwać na Ziemi.

© Jakub Mielczarek

Wszechświat na komputerze kwantowym

Jednym z kierunków jakie rozwijam w prowadzonych przeze mnie aktualnie badaniach jest wykorzystanie komputerów kwantowych do symulowania fizyki na skali Plancka. Dla przypomnienia, długość Plancka, czyli l_{Pl} \approx 1.62 \cdot 10^{-35} m to najmniejsza, znana nam, skala fizyczna w tkance Wszechświata, na której istnienie wskazują rozważania teoretyczne. Fizykę opisującą rzeczywistość na skali Plancka nazywamy natomiast Kwantową Grawitacją. Niestety, z uwagi na obecny brak (pomimo wielu starań) możliwości empirycznego badania fizyki na skali Plancka, nie istnieje ugruntowana Kwantowa Teoria Grawitacji. Dysponujemy natomiast szeregiem teorii i modeli starających się uchwycić wiele aspektów kwantowej natury oddziaływań grawitacyjnych (przegląd wielu z nich można znaleźć np. w pracy Towards the map of quantum gravity).

Do kwestii empirycznego badania fizyki na skali Plancka możemy jednak podejść w trochę mniej bezpośredni sposób. Mianowicie, zakładając konkretny teoretyczny opis grawitacyjnych stopni swobody, możemy wykonać symulację rozważanego układu na skali Plancka i przeprowadzić na nim dowolne pomiary. Nie istnieją w takim przypadku ograniczenia  empiryczne wynikające z rozdzielczości urządzeń pomiarowych. Cała fizyka którą symulujemy znajduje się w pamięci superkomputera, do której posiadamy nieograniczony dostęp.  Najbardziej zaawansowane symulacje tego typu wykonuje się  obecnie w ramach podejścia zwanego Kauzalne Dynamiczne Triangulacje (ang. Causal Dynamical Triangulations – CDT).  W ramach CDT, symulowane są takie konfiguracje jak kwantowy Wszechświat zbudowany z nawet setek tysięcy elementarnych czasoprzestrzennych sympleksów.

Fig1
Kolaż obrazyjący symulowanie fizyki na skali Plancka na procesorze kwantowym. Wykorzystano zdjęcie procesora kwantowego firmy D-Wave oraz wizję artystyczną czasoprzestrzeni na skali Plancka

Symulacje o których mowa przeprowadzane są na powszechnie dzisiaj dostępnych superkomputerach klasycznych. Kwantowa natura oddziaływań grawitacyjnych musi być w związku z tym odpowiednio tłumaczona na język algorytmów klasycznych. Wykorzystanie komputerów kwantowych do symulowania kwantowej grawitacji pozwoliłoby proces ten wyeliminować. Mianowicie, symulacje układów kwantowych (takich jak kwantowa przestrzeń/czasoprzestrzeń) z wykorzystaniem komputerów kwantowych zasadniczo różni się od symulacji klasycznych. Komputery kwantowe pozwalają na mapowanie danego układu kwantowego na kwantowe stopnie procesora kwantowego. Mówimy tu o tak zwanych dokładnych symulacjach (ang. exact simulations), które pozwalają imitować wyjściowy układ kwantowy. Z punktu widzenia mechaniki kwantowej, imitacja wytworzona na procesorze kwantowym jest równoważna oryginalnemu układowi kwantowemu.

W moim niedawnym artykule Spin networks on adiabatic quantum computer oraz eseju Quantum Gravity on a Quantum Chip,  pokazuję, że wykorzystanie jedynego dzisiaj komercyjnie dostępnego komputera a mianowicie tzw. kwantowego annealera (wyżarzacza kwantowego)   firmy D-Wave daje możliwość symulowania fizyki na skali Plancka opisywanej przez tak zwane sieci spinowe. Sieci spinowe rozpinają przestrzeń Hilberta podejścia do grawitacji kwantowej zwanego Pętlową Grawitacją Kwantową (ang. Loop Quantum Gravity – LQG).  Kwantowe stopnie swobody sieci spinowej są w przypadku procesora kwantowego D-Wave imitowane z wykorzystaniem stanów qubitowych realizowanych przez nadprzewodzące obwody kwantowe (bazujące o tzw. złącza Josephsona). Jak pokazano w ramach rozważanego modelu, adiabatyczne obliczenia kwantowe umożliwiając zidentyfikowanie fizycznych stanów teorii.

Infographic.png
Infografika obrazująca reprezentację sieci spinowych w ramach architektury procesora adiabatycznego komputera kwantowego D-Wave. Szczegóły w pracy Spin networks on adiabatic quantum computer.

Jednym z ważnych zagadnień którego zbadanie symulacje kwantowe mogą pozwolić jest tak zwana granica semiklasyczna, czyli obszar w którym grawitacja kwantowa koresponduje z klasyczną teorią grawitacji, czyli Ogólną Teorią Względności. Wszystko wskazuję na to, że symulacje sieci spinowych na adiabatycznym komputerze kwantowym mogą niebawem umożliwić wykonanie pierwszego kroku w tym kierunku.

Potencjał i możliwe konsekwencje symulowania fizyki na skali Plancka są jednak dużo szersze. Kwantowe symulacje mogą nie tylko okazać się praktycznym narzędziem do badania fizyki na skali Plancka ale mogą również pomóc odsłonić głębszą naturę relacji pomiędzy grawitację a teorią informacji kwantowej (jak np. kwantowa wersja hipotezy It from bit). Bardzo ciekawa możliwość w kontekście symulacji  kwantowych wiąże się z relacją pomiędzy grawitacją a splątaniem kwantowym. Mianowicie, akumulujące się wyniki rozważań teoretycznych, w szczególności  korespondencja AdS/CFT, zasada holograficzna, entropia splątania sieci tensorowych MERA czy też hipoteza EPR=ER, wskazują na możliwość interpretacji pola grawitacyjnego w zadanej objętości (ang. bulk) jako przejawu splątania kwantowego niżej-wymiarowego układu na brzegu (ang. boundary) tego obszaru. Nie koniecznie więc do symulowania kwantowej grawitacji musimy angażować grawitacyjne stopnie swobody. Możliwe, że wystarczą do tego kwantowe symulacje (konforemnych) teorii pola na brzegu układu. Wykonanie odpowiednich pomiarów splątania kwantowego teorii na brzegu umożliwi zrekonstruowanie konfiguracji pola grawitacyjnego wewnątrz tego obszaru.  

Korzyści płynące z symulacji fizyki na skali Plancka na komputerach kwantowych nie leżą wyłącznie po stronie nauk podstawowych. Nowe typy procesorów kwantowych mogą  okazać się niezbędne do symulowania złożonych systemów kwantowograwitacyjnych, co może okazać się inspiracją  do rozwoju technologicznego. Symbiotyczny rozwój kwantowej grawitacji oraz technologii kwantowych może również doprowadzić do wypracowania nowych rozwiązań w obszarze obliczeń kwantowych. Jako przykład przytoczyć można zastosowanie sieci spinowych jako bazy do przetwarzania informacji kwantowej. 

Pozwolę sobie na koniec wspomnieć, iż umiejętność symulowania kwantowych stopni swobody na skali Plancka może w przyszłości umożliwić badanie od podstaw procesu formowania struktur we Wszechświecie. Idąc dalej, uwzględnienie również innych typów pól pozwoli symulować realistyczne modele Wszechświata. Wraz z upływem czasu i rozwojem technologii obliczeń kwantowych, możliwe będzie uwzględnienie coraz to większej ilości detali. A być może, któregoś dnia będziemy również w stanie symulować zaprojektowane przez nas Superwszechświaty, wykraczające swoją złożonością poza Ten nam znany.

© Jakub Mielczarek

Kosmiczna droga do kwantowej grawitacji

Każdego dnia obserwujemy i odczuwamy działanie siły grawitacji. Dzięki jej obecności upuszczone przedmioty spadają na powierzchnię Ziemi, a nam trudno jest się od niej oderwać. Żeby pokonać siłę grawitacji i uciec w przestrzeń kosmiczną musimy budować potężne rakiety. Ta sama siła utrzymuje ruch Księżyca w pobliżu Ziemi i Ziemię krążącą wokół Słońca. Siła  grawitacji odpowiada za ruch Słońca w Galaktyce i ruch Galaktyki w gromadzie galaktyk. Wszystkie te zjawiska mają jeden wspólny opis w postaci prawa powszechnego ciążenia Newtona. Jest to bardzo prosta relacja mówiąca, że pomiędzy dwoma ciałami posiadającymi masy działa przyciągająca siła grawitacji proporcjonalna do iloczynu ich mas i odwrotnie proporcjonalna do kwadratu odległości pomiędzy środkami ich mas. Współczynnikiem proporcjonalności w tej relacji jest stała grawitacji Newtona G. Prawo powszechnego ciążenia jest piękne, proste i bardzo praktyczne. Nie mówi nam ono jednak zbyt wiele o tym czym siła grawitacji tak w zasadzie jest i skąd się bierze. Znamy skutek i potrafimy go ilościowo opisać, nie znamy jednak jego przyczyny. Co takiego znajduje się pomiędzy ciałami obdarzonymi masą, że przyciągają się one wzajemnie? Czy jest to coś w rodzaju niewidzialnej nici? Do odpowiedzi na to pytanie przybliżył nas Einstein konstruując ogólną teorię względności. Teoria ta opisuję siłę grawitacji jako efekt zakrzywienia przestrzeni. Mianowicie, przestrzeń ulega odkształceniom pod wpływem  znajdujących się w niej ciał obdarzonych masą. Żeby sobie to lepiej uzmysłowić, wyobraźmy sobie rozciągnięty płat materiału. Jeśli umieścimy na nim masywną kulę, spowoduje to zapadnięcie powierzchni materiału. Umieszczona w pobliżu mała kulka stoczy się w kierunku dużej kuli, co zinterpretujemy jako przyciąganie pomiędzy kulkami. Postać tego oddziaływania okazuje się być taka sama (dla mało masywnych ciał) jak ta dana przez prawo Newtona.  Ponadto teoria przewiduje pewne nowe efekty w pobliżu bardzo masywnych ciał, czego nie ujmuje prawo Newtona. Efekty te zostały zweryfikowane obserwacyjnie.

Oddziaływanie grawitacyjne  można więc uważać jako efekt modyfikacji kształtu przestrzeni przez obdarzone masą ciała.  Opis ten daje bardzo intuicyjne wyjaśnienie przyczyny istnienia siły grawitacji, rodzi również jednak nowe pytania. W szczególności czym jest owa tajemnicza przestrzeń ulegająca odkształceniom pod wpływem masy? Teoria względności nie mówi zbyt wiele na ten temat. Z jej perspektywy, przestrzeń jest to rodzaj ciągłego ośrodka nie mającego żadnej struktury wewnętrznej. Istnieją jednak przesłanki teoretyczne wskazujące na to, że przestrzeń powinna, na dostatecznie małych skalach, posiadać pewien rodzaj wewnętrznej struktury. Żeby to zobrazować, wróćmy do przytoczonej analogii przestrzeni jako  rozciągniętego płatu materiału. Widząc tkaninę z dużej odległości wydaję się ona tworzyć ciągłą strukturę. Jeśli jednak popatrzymy na nią z bliska ukaże nam ona swoją włóknistą naturę. Jak sugerują przewidywania teoretyczne, włókna z których może być utkana przestrzeń mają średnice rzędu 10-35 metra, co odpowiada tak zwanej długości (skali) Plancka.

Długość Plancka, odpowiada rozmiarom przy których spodziewamy się występowania efektów kwantowej grawitacji. Najprostszą metodą wprowadzenia długości Plancka jest tak zwana analiza wymiarowa. Rozważmy mianowicie trzy stałe fizyczne:

c– prędkość światła,

G– stałą grawitacji,

\hslash– zredukowaną stałą Plancka.

Wykorzystując te stałe możemy otrzymać wielkość o wymiarze długości

l_{\text{Pl}} = \sqrt{\frac{\hslash G}{c^3}} \approx 1.62 \cdot 10^{-35} \text{m}

zwaną długością Plancka.Teorię opisującą przestrzeń na rozmiarach mniejszych od długości  Plancka określamy mianem kwantowej teorii grawitacji (lub w skrócie kwantowej grawitacji). W odróżnieniu od klasycznej teorii grawitacji, którą jest ogólna teoria względności. Klasyczność oznacza tu ciągły opis przestrzeni, kwantowość natomiast oznacza opis ziarnisty.

Jak się okazuje, znalezienie kwantowego opisu grawitacji jest zadaniem niezwykle trudnym. Badania w tym kierunku rozpoczęto już w latach trzydziestych ubiegłego wieku. Niestety, jak dotąd, nie doprowadziły one do zamierzonego celu. Znaleziono co prawda pewnych kandydatów do miana teorii kwantowej grawitacji takich jak: teorię superstrun, pętlową teorię grawitacji czy teorię kauzalnej dynamicznej triangulacji. Nie wiadomo jednak czy teorie te dają właściwy opis zjawisk fizycznych, ponieważ żadna z tych teorii nie doczekała się, jak dotąd,  doświadczalnego potwierdzenia. Trudność ta wynika z faktu, że przewidywane efekty kwantowej grawitacji występują na niezwykle małych odległościach, porównywalnych z długością Plancka. Aby więc zweryfikować przewidywania pretendentów do  miana teorii kwantowej grawitacji musimy zajrzeć bardzo daleko w głąb struktury materii.

Zazwyczaj, jeśli chcemy zbadać Świat na rozmiarach mniejszych niż te dostępne naszym zmysłom, posługujemy się mikroskopem. W ten sposób możemy poznać np. tajemnice mikroświata na odległościach 10-6 metra. Żeby zajrzeć jeszcze dalej w głąb materii potrzeba trochę większych odpowiedników mikroskopu zwanych akceleratorami cząstek elementarnych.  Pozwalają one dzisiaj badać materię do rozmiarów rzędu 10-18 metra. Są to najmniejsze skale odległości na których zbadaliśmy jak dotąd nasz Wszechświat. Stąd pozostaje więc około siedemnastu rzędów wielkości do skali Plancka. Technika akceleratorowa niestety nie pozwala pójść dużo dalej.

Ta ogromna przepaść odległości skłania wielu fizyków do uznania teorii kwantowej grawitacji jako nieweryfikowalnej doświadczalnie. Stwierdzenie to jest uzasadnione jednak tylko wówczas, jeśli do skali Plancka wiedzie jedynie droga wskazywana przez fizyków cząstek. Czyli bazująca na konstrukcji coraz to większych akceleratorów, pozwalających badać Wszechświat na coraz mniejszych skalach.  Ale czy możliwa jest jakaś inna droga? Jak inaczej zbadać strukturę mikroświata niż budując coraz to większe mikroskopy? Okazuje się, że taka droga potencjalnie istnieje. Wymaga ona jednak  nie budowy nowych mikroskopów, lecz teleskopów. Może to na początku wydawać się trochę dziwne. Przecież teleskopy pomagają nam podglądać odległe miejsca we Wszechświecie i olbrzymie struktury wielokrotnie większe od Słońca, jak galaktyki oraz gromady galaktyk. Droga ta wydaje się więc prowadzić w zupełnie innym kierunku.  Może i kierunek jest przeciwny ale droga, jak się okazuje, prowadzi w to samo miejsce. Zupełnie tak jak na powierzchni Ziemi. Wszystko dzięki temu, że Wszechświat podlega ekspansji. Podczas tej ekspansji odległości pomiędzy ciałami (np. galaktykami) ulegają ciągłemu wzrostowi. Jeśli natomiast popatrzymy wstecz w czasie, ciała te będą się do siebie zbliżać. Gęstość materii we Wszechświecie będzie więc wzrastać. Odległości pomiędzy cząsteczkami będą maleć, aż do osiągnięcia wartości długości Plancka! Możemy się więc spodziewać, że ich zachowanie będzie wtedy zupełnie inne niż to przewidywane w ramach opisu klasycznego.  Taką zasadniczą różnicę przewiduje, wspomniana już, pętlowa teoria grawitacji. Mianowicie mówi ona, że nie jest możliwe dowolne zwiększanie gęstości materii we Wszechświecie. Co za tym idzie, cząstki nie mogą zbliżyć się do siebie na dowolną odległość, lecz tylko na większą niż długość Plancka. Zachowanie takie jest wynikiem ziarnistej struktury przestrzeni. Prowadzi to do bardzo ciekawych konsekwencje odnośnie zachowania się Wszechświata.

W opisie klasycznym nie ma ograniczenia na maksymalną, możliwą do osiągnięcia, gęstość materii.   Idąc więc wstecz w czasie, gęstość materii  we Wszechświecie może rosnąć aż do nieskończoności. Nieskończoność ta nosi nazwę kosmicznej osobliwości i jest bolączką opisu klasycznego. Mianowicie, w stanie tym, teoria klasyczna traci swoją zdolność przewidywania. Pętlowa teoria grawitacji daje rozwiązanie tego problemu usuwając stan kosmicznej osobliwości. Zamiast niefizycznej osobliwości następuje faza tak zwanego odbicia (ang. bounce), podczas której gęstość materii we Wszechświecie osiąga maksymalną, skończoną wartość. W opisie tym objętość Wszechświata najpierw maleje, aż do osiągnięcia minimalnej wartości, a następnie zaczyna rosnąć. Stąd nazwa odbicie.

Efekty kwantowej grawitacji mogły więc mieć bardzo istotny wpływ na ewolucję Wszechświata. W szczególności, mogły doprowadzić do kosmicznego  odbicia.  Miało to jednak miejsce bardzo dawno, bo około czternaście miliardów lat temu.  Dlatego, w dzisiejszym Wszechświecie, mogły nie pozostać już żadne pozostałości fazy obicia. Okazuje się jednak, szczęśliwie dla nas, że część informacji na temat tej fazy może wciąż być dostępna dla obserwacji.  Wszystko  dzięki fotonom mikrofalowego promieniowania tła (ang. cosmic microwave background, CMB) które powstały około  400 000 lat po fazie odbicia. Może to wydawać się bardzo dużo, jest to jednak tylko ułamek sekundy w skalach czasowych Wszechświata.

Szereg eksperymentów dokonuje obecnie pomiarów temperatury tego promieniowania w zależności od kierunku na niebie. Okazuje się, że temperatura ta podlega małym wahaniom. Jest to odzwierciedleniem niejednorodności gęstości materii w okresie formowania się CMB. Niejednorodności te są dla nas niezwykle ważne, ponieważ to właśnie dzięki nim  powstały wszystkie późniejsze struktury we Wszechświecie takie jak galaktyki, gwiazdy czy planety. Te obserwowane małe fluktuacje gęstości miały swój początek  jednak dużo wcześniej. Mianowice podczas tak zwanej fazy kosmicznej inflacji, w której nastąpił bardzo gwałtowny wzrost rozmiarów wszechświata.  To właśnie wtedy, w początkowo jednorodnym Wszechświecie, powstały pierwsze zaburzenia dzięki którym jest on  dziś tak bogaty w struktury. Gdyby nie inflacja, Wszechświat pozostałby jednorodnie wypełnionym materią, nieciekawym tworem. W takim wszechświecie nie miałyby szans powstać struktury złożone takie jak Człowiek.

Fazę kosmicznej inflacji można już dzisiaj badać za pomocą obserwacji mikrofalowego promieniowania tła.  Jest to niesamowite, ponieważ ten etap w historii Wszechświata miał miejsce tuż po fazie odbicia, przewidywanego w ramach pętlowej teorii grawitacji. Słowo „tuż” oznacza tu około 10-36 sekundy. To sugeruje, że faza inflacji mogła nastąpić w konsekwencji efektów kwantowej grawitacji. Tak też wskazują  badania prowadzone w ramach pętlowej grawitacji kwantowej. Mianowicie, teoria ta przewiduje że, po fazie odbicia następuje, w sposób nieunikniony,  faza kosmicznej inflacji!  Efekty pętlowej grawitacji kwantowej prowadzą również do pewnych dodatkowych modyfikacji odnośnie postaci zaburzeń gęstości materii generowanych podczas  fazy inflacji. To natomiast ma wpływ na kształt fluktuacji temperatury  mikrofalowego promieniowania tła. Modyfikacje te są jednak na tyle małe, że jak dotąd nie udało się ich zaobserwować. Możliwe, że nowe obserwacje wykonane przez satelitę Planck doprowadzą od przełomu w tej kwestii. Aby się o tym przekonać, musimy jednak poczekać do moment upublicznienia wyników obserwacji  planowanego na 2012 rok. Już dzisiaj jednak, możemy nauczyć się wiele na temat kwantowej grawitacji poprzez badanie jej wpływu na fazę kosmicznej inflacji.

Droga do kwantowej grawitacji jest kręta i często prowadzi w ślepe zaułki. Droga „na wprost”  z wykorzystaniem akceleratorów cząstek elementarnych wydaje się nie do przejścia. Trzeba więc próbować wytyczać nowe szlaki. Czasem prowadzą one w zupełnie przeciwnym kierunku. Jednym z nich jest kosmiczna droga do kwantowej grawitacji, prowadząca przez bezkresny ocean Wszechświata. Zawiodła ona nas  niezwykle daleko, bo aż 14 miliardów lat wstecz, lecz zarazem tylko 10-36 sekundy od miejsca przeznaczenia. Wiemy więc, że cel jest już blisko.  Tu jednak fale wzmagają się coraz bardziej, i dalsza podróż staje się niezwykle trudna. Pozostaje więc mocno trzymać ster!

© Jakub Mielczarek

The origin of primordial perturbations

The Universe is full of gravitating structures on different length scales. The stars, galaxies, clusters of galaxies, super-clusters, voids are among them. But, why is the Universe not just filled with a homogeneous distribution of dust?  Or why and how the structures mentioned were formed? This is one among the questionsthe cosmologists try to answer. The standard technique applied by them is the theory of cosmological perturbations. This theory requires, that the perturbations of the energy density \delta \rho compared to the average energy density \rho have to fulfil the condition \frac{\delta \rho}{\rho}\ll 1. Amazingly, this condition was fulfilled for a long period in the comic history. The theory of cosmological perturbations indicates however, that the factor \frac{\delta \rho}{\rho} grows with time and at some point \frac{\delta \rho}{\rho}\approx 1 and the linear perturbation theory breaks down. At this point the non-linear evolution starts which trigger gravitational collapse, leading to formation of bound gravitational objects like e.g. galaxies.  It is worth mentioning that the evolution of \frac{\delta \rho}{\rho}  follows differently depending on the length scale.  Therefore, the bounded gravitational structures can be formed at the different times on the different scales. So, the classical cosmology can explain how the gravitational structures were formed from some tiny perturbations of the matter distribution that had filled the Universe. In particular, observations of the cosmic microwave background (CMB) anisotropies of temperature indicate that \frac{\delta T}{T} \approx10^{-5} which translate to \frac{\delta \rho}{\rho}=\frac{1}{4} \frac{\delta T}{T} \approx 10^{-5}.  Therefore, when the CMB (which was at the redshift z \simeq 1070) was formed, the Universe was very homogeneous and only tiny perturbations of the primordial plasma were present. Tracing the evolution of the Universe backwards, one can investigate the properties of the perturbations before the CMB was formed. This way, one finds that in the very early universe there were some tiny primordial perturbations. All the structures observed in the Universe have seeds in these initial perturbations, and so it is crucial to answer what is the mechanism responsible for the formation of them?

The observations of the CMB anisotropies and polarisation give us certain indications regarding the form of the primordial perturbations. In particular,  we could naively suspect that the primordial perturbations have a thermal origin. Since the Universe was in thermal equilibrium at some early stages, this sounds to be a natural explanation. However, this possibility is completely rejected by the observations of the CMB anisotropies. While the thermal fluctuations lead to the spectrum of perturbations in the form \mathcal{P} \sim 1/k (white-noise spectrum), the observations of the CMB indicate that the spectrum [We are discussing here a spectrum of the so-called scalar perturbations. Issue of the tensor perturbation (gravitational waves) will be broached later] has a nearly scale-invariant [In cosmology, the scale-invariance means simply: constant. This definition is different from the standard mathematical notion where the scale-invariance is a scallig property of any power-law function] form \mathcal{P} \sim k^{n_{\text{S}}-1}, where n_{\text{S}} \approx 1. This is quite a problematic issue since it is not so easy to find a mechanism that produces a spectrum in this form. But, it is also a good point, since when we find the simple mechanism which leads to the observed spectrum, then we are more certain about its authenticity.

Presently, the  best explanation of the form of the primordial perturbations is given by the theory of  comic inflation (See e.g. [1]). Inflation is a general concept which basically states that the Universe went through a phase of an accelerated (nearly exponential) expansion in its early ages. During this phase, the primordial perturbations were easily formed from the quantum fluctuations. This is a very elegant and a simple solution of the problem. However, the remaining question is: “what drives the Universe to inflate exponentially?”.  This problem can be solved introducing the matter content in the form ofa self-interacting scalar field \phi called inflaton. A scalar field is the simplest possible field and its excitations are the spin-0 particles. Moreover, it can very easily drive the proper inflationary phase. However, some obscurity regarding the nature of this field appears. This come from the fact that in Nature we do not observe any elementary spin-0 particles that can be the excitations of the scalar field.  The scalar fields appear however in some effective theories as Yukawa’s theory, where the scalar \pi-meson mediates the strong  interaction. Another example is given by the Higgs  boson which is the spin-0 excitation of the scalar Higgs field. This field can be, in some sense, regarded as fundamental. Therefore, the detection of the  Higgs  boson at the LHC could give support to the theory of inflation where the scalar field (however different) is also used. It could just say, that the fundamental scalar fields can in fact be present in Nature. At present, since the nature of the inflaton field remains unknown, \phi should be understood as an effective matter component of the Universe.

As was already mentioned, the realisation of inflation requires self-interaction of the scalar field. This introduces another ambiguity, since the field can self-interact in many different ways, which result with many possible choices of the field potential V(\phi). The forms of  potentials can be however constrained and ever excluded based on the observations of CMB. The simple model that I would like to discuss in more details is based on the massive potential V(\phi)=\frac{m^2}{2}\phi^2. This is the most natural choice of  V(\phi), since it just says that the excitations of the field have the mass m.   The field evolves in the quadratic potential  similarly as a ball in the harmonic potential. However, the evolution differ from the standard harmonic oscillations case, since, the field is coupled with the gravitational field. This makes the evolution a little bit more complicated. In particular, the slow-roll evolution appears, when the field goes down the potential well. During this phase, the cosmic acceleration (inflation) occurs. Using the standard techniques of quantum field theory on curved spacetimes one can calculate what will be the resulting spectrum of primordial perturbations. From these calculations, we obtain the spectrum of the scalar primordial perturbations in the form

\mathcal{P}_{\text{S}}(k) = \underbrace{\frac{1}{\pi \epsilon} \left(\frac{H}{m_{\text{Pl}}} \right)^2}_{=S} \left( \frac{k}{aH}\right)^{n_{\text{S}}-1},

as well as the spectrum of the tensor perturbations (gravitational waves) in the form

\mathcal{P}_{\text{T}}(k) = \underbrace{\frac{16}{\pi} \left(\frac{H}{m_{\text{Pl}}} \right)^2}_{=T} \left( \frac{k}{aH}\right)^{n_{\text{T}}},

where H is a Hubble factor and m_{\text{Pl}}\approx 1.22\cdot 10^{19} GeV is the Planck mass.  Expressions for the scalar and tensor spectral indices are  respectively

n_{\text{S}} =1-4\epsilon and  n_{\text{T}} =-2\epsilon,

where \epsilon \ll 1 is called a slow-roll parameter. Therefore, prediction from this so-called slow-roll inflation is that the scalar spectral index n_{\text{S}} is almost equal to one but a little bit smaller (in jargon: red shifted). Let us confront this with the available CMB data. Recent results from the 7-years observations of the WMAP satellite [2] give

n_{\text{S}} = 0.963 \pm 0.012.

This is in full agreement with the prediction from the slow-roll inflation which supports the model. Moreover, the WMAP satellite measured also an amplitude of the scalar perturbations [2]

S = 2.441^{+0.088}_{-0.092} \cdot 10^{-9}

at the pivot scale k_{0}=0.002 \ \text{Mpc}^{-1}. Based on the measurements of S and n_{\text{S}}  one can compute the mass of inflation

m \simeq m_{\text{Pl}} \frac{1}{4}\sqrt{3\pi S} (1-n_{\text{S}})=(1.4 \pm 0.5) \cdot 10^{-6} m_{\text{Pl}}.

Therefore, the only parameter of the model can be recovered from the observational data. The crucial check of validity of this model would be given by measurements of the tensor power spectrum \mathcal{P}_{\text{T}}. This spectrum can be however, detected only if the B-type polarisation of the CMB will be measured. While the B-type polarisation has not been detected yet, there are huge efforts in this direction. Experiments such as PLANCK [3], BICEP [4] or QUIET [5] are (partly) devoted to the search for the B-mode. The crucial parameterthat quantify the contribution of the gravitational waves is the so called tensor-to-scalar ratio r. This is defined as a ratio of the tensor to scalar amplitude of perturbations at some given scale.  Within the slow-roll inflationmodel, one can predict the value of r, based on observation of the spectral index n_{\text{s}}. Namely, a prediction of the slow-roll inflation model is the following

r :=\frac{T}{S}=16\epsilon=4(1-n_{\text{S}})=0.15 \pm 0.05,

where the value from WMAP-7 was applied. Moreover, based on  WMAP-7 data, the tensor spectral index is predicted to be n_{\text{T}}=\frac{n_{\text{S}}-1}{2}=-0.019 \pm 0.006. It is however unlikely to confront this quantity with observational data in the near future. Present observational constraints on the value of r are

r < 2.1 \ \text{at} \ 95 \% \ \text{C.L.} \ (\text{WMAP-7}),

r < 0.73 \ \text{at} \ 95 \% \ \text{C.L.} \ (\text{BICEP}),

which come from the constraint on the amplitude of the B-type polarisation of the CMB. The predicted vale of r  is placed below the present observational limitations.  However e.g. the PLANCK satellite (which is currently collecting the data) sensitivity reaches r=0.05 which is sufficient to detect the B-type polarisation as predicted by the slow-roll inflation. This would be a great support for the theory of inflation and the slow-roll model. However if, at this level of sensitivity, the B-type polarisation would not be detected, then the simple slow-rollinflaton would have rejected or required modifications. What will turn out to be a true? For the answer, we have to patiently wait till the end of 2012, when the first results from the PLANCK satellite will be released.

  1. A. Linde, Lect. Notes Phys. 738, 1 (2008).
  2. E. Komatsu et al., Submitted to Astrophs. J. Suppl. Ser., arXiv:1001.4538v1
  3. [Planck Collaboration],  “Planck: The scientific programme,”  arXiv:astro-ph/0604069.
  4. H. C. Chiang et al., “Measurement of CMB Polarization Power Spectra from Two Years of BICEP Data,” arXiv:0906.1181 [astro-ph.CO]
  5. D. Samtleben and f. t. Q. Collaboration,  “Measuring the Cosmic Microwave Background Radiation (CMBR) polarization  with QUIET,”  Nuovo Cim.  22B (2007) 1353  [arXiv:0802.2657 [astro-ph]].

© Jakub Mielczarek, 1st April 2010