Elementary quantum computing

For theoretical physicists, programming quantum computers sounds like one of the easiest things to do. It is just playing with tensor products of two-dimensional Hilbert spaces and constructing certain unitary operators. However, we are not such common species and some other people would also like to learn a bit more about quantum computing as well.  Therefore, here I will show what the basics of quantum computing are.  My approach is to present a very simple example of how to construct a quantum circuit and execute it on a real quantum computer. Namely, we will use publicly available IMB Q Experience  platform to generate one of the so-called Bell states:

| B \rangle = \frac{1}{\sqrt{2}} \left(|01\rangle -|10\rangle  \right).

This state has quite interesting physical interpretation. It represents maximally entangled state of two spin 1/2 particles (e.g. two electrons) such that the total spin of the system is equal zero (such states are known as singlets). The | B \rangle state is relevant in both quantum computing and quantum cryptography. So, let us begin…

Picture of the IBM quantum chip composed of 7 superconducting qubits. Source

A single qubit is a state (vector) | \Psi \rangle  in two-dimensional Hilbert space, which we denote as \mathcal{H}. Let us choose the space to be spanned by two orthonormal basis states |0\rangle and |1\rangle such that \langle 1|0\rangle =0 and \langle 0|0\rangle = 1 = \langle 1|1\rangle . A general qubit is a superposition of the basis states:

| \Psi \rangle = \alpha|0\rangle +\beta |1\rangle ,

where, \alpha, \beta \in \mathbb{C} (complex numbers), and the normalization condition \langle \Psi | \Psi \rangle = 1 implies that |\alpha|^2+|\beta|^2=1.

There are different quantum operators (gates) which may act on the quantum state | \Psi \rangle. For instance, the so-called bit-flip operator \hat{X} which  transforms  |0\rangle into  |1\rangle and  |1\rangle into  |0\rangle  (\hat{X}|0\rangle =|1\rangle and \hat{X}|1\rangle =|0\rangle) can be introduced. Another important operator is the Hadamard operator \hat{H} which is defined by the following action on the qubit basis states:

\hat{H}|0\rangle =\frac{1}{\sqrt{2}}\left(|0\rangle  +|1\rangle\right)  and  \hat{H}|1\rangle =\frac{1}{\sqrt{2}}\left(|0\rangle  -|1\rangle\right).

The above are examples of operators acting on a single qubit. However, while considering quantum computing we usually deal with quantum register composed of N qubits.  The resulting quantum state belongs to Hilbert space being a tensor product of N copies of the qubit Hilbert space:

\underbrace{\mathcal{H}\otimes\mathcal{H}\otimes \dots \otimes\mathcal{H}}_{N},

dimension of which is

\text{dim}(\underbrace{\mathcal{H}\otimes\mathcal{H}\otimes \dots \otimes\mathcal{H}}_{N})=2^N.

This exponential growth with N is the main obstacle behind simulating quantum systems on classical computers. With the present most powerful classical supercomputers we can simulate quantum systems with {\bf N=56} at most. The difficulty is due to the fact that quantum operators acting on 2^N dimensional Hilbert space are represented by 2^N\times2^N matrices, which are very difficult to deal with when N is roughly more than 50 (for N=56, 2^{56} \sim 10^{17}).  

A quantum algorithm is simply a unitary operator \hat{U} acting on the initial state of N quibits |0\rangle\otimes|0\rangle \otimes \dots \otimes|0\rangle \in\mathcal{H}\otimes\mathcal{H}\otimes \dots \otimes\mathcal{H}. The outcome of the quantum algorithm is obtained by performing measurements on the final sate: \hat{U}(|0\rangle\otimes|0\rangle \otimes \dots \otimes|0\rangle). Because of the probabilistic nature of quantum mechanics, the procedure has to be performed repeatedly in order to reconstruct the final state.

The unitary operator \hat{U} can be decomposed into elementary operators called quantum gates, similarly to the logical electronic circuits which are built out of elementary logic gates.  The already introduced \hat{X} and \hat{H} operators are examples of gates acting on a single qubit. However, the gates may also act on two or more qubits. An example of 2-qubit gate relevant for our purpose is the so-called CNOT gate, which we denote as \hat{C}.  The operator is acting on 2-qubit state |ab\rangle \equiv |a\rangle \otimes|b\rangle, where |a\rangle and |b \rangle are single quibit states. Action of the CNOT operator on the basis states can be expressed as follows:

\hat{C}(|a\rangle \otimes|b\rangle) =|a\rangle \otimes|a\oplus b\rangle,

where a,b \in \{0,1\}.  The \oplus is the XOR (exclusive or) logical operation (or equivalently addition modulo 2), defined as 0\oplus 0 = 0,  0\oplus 1 = 11\oplus 0 = 1 and 1\oplus 1 = 0. In consequence:

\hat{C}|00\rangle =|00\rangle,   \hat{C}|01\rangle =|01\rangle,   \hat{C}|10\rangle =|11\rangle,   \hat{C}|11\rangle =|10\rangle.

We are now equipped to address the initial task of creating the Bell state  | B \rangle = \frac{1}{\sqrt{2}} \left(|01\rangle -|10\rangle  \right). We will perform it in the following steps:

  1. We begin with the initial 2-qubit state  |00\rangle \equiv |0\rangle\otimes|0\rangle.
  2.  Then, we are acting on both qubits with the spin-flip operator \hat{X}. The corresponding operator has a form of the following tensor product: \hat{X}\otimes \hat{X} . Action of this operator on the initial state gives:  (\hat{X}\otimes \hat{X})(|0\rangle\otimes|0\rangle ) =(\hat{X}|0\rangle\otimes\hat{X}|0\rangle)=|1\rangle\otimes|1\rangle \equiv |11\rangle.
  3. Now, let us act on the first quibit with the Hadamard operator (gate), leaving the second qubit unchanged. Such operation is represented by the operator \hat{H}\otimes\hat{I}, where \hat{I} is the identity operator which does not change a quantum state. Action of \hat{H}\otimes\hat{I} on |11\rangle gives \frac{1}{\sqrt{2}}(|0\rangle  -|1\rangle)\otimes |1 \rangle = \frac{1}{\sqrt{2}}|01\rangle-\frac{1}{\sqrt{2}}|11\rangle .
  4. In the final step we are acting on the obtained state with the CNOT gate: \hat{C}(\frac{1}{\sqrt{2}}|01\rangle-\frac{1}{\sqrt{2}}|11\rangle )=\frac{1}{\sqrt{2}}\hat{C}|01\rangle-\frac{1}{\sqrt{2}}\hat{C}|11\rangle =\frac{1}{\sqrt{2}} \left(|01\rangle -|10\rangle  \right), getting the Bell state.

The total unitary operator representing our quantum algorithm can be written as a composition of the elementary steps:

\hat{U} =\hat{C}(\hat{H} \otimes \hat{I} )(\hat{X} \otimes \hat{X}).

Action of this operator on the initial state |00\rangle gives the state | B \rangle:

\hat{U}|00\rangle =\frac{1}{\sqrt{2}} \left(|01\rangle -|10\rangle  \right).

In the experimental part we will create the Bell state employing publicly accessible 5-qubit quantum computer provided by IBM. In the quantum device, qubits are constructed using superconducting circuits, operating at millikelvin temperatures. Access to the device can be obtained through this link (you have to create a free account and login).


The quantum circuit representing the operator \hat{U} can  now be created using the quantum gates in the online quantum composer. The quantum circuit should look as follows (we used the last two qubits here):


The green boxes with letter X represent the bit-flip gates, the blue box with letter H represents the Hadamard gate, while the next operation from the left is the CNOT gate acting on both qubits. Finally, the pink boxes represent measurements performed on the final state. Restricting to the last two qubits,  the final state can be expressed as the following superposition:

|\Psi \rangle =c_1|00\rangle+c_2|01\rangle+c_3|10\rangle+c_4|11\rangle,

where c_1, c_2, c_3, c_4 \in \mathbb{C} and |c_1|^2+| c_2|^2+|c_3|^2+ |c_4|^2=1. What is measured are probabilities of the basis states P(i) = |c_i|^2, where i=1,2,3,4.  For the Bell state | B \rangle we expect that

P(1) = 0,   P(2) = \frac{1}{2}P(3) = \frac{1}{2} and P(4) = 0.

However, in the real experiment (because of the finite number of measurements as well as due to the quantum errors) the obtained results might differ. Let us firstly check what are the probabilities obtained by running the algorithm on the simulator of quantum computer provided by IBM. By executing the algorithm 1000 times we obtain the following result:

P(1) = 0,   P(2) = 0.515P(3) = 0.485 and P(4) = 0.


The result is in high compliance with the theoretical predictions. Finally, running the true quantum computer IBM Q 5 Tenerife (performing 1024 runs) we obtained:

P(1) = 0.104,   P(2) = 0.503P(3) = 0.368 and P(4) = 0.024.


Presence of the undesirable contributions from the states |00\rangle and |11\rangle is due to the errors of the quantum gates, which are still quite significant. Reduction of this error is crucial for the future utility of quantum computers.

This introduction is of course only the beginning of the story. If you find the subject interesting let me recommend you some further reading and watching:

  1. Artur Ekert, Patrick Hayden, Hitoshi Inamori, Basic concepts in quantum computation [arXiv:quant-ph/0011013].
  2. IBM Q experience Documentation, User Guide.
  3. Quantum software, Nature, Insight, 
  4. https://www.youtube.com/watch?v=JRIPV0dPAd4&t=959s


© Jakub Mielczarek


Świat zachłysnął się cyfrowym złotem – kryptowalutami. Bitcoin i technologia Blockchain stały się, w mgnieniu oka, częścią naszej codzienności. Choć jeszcze dosłownie kilka lat temu były to nazwy znane głównie entuzjastom nowych technologii oraz postępowym inwestorom. Obecnie, zainteresowanie rynkiem kryptowalut jest ogromne,   a sięgające nawet kilkuset procent w skali roku wzrosty kursów kryptowalut wabią  okazją zbicia fortuny.

Nie mniej emocji dostarcza nam obecny renesans w eksploracji kosmosu (tzw. NewSpace). Takie momenty jak symultaniczne lądowanie odzyskiwanych po stracie rakiety Falcon Heavy stopni pomocniczych to sceny niczym z filmów science fiction. Spektakularność tych wyczynów pobudza wyobraźnię nie tylko pasjonatów kosmosu, ale i inwestorów, przyśpieszając otwarcie przestrzeni kosmicznej dla coraz ambitniejszych wyzwań. Trochę w cieniu Blockchainu i NewSpace, rozgrywa się obecnie jeszcze jedna niezwykle ważna technologiczna rewolucja, nie robiąca może tyle huku co start rakiety ani nie hipnotyzująca tak jak cyfrowe złoto, ale za to gruntownie transformująca informacyjną tkankę naszego świata. Chodzi mianowicie o przeskok od obecnej fazy przetwarzania informacji klasycznej (bity) do epoki informacji kwantowej (qubity).  Nowe technologie kwantowe, bo za ich sprawą  ma to miejsce, wpłyną na dalszy rozwój zarówno kryptowalut jak i technologii kosmicznych. Możemy sformułować nawet śmielszą tezę: rozwiązania, które zrodzą się na przecięciu tych trzech obszarów (kryptowalut, technologii kwantowych i eksploracji kosmosu), zrewolucjonizują każdy z nich z osobna jak i wygenerują zupełnie nową jakość.

Ale po kolei. Kryptowaluty opierają się na rozproszonym systemie księgowym typu peer-to-peer, zaproponowanym w artykule Bitcoin: A Peer-to-Peer Electronic Cash System. W rozwiązaniu takim, w przeciwieństwie do standardowych systemów finansowych, nie istnieje centralny podmiot autoryzujący, np. bank. Poprawność obrotu kryptowalutą zapewniona jest natomiast poprzez decentralizację oraz szereg zabezpieczeń kryptograficznych. Należy do nich, w szczególności, podpis elektroniczny za pomocą którego składane są dyspozycje transakcji.  Jest to przykład tak zwanej kryptografii asymetrycznej, w której istnieją dwa typy klucza: prywatny oraz publiczny. Wykonanie transakcji wiąże się z podpisaniem, za pomocą klucza prywatnego, dyspozycji transakcji  i następnie jej autoryzowanie przez innych użytkowników sieci, na postawie znajomości klucza publicznego. Dokładnie tak samo jak w przypadku składania podpisu elektronicznego. Siła takiego zabezpieczenia opiera się na dużej złożoności obliczeniowej związanej z odtworzeniem postaci klucza prywatnego na podstawie znajomości klucza publicznego.  W przypadku Bitcoina, wykorzystywany jest w tym celu algorytm ECDSA (Elliptic Curve Digital Signature Algorithm). Jest on odporny na ataki prowadzone przez komputery klasyczne. Natomiast, okazuje się, że dla uniwersalnych komputerów kwantowych problem ten przestaje być aż tak trudny. Mianowicie, do znalezienia klucza prywatnego (w kryptografii bazującej na ECDSA) możliwe jest zastosowanie zmodyfikowanego kwantowego algorytmu faktoryzacji Shora. Niedawna publikacja Quantum attacks on Bitcoin, and how to protect against them sugeruje, że postęp w rozwoju komputerów kwantowych może umożliwić łamanie obecnych zabezpieczeń opartych o ECDSA już za niespełna 10 lat.

Utrzymanie zdecentralizowanej struktury Blockchainu, na której opary jest Bitcoin, wymaga pracy tak zwanych górników (minerów). Zapłatą za wkład ich mocy obliczeniowej w utrzymywanie systemu są Bitcoiny. Żeby jednak je otrzymać, należy rozwiązać zadanie oparte o tak zwaną funkcję haszującą SHA-256, opracowaną przez National Security Agency. W celu rozwiązania zadania, konieczne jest zbadanie wartość funkcji haszujacej dla bardzo dużej ilości różnych wartości jej argumentu. Jest to, dla komputerów klasycznych, niezwykle żmudne zadanie (energia elektryczna przeznaczana obecnie na tę czynność, tylko w przypadku Bitcoinu, wynosi w skali roku ponad 70 TWh, co jest porównywalne z konsumpcją energii elektrycznej Austrii). Okazuje się jednak, że zadanie to jest jednym z tych z którymi doskonale radzą sobie algorytmy kwantowe. Otóż, można w tym przypadku wykorzystać jeden z najbardziej znanych algorytmów kwantowych, tak zwany algorytm Grovera. Pozwala on zredukować złożoność obliczeniową procesu poszukiwania argumentu funkcji haszującej do pierwiastka kwadratowego z liczby dozwolonych argumentów.

Możemy  więc dojść do wniosku, że rozwój technologii kwantowych, w szczególności uniwersalnych komputerów kwantowych (takich jak np. IBM Q), stanowi zagrożenie dla zabezpieczeń na których opierają się obecne kryptowaluty. Z drugiej strony jednak, technologie kwantowe pozwalają również ulepszyć systemy takie jak Blockchain. Miedzy innymi,  klasyczne zabezpieczenia kryptograficzne mogą zostać zastąpione przez odpowiednie rozwiązania kryptografii kwantowej.  Do najważniejszych z nich należą: kwantowe generatory kluczy oraz tak zwana Kwantowa Dystrybucja Klucza (KDK).

KDK opiera się na takich własnościach mechaniki kwantowej jak zaburzenie stanu układu kwantowego poprzez pomiar i tak zwany zakaz klonowania stanów kwantowych.  Na tej podstawie, protokoły kwantowej dystrybucji klucza są w stanie wykryć każdą próbę wykradzenia informacji. Stanowią więc wręcz idealną metodę zabezpieczenia wymiany klucza prywatnego, eliminując tym samym potrzebę stosowania kryptografii asymetrycznej.  Warto podkreślić, że KDK osiągnęła poziom technologii dostępnej komercyjnie. Jednakże, jej stosowanie na dużych odległościach (rzędu kilkuset kilometrów) wciąż stanowi wyzwanie. Wiąże się to z koniecznością przesyłania pojedynczych fotów, w których stanach kwantowych zakodowany jest klucz prywatny. Można w tym celu zastosować światłowód. Nie jest to jednak rozwiązanie optymalne gdyż, z uwagi na zakaz klonowania stanów kwantowych, wzmacnianie sygnału przesyłanego tą drogą jest trudnym zadaniem. Żeby zniwelować straty w przesyłanym sygnale, niezbędne jest zastosowanie tak zwanych kwantowych powielaczy, realizujących protokół teleportacji kwantowej. Z uwagi na złożoność techniczną takiego rozwiązania, dużo łatwiejsze okazuje się przesyłanie pojedynczych fotonów w powietrzu lub w próżni. W konsekwencji, jedyny dostępny dzisiaj sposób przeprowadzania kwantowej dystrybucji klucza na odległościach międzykontynentalnych opiera się na wykorzystaniu przestrzeni kosmicznej.

Prace nad takim rozwiązaniem prowadzono już od dłuższego czasu. Ostatecznie, udało się tego dokonać w ubiegłym roku przez chińsko-austriacki zespół naukowców i inżynierów. Wyniki przeprowadzonej na dystansie 7600 km, pomiędzy stacjami w Chinach i Austrii, kwantowej dystrybucji klucza opublikowano w styczniu bieżącego roku na łamach Physical Review Letters [arXiv:1801.04418]. Do zrealizowania kwantowej transmisji wykorzystano satelitę Micius, stanowiącą jednostkę zaufaną dystrybuującą klucz prywatny w protokole BB84 (Bennett-Brassard 1984).  Szczegóły tego eksperymentu omawiam w artykule Kwantowa łączność satelitarna

Sukces chińskiego projektu dowodzi możliwości globalnego wykorzystania kwantowych protokołów kryptograficznych.  Otwiera on również drogę do dalszego rozwoju tej technologii, zarówno do celów militarnych jak i komercyjnych. Jedną z niewątpliwie najbardziej fascynujących możliwości jest stworzenie tak zwanego kwantowego internetu

Kwantowy internet zapewni bezpieczeństwo pracy systemów finansowych. W szczególności, umożliwi rozszerzenie technologii  Blockchain do przypadku kwantowego (zabezpieczanego przez KDK). Propozycja takiej modyfikacji technologii Blockchain została niedawno opisana w artykule Quantum-secured blockchain. Internet kwantowy umożliwi również wdrożenie pochodnych do dyskutowanych już na początku lat osiemdziesiątych koncepcji kwantowego pieniądza.  W szczególności, takich jak propozycja Weisnera, w której pieniądz jest pewnym stanem kwantowym (np. sekwencją qubitów). Niepodrabialność kwantowego banknotu wynika wprost z zakazu klonowania (nieznanego) stanu kwantowego. Warto zaznaczyć, że realizacja kwantowego pieniądza opartego o propozycję Weisnera została doświadczalnie zademonstrowana w 2016-tym roku przez polsko-czeski zespół fizyków kwantowych i opisana w artykule Experimental quantum forgery of quantum optical moneyopublikowanym w Nature.  Po więcej informacji na temat kwantowych pieniędzy zachęcam sięgnąć do artykułu Quantum Money.

Kwantowy banknot Weisnera zawierający nieznany użytkownikowi stan kwantowy (np. sekwencja qubitów) oraz numer seryjny. Weryfikacja banknotu (zgodność stanu kwantowego z nadanym numerem seryjnym) następuje poprzez jego przesłanie do  instytucji emitującej (mennicy). Źródło

Kwantowo zabezpieczone kryptowaluty czy też kwantowe pieniądze będą mogły, dzięki satelitarnemu internetowi kwantowemu, tworzyć globalny system walutowy. Dzięki wykorzystaniu i tak już stosowanej do tego celu przestrzeni kosmicznej, nie będzie stanowiło żadnego problemu by rozszerzyć obszar obejmowany kwantową siecią poza powierzchnię Ziemi. Nie ma przecież lepszego medium do przesyłania stanów kwantowych niż próżnia.  

Ludzie przebywający w kosmosie, czy to na orbicie okołoziemskiej czy też w planowanych stacjach na Księżycu oraz na Marsie, będą mogli dokonywać płatności korzystając z kwantowo zabezpieczonych kryptowalut. Będą oni mogli korzystać również z pozafinansowych zastosowań kwantowej wersji technologii Blockchain, np. w telemedycynie. 

Od strony możliwości technicznych, takie wizje stają się dzisiaj jak najbardziej wykonalne. Idąc dalej, naturalnym wydaje się wykorzystanie w przyszłości przestrzeni kosmicznej jako miejsca do przechowywania i przetwarzania informacji kwantowej. Stany kwantowe, będące nośnikiem informacji kwantowej ulegają, poprzez oddziaływanie ze środowiskiem, dekoherencji która stanowi jedną z największych przeszkód w rozwoju technologii kwantowych. Warunki wysokiej próżni i niskich temperatur, redukujące proces dekoherencji, powszechnie występują w przestrzeni kosmicznej.  Z tego powodu, możliwe jest więc, że przyszłe centra przetwarzania i magazynowania informacji kwantowej, np. skarbce kwantowych pieniędzy, będą ulokowane nie na Ziemi lecz ukryte zostaną w takich miejscach jak jaskinie lawowe na Księżycu.   

© Jakub Mielczarek

Rock et Science

Fundamentem każdej odpowiednio zaawansowanej technologii są nauki podstawowe. Niestety jednak, umiejętność posługiwania się nowymi zdobyczami techniki powszechnie nie idzie w parze ze zrozumieniem zasad ich funkcjonowania. I nie chodzi mi tu o szczegóły techniczne danego urządzenia, znajomość tych jest przeciętnemu użytkownikowi zbyteczna, lecz o ideę, na której dane rozwiązanie się opiera. A to uważam jest istotne, chociażby po to, by we współczesnym technologicznym świecie nie czuć się zdezorientowanym i móc w pełni czerpać z jego dobrodziejstw. Dla przykładu, tak prosta rzecz jak żarówka. Przez lata, intuicyjne rozumienie jej działania nie stanowiło dla nikogo większego problemu. Jednakże dzisiaj, “żarówka”  to już najczęściej nie lampa żarowa lecz lampa LED.  Bez wątpienia, odsetek osób rozumiejących zasadę emisji światła z lampy LED (rekombinacja promienista par elektron-dziura w półprzewodnikowym złączu p-n) jest dużo niższy niż to miało miejsce w przypadku standardowych lamp żarowych (promieniowanie termiczne rozgrzanej przez przepływ prądu skrętki).

To właśnie chęć przyczynienia się do zmiany tego stanu rzeczy była jednym z zamysłów które skłoniły mnie do podjęcia się prowadzenia tego bloga. Wyszedłem z założenia, iż sytuację tę można niejako obrócić na korzyść nauk podstawowych. Bo przecież, chęć (czy też potrzeba) zrozumienia otaczających nas technologii stanowi doskonały punkt wyjścia do głębszej refleksji nad zasadami stojącymi za ich funkcjonowaniem. W ten sposób, możemy dzisiaj stosunkowo łatwo dotrzeć do fundamentalnych koncepcji naukowych oraz praw natury, których przyswojenie, bez technologicznego kontekstu byłoby znacznie trudniejsze i dla wielu z nas mniej ciekawe.  W części z moich kolejnych wpisów będę starał się podążać tą ścieżką, biorąc “na warsztat”  nowoczesne technologie i odsłaniając ich naukowy rdzeń.

Jednymi z tych technologii które powszechnie uważane są szczególnie trudne, są technologie rakietowe. Inżynierię rakietową (ang. rocket science) przyjęło się wręcz traktować jako synonim czegoś niezwykle skomplikowanego. Wbrew tej opinii, podstawy fizyczne działania rakiet są stosunkowo proste.

Ponieważ żyjemy w czasach niezwykłego ożywienia w obszarze eksploracji kosmosu (tzw. NewSpace) a media zalewają nas doniesieniami o startach nowych rakiet, eksploracji Marsa i nadchodzącej erze turystyki kosmicznej, podstawy rocket science najzwyczajniej warto znać. Wychodząc naprzeciw tej potrzebie, poniżej, postaram się podsumować najistotniejsze aspekty fizyczne działania rakiet. Swoją uwagę skoncentruję tutaj na najpopularniejszym typie rakiet kosmicznych, wykorzystującym chemiczne silniki rakietowe.

W największym uproszczeniu, rakieta porusza dzięki wyrzucanym z silnika rakietowego gazom spalinowym. Działa tu efekt odrzutu, będący konsekwencją zasady zachowania pędu. Rakieta zyskuje pęd równy co do wartości i kierunku, lecz o przeciwnym zwrocie do pędu wyrzucanych spalin. Im większa prędkość wyrzucanego gazu, tym też większy jest jego pęd. Do osiągnięcia odpowiedniej prędkości rakiety, ważne jest by gazy spalinowe wyrzucane były z rakiety odpowiednio szybko, a to (w chemicznym silniku rakietowym) osiągane jest przez kontrolowany proces spalania mieszanki paliwowej w komorze spalania. Najpopularniej wykorzystywanym paliwem w przypadku rakiet na paliwo ciekłe są obecnie nafta, ciekły wodór oraz ciekły metan (fazy ciekłe mają dużo większą gęstość energii). Jako utleniacza (który jest niezbędny w celu osiągnięcia odpowiedniego tempa spalania) wykorzystywany jest natomiast skroplony tlen. Zachodząca w komorze spalania reakcja generuje ogromną temperaturę i ciśnienie. Przewężenie (ang. throat), pomiędzy komorą spalania a dyszą wylotową (ang. nozzle) to natomiast (zgodnie z równaniem Bernoulliego) miejsce w którym spada ciśnienie gazów, jego prędkość zaś szybko wzrasta (w kierunku dyszy), osiągając wartości supersoniczne. Wynika to z różnicy ciśnień pomiędzy komorą spalania a dyszą. Opisaną tu sytuację obrazuje poniższy schemat:


Przejdźmy teraz do podstawowych rozważań ilościowych. Będziemy musieli w tym celu posłużyć się elementami rachunku różniczkowego i całkowego. Czytelnika niezaznajomionego z tym działem matematyki zachęcam do szybkiego przyswojenia niezbędnej wiedzy w oparciu o Kurs Analizy Matematycznej na Khan Academy.

Oznaczmy przez M masę rakiety a przez m masę wyrzucanych produktów spalania. Tak, że rozważając infinitezymalne zmiany mas możemy zapisać dM = - dm. Przez v oznaczmy natomiast prędkość rakiety (dla uproszczenia rozważamy ruch w jednym kierunku). Dla uproszczenia przyjmijmy ponadto, że czynnik roboczy wyrzucany jest z silnika rakiety ze stałą, względem rakiety, prędkością u. Przy tym założeniu, postarajmy się teraz wyznaczyć zmianę prędkości rakiety w rezultacie wyrzucenia produktów spalania o masie dm.

W tym celu, rozważmy sytuację w której w chwili t_1 znajdujemy się w układzie spoczynkowym rakiety, w którym jej prędkość (v) jaki i pęd (p = Mv) są równe zeru. W infinitezymalnym przedziale czasu dt (czyli do chwili t_2=t_1+dt) nastąpił wyrzut masy dm, co spowodowało obniżenie masy rakiety do wartości M-dm oraz wzrost jest prędkości od zera do dv. Wyrzucane produkty spalania zyskują natomiast pęd u dm. W konsekwencji, zmianę pędu dp całego układu (rakieta oraz wyrzucane produkty spalania) możemy zapisać jako przyrost pędu rakiety pomniejszony o pęd wyrzucanych gazów:


Pomijając wyraz wyższego rzędu dm dv  (dm jest infinitezymalnie małe, można je więc zaniedbać względem skończonego M), otrzymujemy poszukiwane wyrażenie:

dp=Mdv-udm.   (1)

Druga zasada dynamiki Newtona mówi nam, że zmiana pędu w czasie równa jest sile:

\frac{dp}{dt}=F.   (2)

W przypadku braku działania na układ sił zewnętrznych (F=0) nie następuje zmiana jego pędu (dp=0). W sytuacji takiej spełniona jest zasada zachowania pędu którą, w rozważanym przypadku, możemy wyrazić poprzez równanie:

Mdv=udm,  (3)

będące bezpośrednią konsekwencję równania (1). Przypadek z niezerową siłą (na przykład działającą na rakietę i gazy wylotowe siłą grawitacji lub/i siłą oporu aerodynamicznego) pozostawiamy Czytelnikowi do samodzielnej analizy. My zaś przejdźmy do prześledzenia konsekwencji równania (3):

Równanie Ciołkowskiego. Wykorzystując wyprowadzoną z zasady zachowania pędu zależność (3), czyli M  dv = u dm, oraz relację dm = -dM otrzymujemy:

dv = - u \frac{dM}{M}.

Całkując to wyrażenie w przedziale od masy początkowej M_1 do masy końcowej rakiety M_2 uzyskujemy wyrażenie na całkowitą zmianę prędkości rakiety:

\Delta v = v_2-v_1 = \int_{v_1}^{v_2}dv= - u \int_{M_1}^{M_2} \frac{dM}{M} =  u  \ln \left(\frac{M_1}{M_2}\right).   (4)

Jest to sławny wzór Ciołkowskiego, opisujący zmianę prędkości rakiety \Delta v spowodowaną wyrzutem masy ze stałą prędkością u, od wartości M_1 do M_2. Jako przykład zastosowania, wykorzystajmy równanie (4) do oszacowania ilości paliwa jakie należy spalić w rakiecie żeby osiągnąć pierwszą prędkość kosmiczną, czyli prędkość jaką musi zyskać rakieta aby mogła orbitować na niskiej orbicie okołoziemskiej. Prędkość ta wynosi v_I = \sqrt{\frac{G M_z}{R_z}} \approx  7,9 \frac{km}{s} \approx 7900 \frac{m}{s}, gdzie G to stała grawitacji, M_z to masa Ziemi a R_z to promień Ziemi. Typowe prędkości wyrzutu produktów spalania w rakietach na paliwo ciekłe to u \sim 4000 \frac{m}{s}. Na podstawie równania (4), zmiana prędkości rakiety od v=0 do v=v_I wiąże się (w rozważanym przypadku rakiety jednoczłonowej) z następującą zmianą masy rakiety:

\frac{M_1}{M_2} = e^{v_I/u} \approx 7.2.

Oznacza to, że aby rakieta mogła wejść na niską orbitę okołoziemską, paliwo oraz utleniacz muszą stanowić przynajmniej

\frac{M_1-M_2}{M_1} \times 100 \% \approx 86 \%

jej początkowej masy!

Przejdźmy teraz do zdefiniowania dwóch podstawowych parametrów silnika rakietowego, mianowicie siły ciągu praz impulsu właściwego.  W tym celu, podstawmy do równania Newtona (2) wyrażenie na zmianę pędu (1). Otrzymamy wtedy:


lub równoważnie

M\frac{dv}{dt}=F+u\frac{dm}{dt},   (5)

czyli tak zwane równanie Mieszczerskiego. Lewa strona równania (5) to szkolne wyrażenie: masa  M pomnożona przez przyśpieszenie (ponieważ a=\frac{dv}{dt}), pojawiające się w równaniu Newtona dla punktu materialnego o stałej masie. W rozważanym przypadku, z uwagi na zmianę masy rakiety w czasie, otrzymujemy efektywnie dodatkowy przyczynek do siły działającej na rakietę równy u\frac{dm}{dt}. Jest to tak zwana  siła ciągu rakiety:

F_c = u \frac{dm}{dt}.   (6)

W rzeczywistych, chemicznych silnikach rakietowych istnieje jeszcze jeden  przyczynek do siły ciągu. Wynika on z ciśnienia wywieranego przez wyrzucany z silnika gaz na wewnętrzną stronę dyszy wylotowej (patrz rysunek powyżej). Oznaczmy powierzchnię maksymalnego przekroju poprzecznego dyszy silnika przez A. Od strony wewnętrznej, na dyszę działa siła  F_1=Ap_w, gdzie p_w jest ciśnieniem wywieranym na dyszę przez gazy wylotowe. Po drugiej stronie dyszy panuje ciśnienie zewnętrzne p_0, które wywiera na dyszę siłę  F_2=Ap_0. Z uwagi na różnicę ciśnień  p_wp_0, na dyszę (i w konsekwencji na rakietę) działa wypadkowa siła

F_p =F_1-F_2=A(p_w-p_0).   (7)

Uwzględniając ten wkład w równaniu (5), możemy zapisać całkowitą siłę ciągu jako sumę wyrażeń (6) oraz (7):

F_c = u \frac{dm}{dt} + A(p_w-p_0).  (8)

W oparciu o siłę ciągu możemy natomiast zdefiniować wielkość zwaną impulsem właściwym, opisującą zmianę pędu rakiety względem utraconej masy:

I_{sp} := \frac{F_c dt}{g  dm}= \frac{F_c}{g  \dot{m}},  (9)

gdzie g\approx 9,81 \frac{m}{s^2} jest przyśpieszeniem grawitacyjnym na powierzchni Ziemi. Natomiast, \dot{m} := \frac{dm}{dt} to strumień masy gazów wylotowych. Impuls właściwy wyrażany jest w sekundach. W celu lepszego zrozumienia definicji (9), warto rozważyć przypadek siły ciągu dany przez równanie (6), zaniedbujące przyczynek od ciśnienia wywieranego na dyszę przez gazy wylotowe. Podstawiając wyrażenie (6) do równania (9), otrzymujemy:

I_{sp} =  \frac{F_c}{g  \dot{m}} =\frac{u \dot{m}}{g  \dot{m}} = \frac{u}{g}.  (10)

W tym wyidealizowanym przypadku, impuls właściwy jest więc innym sposobem wyrażenia prędkości wyrzucanego z silnika rakietowego czynnika roboczego (spalin).

Podstawowe parametry silnika rakietowego Raptor firmy SpaceX. Źródło

Jako przykład zastosowania wprowadzonych powyżej wielkości, rozważmy przygotowywany przez firmę SpaceX silnik Raptor. Silnik ten znajdzie zastosowanie w rakiecie Big Falcon Rocket (BFR),  która zostanie wykorzystana do lotów na Księżyc oraz na Marsa.  Silnik Raptor wykorzystuje jako paliwo ciekły metan, który wraz z ciekłym tlenem (pełniącym rolę utleniacza) tworzy tak zwany Methalox, o który pisałem w artykule Kosmiczna stacja paliw.

W przypadku silnika Raptor, planowany impuls właściwy na powierzchni Ziemi ma wynosić I_{sp} \approx 334 s, zaś siła ciągu tego silnika ma sięgać F_c \approx 3000 kN = 3 MN. Na tej podstawie, możemy oszacować masę wyrzucanego, w każdej sekundzie, czynnika roboczego (tzw. strumień masy). Posługując się równaniem (9), otrzymujemy:

\dot{m} = \frac{F_c}{I_{sp} g} \approx  900 \frac{kg}{s}.

A więc, w każdej sekundzie pracy, z jednego  silnika wyrzucana jest prawie tona spalin, generujących ciąg rakiety. Pierwszy człon rakiety BFR ma mieć aż 31 takie silniki (we wcześniejszych planach liczba ta wynosiła 42). Mieszczące się, w pierwszym członie rakiety BFR około 3000 ton mieszanki paliwowej, pozwolą więc na pracę silników przez około dwie minuty pracy,  przy pełnym ciągu.  Ponadto, wykorzystując równanie (10) możemy oszacować prędkość gazów wylotowych

u \approx I_{sp}g \approx 3300 \frac{m}{s},

czyli około 10 M. Warto podkreślić, że prędkość ta stanowi jedynie około 10^{-5} prędkości światła (c \approx 300\ 000\ 000 \frac{m}{s}). Dużo większe prędkości wyrzucanej materii, a tym samym większe impulsy właściwe osiągane są w przypadku silników jonowych lub plazmowych. W ich przypadku, impuls właściwy może osiągać wartość kilku tysięcy sekund. Idąc dalej, coraz śmielej brane są obecnie pod uwagę silniki w których czynnikiem roboczym jest promieniowanie powstałe w wyniku anihilacji materii z antymaterią. Czyli tak zwane silniki na antymaterię, w których źródłem zmiany pędu rakiety są fotony poruszające się z prędkością światła (i posiadające pęd p = \hslash \omega). Taki czynnik roboczy wymaga jednakże uwzględnienia efektów relatywistycznych, przewidywanych przez szczególną teorią względności Einsteina. W konsekwencji, w przypadku takim, wyprowadzone powyżej równanie Ciołkowskiego, należy zmodyfikować do tak zwanego równania rakiety relatywistycznej.  To jednak nie koniec podróży w jaką może nas zabrać studiowanie fizyki silników rakietowych. Rozważania egzotycznych napędów rakietowych, takich jak chociażby napęd Alcubierre’a, są fantastyczną okazją do zagłębienia się we współczesną fizykę teoretyczną, czyli fizykę świata przyszłości.

© Jakub Mielczarek

Dualizm grawitacyjno-kwantowy

Nasza percepcja rzeczywistości nie zawsze jest jednoznaczna. Wyraźnym tego przykładem są złudzenia optyczne. Przyglądając się obrazom niejednoznacznym mózg przełącza się pomiędzy dwiema (lub więcej) równoważnymi interpretacjami postrzeganego wycinka rzeczywistości. W przypadku wazy Rubina, umysł tworzy dwa równoprawne modele rzeczywistości: obraz wazy i obraz twarzy. 

Waza Rubina – przykład obrazu niejednoznacznego. Źródło

W fizyce teoretycznej, opis rzeczywistości dostarczany jest przez teorie i modele matematyczne.  Zdarza się, że analogicznie do przywołanego przykładu iluzji optycznej, teoretyczny opis rzeczywistości nie jest jednoznaczny. Znanym przykładem takiej dwuznaczności jest dualizm korpuskularno-falowy, opisany przez Louisa de Broglie’a w 1924-tym roku.  Dualizm ten nakazuje traktować materię (np. elektrony) równocześnie jako cząstki i fale. Oba obrazy są  prawdziwe. Ujawniają się jednakże w zależności od tego jaki eksperyment przeprowadzamy. Dla przykładu, rozpraszając elektron na siatce dyfrakcyjnej, zachowa się on jak fala. Jednakże, pozostawiając następnie punktowy ślad na ekranie, odzwierciedlona zostanie jego korpuskularna natura. Mechanika kwantowa pozwala nam opisać to zachowanie w sposób ilościowy.

Falowa natura materii związana jest z istnieniem tak zwanej funkcji falowej. Dla danego układu fizycznego (np. dyskutowanego powyżej elektronu), postać funkcji falowej możemy określić rozwiązując równanie Schrödingera. Jest to podstawowe równanie mechaniki kwantowej. Kluczową własnością równania  Schrödingera jest jego liniowość. Oznacza to, że jeśli znajdziemy dwa rozwiązania równania Schrödingera to ich tzw. kwantowa superpozycja również stanowić będzie dobre rozwiązanie.  W szczególności, w świecie kwantowym, układy fizyczne mogą występować jako superpozycje rozwiązań o różnych energiach. To co jednak odróżnia mechanikę kwantową od innych teorii opisywanych przez równania liniowe (np. elektrodynamika), to fakt, iż superpozycje kwantowe rozwiązań nie są obserwowalne. Mianowicie, pomiar (w tym przypadku energii) powoduje redukcję funkcji falowej układu do jednego ze stanów kwantowych o dobrze określonej energii.

W przypadku układów wielocząstkowych, superpozycja stanów kwantowych prowadzi do występowania tak zwanego splątania kwantowego. Własność ta przejawia się jako szczególny typ korelacji pomiędzy podukładami, nie dający się wytłumaczyć bez odwołania do mechaniki kwantowej. Rozwijany współcześnie sposób opisu struktury splątania kwantowego pomiędzy cząsteczkami opiera się na tak zwanych sieciach tensorowych (ang. tensor networks). Sieć tensorowa jest grafem który, można powiedzieć, tworzy przestrzeń splątania kwantowego.  Szczególnym przypadkiem, ważnym z punktu widzenia dalszej dyskusji, jest tak zwana sieć tensorowa MERA (Multi-scale Entanglement Renormalization Ansatz).

Zupełnie przypadkowo, w 2009-tym roku, zajmujący się kwantowymi układami wielu ciał Brian Swingle z MIT zauważył, że struktura geometryczna sieci tensorowych typu MERA łudząco przypomina przestrzeń anty de Sittera (AdS). Swoje wyniki opisał w pracy Entanglement Renormalization and Holography, opublikowanej w roku 2012-tym. Dalsze badania pokazały, że podobieństwo to jest głębsze i odzwierciedla się, w szczególności, w zgodności przewidywań dotyczących entropii splątania kwantowego, czyli miary niewiedzy o splątaniu kwantowym pomiędzy dwoma podukładami (dysponując możliwością wykonywania pomiarów tylko na jednym z nich). Okazało się, że entropia splątania kwantowego dla układu kwantowego opisywanego przez sieć tensorową MERA jest zgodna z hipotezą Ryu-Takayanagi, wskazującą na związek pomiędzy entropią splątania kwantowego a wielkościami geometrycznymi.

Korespondencja AdS/CFT jako przykład dualizmu pomiędzy układem kwantowym (boundary) a geometrią splątania kwantowego (bulk), opisywaną przez sieć tensorową. Źródło

Przestrzeń AdS odgrywa szczególna rolę we wprowadzonej, w 1997 roku, przez Juana Maldacenę, korespondencji AdS/CFT. Korespondencja ta mówi, że kwantowe korelacje szczególnego typu systemu kwantowego jakim jest kwantowa konforemna teoria pola (ang. Conformal Field Theory (CFT)) zdefiniowanej na tak zwanym brzegu (ang. boundary) opisywane są przez geometrię przestrzeni AdS, wewnątrz tego obszaru (tzw. bulk). Opisy CFT (boundary) i AdS (bulk) są sobie równoważne i dostarczają przykładu dualizmu holograficznego. Oznacza to, że układ we wnętrzu (bulk), o wymiarze d, opisywany jest przez fizykę na brzegu (który ma wymiar d-1).  Wyżej wymiarowe  wnętrze można więc obrazowo uznać za hologram niżej wymiarowego świata na brzegu.   

Przez lata od jej odkrycia, fizycy teoretycy stosowali korespondencję AdS/CFT, nie będąc pewnymi dlaczego w ogóle ma ona szansę działać. Wynik Swingle’a dostarczył nowego zrozumienia fizyki stojącej za odkryciem Maldaceny. Mianowicie, konforemna teoria pola (CFT) jest przykładem układu kwantowego, którego geometria splątania kwantowego opisywana jest właśnie przez przestrzeń AdS. Przestrzeń AdS, w ramach korespondencji AdS/CFT, można uznać za ciągłą granicę sieci tensorowej opisującej stan kwantowy rozważanego układu.  

W międzyczasie, Leonard Susskind z Uniwersytetu Stanforda zaproponował tzw. hipotezę ER=EPR. Relacja ta utożsamia tak zwany tunel czasoprzestrzenny Einsteina-Rosena (ER) z układem maksymalnie splątanych kwantowo par cząstek, czyli par  Einsteina-Podolskyego-Rosena (EPR). Jak pokazano, wzrost splątania kwantowego układu par EPR pokrywa się z ewolucją objętości tunelu Einsteina-Rosena. Dostarczyło to kolejnego przykładu na to, że struktura splątania kwantowego może być opisywana przez rozwiązania Ogólnej Teorii Względności (OTW).

Powyżej opisane dwa przykłady, jak i szereg dalszej ewidencji, skłaniają fizyków teoretyków do przypuszczenia, że mamy do czynienia z bardziej ogólną własnością. Mianowicie, możemy postawić hipotezę, że dla każdego układu kwantowego, struktura splątania kwantowego opisywana jest przez rozwiązania Ogólnej Teorii Względności. Ponieważ superpozycja i splątania kwantowe (opisywane, jak przypuszczamy, przez rozwiązania OTW) stanowią esencję mechaniki kwantowej, możemy spróbować te dwie fundamentalne teorie do siebie przyrównać. W tym celu, Leonard Susskind posłużył się, w swoim ubiegłorocznym artykule, określeniem GR=QM (General Relativity = Quantum Mechanics). Ponieważ temat jest wciąż bardzo świeży, nie zdążył powstać jeszcze polski odpowiednik nazwy dla tej niezwykłej (wciąż jednak jeszcze hipotetycznej) dwuznaczności rzeczywistości. Z przyczyn praktycznych, pozwolę więc posłużyć się dalej roboczym terminem: dualizm grawitacyjno-kwantowy.

Dualizm  grawitacyjno-kwantowy jest radykalnie nowym spojrzeniem na relację pomiędzy mechaniką kwantową a teorią grawitacji. Teorie te, od blisko już stu lat, z różnym skutkiem,  próbuje się połączyć w ramach tak zwanej kwantowej teorii grawitacji. Nowo kształtujący się dualizm stawia próbę powiązania tych dwóch teorii w zupełnie nowym świetle. Jakkolwiek śmiało by to nie brzmiało, OTW i mechanika kwantowa wydają się opisywać tą samą fizyką. Stwierdzenie to poparte jest konkretnymi przykładami, przytoczonymi powyżej.  

Piękne jest to, że idea dualizmu grawitacyjno-kwantowego jest tak łatwa do wyartykułowania: Splątanie kwantowe, stanowiące istotę mechaniki kwantowej, może być opisywane przez rozmaitości różniczkowe, będące rozwiązaniami równań OTW. Przy czym, rozważany układ kwantowy  zdefiniowany jest na brzegu danej przestrzeni (rozmaitości).  Ponadto, jak wskazują najnowsze publikacje, równania Einsteina prawdopodobnie można wyprowadzić wprost z  własności splątania kwantowego!

Niewykluczone jest więc, że dowolny (jednakże odpowiednio duży) układ kwantowy możemy związać z przestrzenią splątania (bulkiem), której geometria opisywana jest przez rozwiązania równań OTW. Czy geometria ta jest fizyczna? Ponieważ możliwe jest, dokonując pomiarów kwantowego układu na brzegu, określenie struktury geometrii splatania, możemy na to pytanie odpowiedzieć twierdząco: przestrzeń splątania kwantowego układu jest tak samo fizyczna jak sam układ.   Czy więc to co nazywamy (czaso)przestrzenią jest niczym innym jak strukturą splątania pewnego układu kwantowego? Dualizm grawitacyjno-kwantowy daje wsparcie dla takiej możliwości.

Rzeczywistość zdaje się odsłaniać przed nami nowy obraz niejednoznaczny. Możemy mówić o kwantowych cząstkach nie odwołując się do (klasycznej) geometrii splątania kwantowego. Z drugiej strony, wolno nam rozpatrywać geometrię splątania kwantowego (opisywaną przez OTW) bez wprowadzania pojęcia cząstek na brzegu. W ramach dualizmu grawitacyjno-kwantowego, te dwa sposoby postrzegania rzeczywistości są równoważne.

© Jakub Mielczarek

Kwantowa łączność satelitarna

W 2012-tym roku, dzięki Fundacji na rzecz Nauki Polskiej, miałem wielką przyjemność uczestniczyć w Spotkaniu Laureatów Nagrody Nobla w dziedzinie fizyki w Lindau.  Jednym z mecenasów spotkania w Lindau był Singapur, reprezentowany przez ówczesnego prezydenta (fizyka i matematyka) Tony’ego Tana. Singapur to malutkie państwo-miasto nie posiadające własnych zasobów naturalnych. Charakteryzujące się jednak bardzo dynamiczną i nowoczesną gospodarką opartą na usługach i rozwoju zaawansowanych technologii. Kluczowym elementem polityki Singapuru jest kierowanie dużych nakładów finansowych na badania naukowe. Jako przykład osiągnięć w dziedzinie nauki, które mogą mieć praktyczne zastosowanie zaprezentowano wyniki Centrum Technologii Kwantowych na Uniwersytecie w Singapurze. Dyrektor tego instytutu, prof. Artur Ekert, przedstawił pomysł stworzenia satelitarnego systemu przesyłania informacji wykorzystującego kryptografię kwantową. Był to wtedy, z technicznego punktu widzenia, niezwykle ambitny projekt, wręcz futurystyczny. Jednak, jak zaprezentowano podczas spotkania, udało się już zbudować pierwsze prototypowe elementy takiego systemu. Projekt  ten wybrano do prezentacji w Linadu nie bez przyczyny. To w realizację takich pomysłów każdy z uczestników spotkania bez wahania chciałby się włączyć. A Singapur właśnie na takich ludzi liczył by zasilili zaplecze naukowe swojej nowoczesnej gospodarki.

W 2017-tym roku, pięć lat po mojej wizycie w Lindau,  marzenie o kwantowej łączności satelitarnej ziściło się. Stało się to jednak nie za sprawą Singapuru lecz Chin, które mogły pozwolić sobie na znacznie większe zaangażowanie finansowe w realizację tego celu. Sam koszt budowy, wykorzystanej do  przeprowadzenia kwantowej komunikacji, satelity Micius pochłonął kwotę około 100 milionów dolarów. Satelita ten został wyposażony w specjalny transmiter umożliwiający przeprowadzenie tak zwanej Kwantowej Dystrybucji Klucza (KDK) (ang. Quantum Key Distribution (QKD)).  KDK jest podstawowym narzędziem w kryptografii kwantowej, zapewniającym bezwarunkowe zabezpieczenie  przekazu informacji. Odporność na ataki wynika tutaj wprost z zasad mechaniki kwantowej. 

Wytłumaczę trochę dokładniej jak to działa. Mianowicie, podstawowym problemem związanym z bezpieczną wymianą informacji jest przekazanie klucza który służy do zaszyfrowania i odszyfrowania wiadomości (w ramach kryptografii symetrycznej ten sam klucz jest wykorzystywany zarówno do zaszyfrowania jak i odszyfrowania wiadomości). Idealną sytuacją jest gdy może nastąpić bezpośrednia wymiana takiego klucza. Jest to jednak bardzo niepraktyczne rozwiązanie, stosowane aczkolwiek do zabezpieczania najwrażliwszego typu informacji. Powszechnie wykorzystuje się natomiast tak zwaną kryptografię asymetryczną, opartą na kluczu publicznym oraz prywatnym.  Metodę tę stosujemy (nieświadomie) każdego dnia korzystając z kart płatniczych czy też dokonując zakupów w internecie. Jednakże, dostępne w przyszłości moce obliczeniowe oraz algorytmy kwantowe bez trudu poradzą sobie z pokonaniem dzisiejszych zabezpieczeń opartych o klucz publiczny. Rodzi to uzasadnione obawy, że na przykład zaszyfrowane cenne dane będą przechowywane i rozszyfrowane w przyszłości.

Kwantowa dystrybucja klucza dostarcza metody (teoretycznie) całkowicie bezpiecznego przekazania klucza dla systemów kryptografii symetrycznej. W metodzie tej, klucz w postaci ciągu bitów, kodowany jest za pomocą stanów kwantowych. W praktyce, wykorzystywane są do tego celu pojedyncze kwanty światła, czyli fotony. Każdy bit odpowiada pewnej ustalonej superpozycji dwóch możliwych polaryzacji światła. Podstawową  własnością mechaniki kwantowej jest to, że dokonanie pomiaru redukuje stan kwantowy do jednego ze stanów bazowych. W rozważanym przypadku, stany bazowe odpowiadają dwóm polaryzacjom fotonu. Każda próba przechwycenia przesyłanej w ten sposób informacji (wiążąca się z wykonaniem pomiaru na stanie kwantowym) może być więc bez trudu wykryta. Służą do tego celu odpowiednie protokoły kwantowej dystrybucji klucza. Pierwszym, wynalezionym jeszcze w 1984-tym roku protokołem tego typu jest  BB84 (Bennett-Brassard 1984). Satelita Micius realizuje KDK właśnie w oparciu o protokół BB84, w konfiguracji downlink. Oznacza to, że satelita traktowana jest jako tak zwany zaufany dystrybutor klucza, umożliwiający stacjom naziemnym zaszyfrowanie i odszyfrowanie wiadomości. Pojedyncze fotony, niezbędne do realizacji KDK,  przygotowywane są przez złożony układ optyczny umieszczony w satelicie.  Wartym podkreślenia jest to, że sama zaszyfrowana wiadomość nie jest transmitowana przez kanał kwantowy lecz poprzez łącze radiowe. Przesyłanie informacji w postaci kwantowej jest nieefektywne i służy wyłącznie do przekazania klucza.

Szczegóły przeprowadzonych, pomiędzy majem a lipcem 2017-tego roku, udanych międzykontynentalnych kwantowych dystrybucji klucza zaprezentowano w artykule opublikowanym w styczniu bieżącego roku na łamach Physical Review Letters [arXiv:1801.04418]. W wykonanych eksperymentach, satelitę Micius orbitującą Ziemię na wysokości około 500 km wykorzystano jako zaufanego dystrybutora klucza do stacji naziemnych, zlokalizowanych w Xinglong w Chinach i  w Graz w Austrii.

Ilustracja stacji naziemnych między którymi nastąpiła zaszyfrowana łączność, wykorzystująca kwantową dystrybucję klucza zrealizowaną przez satelitę MiciusŹródło

Zrealizowano dwa testy demonstrujące poprawną pracę systemu. Test pierwszy polegał na przesłaniu zaszyfrowanych, za pomocą szyfru z kluczem jednorazowym (ang. one-time-pad), niewielkich obrazów o rozmiarach kilku kB każdy. Z Chin do Austrii przesłano obrazek przedstawiający chińskiego filozofa Mo Di (od Niego pochodzi nazwa satelity Micius), natomiast z Austrii do Chin przesłano zdjęcie jednego z ojców mechaniki kwantowej Erwina Schrödingera. Klucz potrzebny do zaszyfrowania oraz odszyfrowania wiadomości udostępniła, poprzez kwantową dystrybucję klucza, satelita Micius.  Wykorzystanie  szyfru z kluczem jednorazowym, który jest najsilniejszym sposobem szyfrowania, wymaga użycia klucza o tej samej ilości bitów co wiadomość. Jest więc on z jednej strony bardzo niepraktyczny ale w zamian gwarantuje (przy poprawnym użyciu) stuprocentowe bezpieczeństwo przesyłanej informacji. Dlatego też jest on stosowany w przypadku wiadomości o najwyższej klauzuli tajności. 

Przesłanie zaszyfrowanych zdjęć przebiegło w następujący sposób: Satelita Micius, za pomocą protokołu KDK, udostępnił klucz zarówno nadawcy jak i odbiorcy wiadomości. Klucz musiał mieć w tym przypadku rozmiar przesyłanej wiadomości, czyli kilka kB.

Przekaz wiadomości w oparciu o szyfr z kluczem jednorazowym (one-time-pad) wykorzystującym operację XOR. Klucz został udostępniony nadawcy i odbiorcy za pomocą protokołu KDK. Źródło

Obraz w formacie JPG zapisano w postaci mapy bitowej (matryca zer i jedynek) tworząc w ten sposób wiadomość binarną. Następnie, pomiędzy bitami wiadomości a bitami klucza, nadawca wykonał operację alternatywy rozłącznej XOR (reprezentowanej przez symbol  \bigoplus, to dlaczego stosuję się tutaj operację XOR jest prosto wytłumaczone w niniejszym linku).  W ten sposób, powstał szyfrogram który następnie został wysłany przez satelitarne łącze radiowe do odbiorcy. Otrzymany przez odbiorcę szyfrogram w postaci ciągu bitów złożono, ponownie poprzez spójnik logiczny XOR, z kluczem. W ten sposób odszyfrowana została oryginalna wiadomość.

Test drugi polegał na przeprowadzeniu telekonferencji pomiędzy Chińską Akademią Nauk a jej austriackim odpowiednikiem, podczas której przesył informacji przez klasyczne łącze radiowe zaszyfrowany został z wykorzystaniem kluczy udostępnionych przez satelitę Micius. Zastosowanie szyfru z kluczem jednorazowym do transmisji wideo nie byłoby możliwe. Dlatego też wykorzystano metodę która wymaga mniejszych rozmiarów klucza. Posłużono się mianowicie symetrycznym szyfrem blokowym Advanced Encryption Standard (AES)-182, certyfikowanym przez National Security Agency do szyfrowania ściśle tajnych informacji.  Dla przykładu, w oparciu o AES, ale z kluczem o długości 256 bitów,  pracuje popularny  serwis Boxcryptor (wcześniej znany jako Cloudfogger). W celu zapewnienia odpowiedniego poziomu zabezpieczenia, w trakcie 75 minutowej telekonferencji, zmiana 128-bitowego klucza następowała co jedną sekundę.  Szyfrowanie transmisji wymagało więc łącznie przesłania około 70 kB danych poprzez kanał kwantowy. 

Dlaczego opisane powyżej wyniki są tak ważne? Przyczynę związaną z bezpieczeństwem przesyłu informacji zarysowałem już częściowo powyżej. Natomiast, wyjaśnienia wymaga kwestia wykorzystania do tego celu przestrzeni kosmicznej. Dlaczego nie przesłać fotonów przez światłowód, jak to ma miejsce w standardowych łączach internetowych? Otóż, istnieją istotne ograniczenia związane z realizacją  kwantowej dystrybucji klucza przez łącza światłowodowe. W przypadku klasycznej transmisji światłowodowej, tłumienie sygnału na dużych odległościach możemy kompensować przez stosowanie odpowiednich wzmacniaczy sygnału. Mamy tu jednak do czynienia z pakietami falowymi fotonów które zachowują się w sposób klasyczny. W przypadku KDK, klucz przekazywany jest za pomocą pojedynczych fotonów, które zachowują się w sposób kwantowy. Z uwagi na obowiązujący w mechanice kwantowej tak zwany zakaz klonowania kwantowego, nie jest możliwie, w przypadku pojedynczych kwantów światła, przeprowadzenie prostego wzmocnienia sygnału. Można natomiast zastosować tak zwane kwantowe powielacze (ang. quantum repeaters), opierające swoje działanie o pamięć kwantową oraz protokół teleportacji kwantowej.  Są to bardzo skomplikowane układy. Jednakże nawet ich zastosowanie pozwala obecnie na realizację KDK na odległościach maksymalnie około 300 km.  Wykorzystanie przestrzeni kosmicznej staje się w tej sytuacji idealnym rozwiązaniem. Mianowicie, dla fotonów podróżujących  przez atmosferę i próżnię zarówno osłabienie sygnału jak i jego dekoherencja są wielokrotnie słabsze niż w przypadku światłowodów.  Kosmos jest więc obecnie nie tyle możliwością do realizacji  dalekodystansowej kwantowej dystrybucji klucza ale wręcz koniecznością.

Dalszy kierunek rozwoju technologii satelitarnej KDK to utworzenie międzykontynentalnej sieci łączności kwantowej. Sieć taką przyjęło się określać mianem internetu kwantowego. Internet kwantowy, o którym napiszę kiedyś bardziej szczegółowo,  będzie pozwalał na bezpieczne przesyłanie informacji na dużych odległościach na lądzie, jak i następnie w powietrzu i na wodzie. System znajdzie zastosowanie wszędzie tam gdzie potrzebny jest najwyższy poziom ochrony przekazywanej informacji. Czyli wyjściowo będą to głównie obszary takie jak: finanse, obronność, handel czy medycyna.  Nie będzie również przeszkodą „przeciągnięcia” kwantowego internetu poza Ziemię. Kosmiczna próżnia jest wszak idealnym medium do przesyłania informacji kwantowej. 

Wróćmy jednak na koniec na Ziemię. Posiadanie technologii satelitarnej KDK pozwoli Chinom wypracować realną przewagę na gruncie militarnym. Przykładowo, z pomocą satelitarnej KDK możliwe będzie wysyłanie rozkazów do łodzi podwodnych czy też lotniskowca/ców stacjonujących na Oceanie Spokojnym, bez obawy o przechwycenie tajnych informacji przez systemy nasłuchu innych państw i ich pomyślną kryptoanalizę.  Posiadanie tej technologii, w perspektywie kliku/kilkunastu lat, może realnie ułatwić Chinom  realizację swoich strategicznych celów. A chociażby z przykładu Enigmy dobrze wiemy, że od kryptografii mogą zależeć losy Świata. 

© Jakub Mielczarek

Stany skupienia grawitacji

Ogólna Teoria Względności Einsteina przyzwyczaiła nas do myślenia o grawitacji w języku geometrycznej struktury jaką jest czterowymiarowa czasoprzestrzeń. Jednakże, coraz  większa liczba wyników badań nad kwantową naturą oddziaływań grawitacyjnych wskazuje na możliwość występowania różnych faz (stanów skupienia) pola grawitacyjnego. Czasoprzestrzenny stan skupienia jest jedną z kilku możliwości jakie obecnie znamy.

Czy ta różnorodność fazowa grawitacji powinna nas dziwić? Absolutnie nie. Występowanie faz jest jedną z podstawowych własności  układów złożonych (ang. complex systems). Połączenie dużej ilości stopni swobody (np. cząsteczek) oraz wprowadzenie pomiędzy nimi nieliniowego oddziaływania w sposób nieodłączny wiąże się z występowaniem jakościowo różnych sposobów wewnętrznej organizacji takiego układu, czyli faz. Ponadto, fazy te rozdzielone są przez ostre granice zwane przejściami fazowymi. Zachowanie to dotyczy nie tylko systemów dyskretnych ale również ciągłych układów fizycznych jakimi są pola  samooddziałujące (przykładem takiego pola jest pole grawitacyjne).

Z kwantowego punktu widzenia, pole grawitacyjne należy uznać za przykład układu złożonego czy też układu wielociałowego (ang. many-body system). „Atomy” przestrzeni lub czasoprzestrzeni, które wyłaniają się z kwantowych teorii grawitacji, mogą, poprzez

„Atomy” przestrzeni w Pętlowej Grawitacji Kwantowej. Źródło

wzajemne oddziaływanie, tworzyć makroskopowe konfiguracje o jakościowo różnych własnościach. W zależności od warunków w których znajdzie się pole grawitacyjne, może przyjąć ono jedną z kilku zidentyfikowanych dotychczas teoretycznie faz. Jest to zachowanie analogiczne do przypadku zbioru cząsteczek H_2O, który w zależności od temperatury otoczenia i zajmowanej objętości utworzy jeden z trzech stanów skupienia: ciekły, stały (lód) lub gazowy (para wodna).

Nic nie stoi na przeszkodzie by przeprowadzić stosowne eksperymenty i zaobserwować stany skupienia wody. Dla grawitacji,  z uwagi na niezwykle słabe sprzężenie pomiędzy materią a polem grawitacyjnym, taka możliwość obecnie nie istnieje. Wytworzenie stanów pola grawitacyjnego w których moglibyśmy spodziewać się wystąpienia nowej fazy wymagałoby ekstremalnych gęstości energii, prawdopodobnie możliwych do osiągnięcia jedynie w bardzo wczesnym Wszechświecie lub we wnętrzach czarnych dziur. Teoretyczna analiza struktury fazowej grawitacji jest również zadaniem niełatwym. Problem polega na tym, że zazwyczaj w badaniach nad kwantową grawitacją rozpatrujemy funkcję (np. hamiltonian) opisującą oddziaływanie pomiędzy pojedynczymi kwantami („atomami”) pola grawitacyjnego. Z analizy samej postaci tej funkcji praktycznie niemożliwe jest wyciągnięcie wniosków dotyczących struktury fazowej rozważanego układu. Wiąże się to z faktem, iż występowanie faz jest przykładem zjawiska emergentnego. Na tej samej zasadzie, znajomość potencjału oddziaływania pomiędzy dwiema cząsteczkami wody nie mówi nam jeszcze nic o stanach skupienia wody które wyłonią się w makroskopowych układach takich cząsteczek.

Jak więc możemy sobie z tym problemem poradzić? Istnieją dwie główne drogi: symulacje wielociałowe kwantowej grawitacji oraz teoria renormalizacji, której zastosowanie może również wymagać przeprowadzenia symulacji.  Przybliżę tutaj podejście pierwsze. Najbardziej zaawansowane badania tego typu prowadzi się obecnie w ramach tak zwanych Kauzalnych Dynamicznych Triangulacjami (ang. Causal Dynamical Triangulations – CDT).  Wyniki najnowszych badań w ramach CDT wskazują na występowanie trzech lub

Trzy fazy czterowymiarowej grawitacji w CDT. Źródło

czterech (w zależności od tego jaki  tzw. parametr porządku jest badany) faz grawitacji. Jedną z nich jest geometryczna faza C opisująca, na odpowiednio dużych skalach, czterowymiarowy Wszechświat, zgodny  z OTW.  Zaobserwowano również sub-fazę fazy C w której ujawniają się pewne nowe, niegeometryczne własności, jak również zidentyfikowano dwie dodatkowe fazy A i B. W fazie A, pole grawitacyjne przyjmuje formę charakteryzującą się fraktalną strukturą polimerową (tzw. branched polymer). Natomiast, faza B (tzw. crumpled phase) wyróżnia się dążącą do nieskończoności liczbą wymiarów, odzwierciedlającą wysoką ilość połączeń pomiędzy tak zwanymi sympleksami, z których zbudowana jest konfiguracja pola grawitacyjnego. W fazie tej, wszystkie „atomy” czasoprzestrzeni stają się swoimi sąsiadami. Jest to zachowanie zupełnie odmiennie do tego obserwowanego w fazie geometrycznej w której każdy sympleks ma małą i średnio taką samą liczbę sąsiadów.  Dzięki tej własności, w fazie C, dobrze określone jest pojęcie lokalności, możemy wprowadzić układ współrzędnych i w konsekwencji dokonać interpretacji konfiguracji pola w języku czasoprzestrzeni. Taka interpretacja nie jest możliwa w zbitej fazie B, dlatego też określamy ją mianem fazy niegeometrycznej. Istnienie tego typu stanu grawitacji wyłoniło się również z symulacji przeprowadzonych w podejściu zwanym Quantum Graphity. W rozważanych modelach, zaobserwowano przejście fazowe od fazy niegeometrycznej do fazy geometrycznej wraz z obniżaniem temperatury układu. Proces taki przyjęło się określać mianem geometrogenezy.

Rodzi się oczywiście pytanie czy niegeometryczne stany skupienia grawitacji, takie jak obserwowane w CDT fazy A i B występują lub występowały gdzieś w naszym Wszechświecie? Tak jak już wspomniałem, z uwagi na to, że wytworzenie takich faz wymagałoby użycia ekstremalnych wartości energii, prawdopodobnie jedynymi miejscami gdzie możemy ich poszukiwać są albo wnętrza czarnych dziur lub też bardzo wczesne etapy ewolucji Wszechświata. Empiryczne badanie wnętrz czarnych dziur, na obecnym poziomie zrozumienia fizyki czarnych dziur, nie jest możliwe. Pozostaje jedynie szansa w obserwacjach kosmologicznych. Rozważa się modele w których w epoce Plancka zachodzi wspomniana geometrogeneza z fazy crumpled do fazy geometrycznej. Co więcej,  związane z tym przejście fazowe może cechować się tak zwanym zachowaniem krytycznym. To zaś może prowadzić do generowania pierwotnych zaburzeń kosmologicznych oraz, poprzez  mechanizm Kibble’a-Zurka, do tworzenia grawitacyjnych defektów topologicznych. Rysuje to pewne nadzieje odnośnie możliwości empirycznego badania fazowej różnorodności grawitacji. Jest to jednakże zagadnienie niezwykle zawiłe i prawdopodobnie ostatecznie będzie możliwe uzyskanie jedynie pewnych słabych ograniczeń obserwacyjnych. Dlatego też, podstawowym narzędziem do badania stanów skupienia grawitacji pozostają dalsze eksperymenty numeryczne z wykorzystaniem coraz to lepszych algorytmów i sprzętu komputerowego.

Chciałbym na koniec pokreślić, że zagadnienie struktury fazowej grawitacji jest dużo szersze niż tu omówiono i było w ostatnim czasie przedmiotem wielu analiz w ramach niezależnych podejściach do kwantowej grawitacji. Z konieczności, musiałem ograniczyć się tutaj do przytoczenia zaledwie kilku wybranych wyników. Dalsze przykłady można znaleźć w artykule Spacetime as a quantum many-body system  oraz w artykule Towards the map of quantum gravity (w rozdziale Phases of gravity i w literaturze tam cytowanej).

© Jakub Mielczarek

O symulacjach ludzkiego mózgu

Przeprowadzenie pełnej symulacji komputerowej ludzkiego mózgu wydaje się najprostszą drogą do osiągnięcia tak zwanej silnej sztucznej inteligencji (ang. artificial general intelligence – AGI). Mówiąc precyzyjniej, w tym przypadku należałoby dokonać emulacji mózgu, co wiązałoby się ze ścisłym odwzorowaniem (w ramach symulacji) struktury połączeń neuronalnych, wag synaptycznych oraz innych szczegółów morfologicznych pojedynczych neuronów i mózgu konkretnej osoby. Zagadnienie pozyskiwania danych wejściowych do emulacji mózgu jest obszerne i opiszę je niezależnie. Natomiast, tutaj chciałbym się skoncentrować na przeanalizowaniu aspektów obliczeniowych związanych z przeprowadzeniem symulacji mózgu ludzkiego.

Podstawową jednostką przetwarzającą informacje w mózgu jest neuron. Typowo, mózg dorosłego człowieka zawiera niecałe 10^{11} neuronów i około 10^{14} połączeń synaptycznych (po około 100 synaps na jeden neuron). Każde połączenie synaptyczne ma określoną siłę, którą w modelu neuronu określa tak zwana waga synaptyczna.  Poniżej skoncentrujemy się na modelu mózgu uwzględniającego dwa główne aspekty przetwarzania informacji, mianowicie plastyczność (ustalanie wag synaptycznych) oraz występowanie potencjałów czynnościowych  (tzw. spikes).

Chcąc przeprowadzić symulację mózgu należy zacząć od zdefiniowania modelu matematycznego pojedynczego neuronu. Neuron jest  skomplikowaną komórką, przetwarzający sygnały elektrochemiczne poprzez złożone procesy fizykochemiczne zachodzące w jego błonie komórkowej. Zachowanie potencjału czynnościowego neuronu, kluczowego dla przetwarzania informacji w mózgu, można jednakże z dużą precyzją opisać za pomocą matematycznych modeli opierających się na analizie przewodności elektrycznej błony komórkowej.   Najbardziej znanym przykładem takiego opisu jest model Hodgkina-Huxleya. Uproszczoną wersją modelu Hodkina-Huxleya jest zaproponowany w 2003 roku przez model Eugene M. Izhikevicha, opisywany przez układ dwóch równań różniczkowych.

Model neuronu IzhinkevichaModel ten jest zredukowaną (poprzez zastosowanie metod matematycznych analizy układów dynamicznych) postacią modelu Hodkina-Huxleya. Opisywany jest przez układ dwóch równań różniczkowych:

\frac{dv}{dt}= 0,04 v^2 +5 v +140 - u +I,

\frac{du}{dt} =a(bv-u),

wraz z warunkiem resetowania neuronu po wygenerowaniu impulsu nerwowego:

jeśli v \geq 30 mV  to v \rightarrow c i u \rightarrow u+d .

W powyższych wzorach,  v jest potencjałem czynnościowym, u jest zaś zmienną pomocniczą (tzw. membrane recovery variable). Natomiast a,b,c i d są parametrami modelu. Wartość  potencjału  synaptycznego pobudzającego określona jest przez I. Zachęcam do zabawy numerycznej z powyższym modelem.

Załóżmy teraz, że chcielibyśmy przeprowadzić symulację mózgu ludzkiego opartego na neuronach opisywanych przez model Izhikevicha, rozszerzony o uwzględnienie wag synaptycznych. Zacznijmy od kwestii pamięci  potrzebnej do przeprowadzenia takiej symulacji. Przypuśćmy, że do określenia każdej z wag potrzebujemy 1 bajt (8 bitów) informacji. To rozsądna wartość gdyż 1 B pozwala nam zapisać aż 2^8=256 różnych wartości danej wagi. Mnożąc tę wartość przez liczbę połączeń synaptycznych dostajemy 100 TB. Takie ilości danych nikogo dzisiaj nie przerażają i są standardem. Nie wolno zapomnieć również o pamięci operacyjnej oraz pamięci potrzebnej do zmagazynowania informacji o samym neuronie. Dla prostych modeli neuronu może to być 1 kB  na neuron co łącznie daje również około 100 TB. Natomiast, pamięć potrzeba do symulowania mózgu na poziomie oddającym szczegóły morfologiczne pojedynczych neuronów wymagałaby wartości rzędu  100 PB (petabjatów), co odpowiadałoby około 1 MB pamięci przypadającej na pojedynczy neuron. Skale patebajtowe to wciąż dużo ale powoli się do nich przyzwyczajamy. Już cztery lata temu, dzienna aktywność na Facebooku generowała 4 petabajty danych. W skali roku są to już nawet nie setki petabajtów lecz eksobajty (1EB = 1000 PB) danych.

Przejdźmy teraz do mocy obliczeniowej. Posłużymy się tu definicją tak zwanych FLOPS-ów, czyli ilości operacji zmiennoprzecinkowych na sekundę.

FLOPS – Floating Point Operations Per Second.  To liczba operacji  na liczbach zmiennoprzecinkowych wykonywanych w trakcie sekundy przez daną jednostkę obliczeniową. Typowy rdzeń procesora wykonuje cztery takie operacje na jeden cykl, czyli 4 FLOPy. Procesor komputera na którym piszę ten tekst pracuje z częstotliwością 1,6 GHz i posiada dwa rdzenie. Każdy z rdzeni wykonuje więc 1,6 miliarda cykli na sekundę. Dostajemy stąd 4 FLOP \cdot 1,6 GHz = 6,4  GFLOP/s = 6,4 GFLOPS. Mnożąc ten wynik przez ilość rdzeni otrzymamy całkowitą moc obliczeniową mojego procesora, równą 12,8 GFLOPS (gigaflopsa).  Przykład ten łatwo uogólnić w celu wyznaczenia mocy  obliczeniowej bardziej złożonych jednostek obliczeniowych.

Model Hodkina-Huxleya wymaga około 1,2 miliona FLOPS-ów do symulacji w czasie rzeczywistym. Natomiast model Izhikevicha  jedynie 13 000 FLOPS-ów w czasie rzeczywistym. Mnożąc to przez liczbę neuronów otrzymujemy około 10^{15} FLOPS lub inaczej 1 PFLOPS (petaflops). Oparcie się na modelu Hodkina-Huxleya  wymagałoby zaś około 10^{17} FLOPS czyli 100 PFLOPS.

Dzisiejszy najlepszy superkomputer, chiński Sunway TaihuLight, dysponuje mocą właśnie około 100 PFLOPS. Najlepszy polski superkomputer Prometheus dysponuje mocą ponad 2 PFLOPS, wystarczającej więc do symulowania modelu mózgu ludzkiego

Zrzut ekranu 2018-04-20 o 01.13.18
Wykładniczy wzrost w czasie mocy obliczeniowej superkomputerów.  Zielone punty to suma mocy z listy TOP500 superkomputerów, pomarańczowe trójkąty to #1 z listy, niebieskie kwadraty to #500 z listy.   Źródło

opartego o modele neuronów Izhikevicha. Całkowita moc pięciuset najlepszych superkomputerów świata osiąga dzisiaj wartość 1000 PFLOPS. Obserwuje się, że moc obliczeniowa superkomputerów zwiększa się o czynnik około 10^3 w ciągu dekady (patrz na wykres po prawej). Ekstrapolując obecne trendy, można przewidzieć, że za 10 lat, w roku 2028 moce pojedynczych najlepszych komputerów mogą osiągać wartości 100 EFLOPS = 100 000 FLOPS, natomiast przeciętny superkomputer będzie dysponował mocą 1000 PFLOPS. Wykonywanie symulacji układów o złożoności ludzkiego mózgu nie będzie więc miało żadnych barier od strony dostępności mocy obliczeniowych. 

Żyjemy w czasach w których moce obliczeniowe pojedynczych  superkomputerów stają się wystarczające do symulowania modeli ludzkich mózgów. Nie tylko staje się to możliwe ale w coraz większym stopniu już się to dzieje. Pozwolę sobie, w tymi miejscu, przytoczyć kilka reprezentatywnych przykładów takich badań:

1) Izhikevich. W 2005-tym roku przeprowadził on symulację modelu mózgu zbudowanego z 10^{11} neuronów i 10^{15} synaps, czyli odpowiadający rozmiarami mózgowi ludzkiemu. W symulacji uwzględniono 22 typy neuronów oraz plastyczność synaptyczną zależną od opóźnienia impulsów nerwowych (tzw. STDP). Z uwagi na ograniczone dostępne moce obliczeniowe, symulacja ta nie była przeprowadzona w czasie rzeczywistym, lecz w zwolnieniu o czynnik około 10^6. W symulacji zaobserwowano m.in. spontaniczną aktywność symulowanego mózgu oraz pojawienie się aktywności neuronalnej o częstotliwości fal alfa i gamma.  

2) Human Brain Project (HBP). Celem projektu jest  pełna  symulacja mózgu ludzkiego do roku 2023.  HBP jest flagowym projektem w ramach H2020, finansowanym ze środków Unii Europejskiej.  Projekt wyspecjalizował się w symulowaniu kolumn neuronalnych. Wykorzystywane modele neuronów są niezwykle precyzyjne, natomiast dane wejściowe pochodzą z obrazowania układów biologicznych. Obecnie w projekcie wprowadzane są tak zwane komputery neuromorficzne. Najbardziej rozbudowane symulacje w ramach HBP dotyczyły około miliona neuronów, każdy o niezwykle wysokim poziomie precyzji modelowania.

3) Spaun. W 2012-tym roku przeprowadzono symulację modelu zawierającego 2.5 miliona neuronów. Symulacja została wyposażona w zmysł wzroku (poprzez jedno oko) oraz w zdolności motoryczne (poprzez ramię). Zaobserwowano zachowania podobne do ludzkich. Symulacje była w stanie przeprowadzić osiem niezależnych percepcyjnych, motorycznych i poznawczych zadań w dowolnej kolejności.

4) SyNAPSE. Finansowany przez DARPA projekt symulacji mózgu oparty o procesory neuromorficzne. W ramach tego projektu przeprowadzono symulację modelu mózgu zawierającego 500 miliardów neuronów, czyli około pięć razy więcej niż w mózgu ludzkim. Jednakże, bazowano na uproszczonych modelach neuronów, podobnych do tych wykorzystanych w symulacjach Izhikevicha. 

Największym wyzwaniem stojącym przed symulacjami ludzkiego mózgu jest obecnie wprowadzenie odpowiednich danych początkowych. Dzisiaj są one albo generowane losowo z uwzględnieniem pewnych cech architektury mózgu albo częściowo pozyskiwane z danych obrazowania tkanki mózgu zwierząt (jak to ma np. miejsce w HBP). Możemy się jednakże spodziewać, że rozwój technik zarówno inwazyjnego jak i bezinwazyjnego obrazowania tkanki mózgowej umożliwi w ciągu dekady przeprowadzenie realistycznych emulacji mózgu ludzkiego. Ale o tym, tak jak już wspomniałem, innym razem. Niecierpliwym zaś rekomenduję raport Brain Emulation: A Roadmap opublikowany, w ramach działającego na Uniwersytecie w Oksfordzie  Future of Humanity Institute, przez Andersa Sandberga i Nicka Bostroma.

Bez wątpienia, wchodzimy obecnie w epokę petabajtów jak  i petaFLOPS-ów. Są to właśnie te skale pamięci i mocy obliczeniowej które są potrzebne do przeprowadzenia realistycznych symulacji modeli ludzkiego mózgu. Symulacje te stają się na naszych oczach faktem a ich precyzja będzie rosnąć, uwzględniając coraz to większą liczbę szczegółów budowy morfologicznej mózgu i samych neuronów. Sięgając dalej w przyszłość, prowadzone symulacje wykroczą poza przypadek ludzkiego mózgu, rozszerzając jego możliwości poznawcze co w konsekwencji może urzeczywistnić ideę tak zwanej superinteligencji.

© Jakub Mielczarek