Kwantowa łączność satelitarna

W 2012-tym roku, dzięki Fundacji na rzecz Nauki Polskiej, miałem wielką przyjemność uczestniczyć w Spotkaniu Laureatów Nagrody Nobla w dziedzinie fizyki w Lindau.  Jednym z mecenasów spotkania w Lindau był Singapur, reprezentowany przez ówczesnego prezydenta (fizyka i matematyka) Tony’ego Tana. Singapur to malutkie państwo-miasto nie posiadające własnych zasobów naturalnych. Charakteryzujące się jednak bardzo dynamiczną i nowoczesną gospodarką opartą na usługach i rozwoju zaawansowanych technologii. Kluczowym elementem polityki Singapuru jest kierowanie dużych nakładów finansowych na badania naukowe. Jako przykład osiągnięć w dziedzinie nauki, które mogą mieć praktyczne zastosowanie zaprezentowano wyniki Centrum Technologii Kwantowych na Uniwersytecie w Singapurze. Dyrektor tego instytutu, prof. Artur Ekert, przedstawił pomysł stworzenia satelitarnego systemu przesyłania informacji wykorzystującego kryptografię kwantową. Był to wtedy, z technicznego punktu widzenia, niezwykle ambitny projekt, wręcz futurystyczny. Jednak, jak zaprezentowano podczas spotkania, udało się już zbudować pierwsze prototypowe elementy takiego systemu. Projekt  ten wybrano do prezentacji w Linadu nie bez przyczyny. To w realizację takich pomysłów każdy z uczestników spotkania bez wahania chciałby się włączyć. A Singapur właśnie na takich ludzi liczył by zasilili zaplecze naukowe swojej nowoczesnej gospodarki.

W 2017-tym roku, pięć lat po mojej wizycie w Lindau,  marzenie o kwantowej łączności satelitarnej ziściło się. Stało się to jednak nie za sprawą Singapuru lecz Chin, które mogły pozwolić sobie na znacznie większe zaangażowanie finansowe w realizację tego celu. Sam koszt budowy, wykorzystanej do  przeprowadzenia kwantowej komunikacji, satelity Micius pochłonął kwotę około 100 milionów dolarów. Satelita ten został wyposażony w specjalny transmiter umożliwiający przeprowadzenie tak zwanej Kwantowej Dystrybucji Klucza (KDK) (ang. Quantum Key Distribution (QKD)).  KDK jest podstawowym narzędziem w kryptografii kwantowej, zapewniającym bezwarunkowe zabezpieczenie  przekazu informacji. Odporność na ataki wynika tutaj wprost z zasad mechaniki kwantowej. 

Wytłumaczę trochę dokładniej jak to działa. Mianowicie, podstawowym problemem związanym z bezpieczną wymianą informacji jest przekazanie klucza który służy do zaszyfrowania i odszyfrowania wiadomości (w ramach kryptografii symetrycznej ten sam klucz jest wykorzystywany zarówno do zaszyfrowania jak i odszyfrowania wiadomości). Idealną sytuacją jest gdy może nastąpić bezpośrednia wymiana takiego klucza. Jest to jednak bardzo niepraktyczne rozwiązanie, stosowane aczkolwiek do zabezpieczania najwrażliwszego typu informacji. Powszechnie wykorzystuje się natomiast tak zwaną kryptografię asymetryczną, opartą na kluczu publicznym oraz prywatnym.  Metodę tę stosujemy (nieświadomie) każdego dnia korzystając z kart płatniczych czy też dokonując zakupów w internecie. Jednakże, dostępne w przyszłości moce obliczeniowe oraz algorytmy kwantowe bez trudu poradzą sobie z pokonaniem dzisiejszych zabezpieczeń opartych o klucz publiczny. Rodzi to uzasadnione obawy, że na przykład zaszyfrowane cenne dane będą przechowywane i rozszyfrowane w przyszłości.

Kwantowa dystrybucja klucza dostarcza metody (teoretycznie) całkowicie bezpiecznego przekazania klucza dla systemów kryptografii symetrycznej. W metodzie tej, klucz w postaci ciągu bitów, kodowany jest za pomocą stanów kwantowych. W praktyce, wykorzystywane są do tego celu pojedyncze kwanty światła, czyli fotony. Każdy bit odpowiada pewnej ustalonej superpozycji dwóch możliwych polaryzacji światła. Podstawową  własnością mechaniki kwantowej jest to, że dokonanie pomiaru redukuje stan kwantowy do jednego ze stanów bazowych. W rozważanym przypadku, stany bazowe odpowiadają dwóm polaryzacjom fotonu. Każda próba przechwycenia przesyłanej w ten sposób informacji (wiążąca się z wykonaniem pomiaru na stanie kwantowym) może być więc bez trudu wykryta. Służą do tego celu odpowiednie protokoły kwantowej dystrybucji klucza. Pierwszym, wynalezionym jeszcze w 1984-tym roku protokołem tego typu jest  BB84 (Bennett-Brassard 1984). Satelita Micius realizuje KDK właśnie w oparciu o protokół BB84, w konfiguracji downlink. Oznacza to, że satelita traktowana jest jako tak zwany zaufany dystrybutor klucza, umożliwiający stacjom naziemnym zaszyfrowanie i odszyfrowanie wiadomości. Pojedyncze fotony, niezbędne do realizacji KDK,  przygotowywane są przez złożony układ optyczny umieszczony w satelicie.  Wartym podkreślenia jest to, że sama zaszyfrowana wiadomość nie jest transmitowana przez kanał kwantowy lecz poprzez łącze radiowe. Przesyłanie informacji w postaci kwantowej jest nieefektywne i służy wyłącznie do przekazania klucza.

Szczegóły przeprowadzonych, pomiędzy majem a lipcem 2017-tego roku, udanych międzykontynentalnych kwantowych dystrybucji klucza zaprezentowano w artykule opublikowanym w styczniu bieżącego roku na łamach Physical Review Letters [arXiv:1801.04418]. W wykonanych eksperymentach, satelitę Micius orbitującą Ziemię na wysokości około 500 km wykorzystano jako zaufanego dystrybutora klucza do stacji naziemnych, zlokalizowanych w Xinglong w Chinach i  w Graz w Austrii.

realworldint
Ilustracja stacji naziemnych między którymi nastąpiła zaszyfrowana łączność, wykorzystująca kwantową dystrybucję klucza zrealizowaną przez satelitę MiciusŹródło

Zrealizowano dwa testy demonstrujące poprawną pracę systemu. Test pierwszy polegał na przesłaniu zaszyfrowanych, za pomocą szyfru z kluczem jednorazowym (ang. one-time-pad), niewielkich obrazów o rozmiarach kilku kB każdy. Z Chin do Austrii przesłano obrazek przedstawiający chińskiego filozofa Mo Di (od Niego pochodzi nazwa satelity Micius), natomiast z Austrii do Chin przesłano zdjęcie jednego z ojców mechaniki kwantowej Erwina Schrödingera. Klucz potrzebny do zaszyfrowania oraz odszyfrowania wiadomości udostępniła, poprzez kwantową dystrybucję klucza, satelita Micius.  Wykorzystanie  szyfru z kluczem jednorazowym, który jest najsilniejszym sposobem szyfrowania, wymaga użycia klucza o tej samej ilości bitów co wiadomość. Jest więc on z jednej strony bardzo niepraktyczny ale w zamian gwarantuje (przy poprawnym użyciu) stuprocentowe bezpieczeństwo przesyłanej informacji. Dlatego też jest on stosowany w przypadku wiadomości o najwyższej klauzuli tajności. 

Przesłanie zaszyfrowanych zdjęć przebiegło w następujący sposób: Satelita Micius, za pomocą protokołu KDK, udostępnił klucz zarówno nadawcy jak i odbiorcy wiadomości. Klucz musiał mieć w tym przypadku rozmiar przesyłanej wiadomości, czyli kilka kB.

medium
Przekaz wiadomości w oparciu o szyfr z kluczem jednorazowym (one-time-pad) wykorzystującym operację XOR. Klucz został udostępniony nadawcy i odbiorcy za pomocą protokołu KDK. Źródło

Obraz w formacie JPG zapisano w postaci mapy bitowej (matryca zer i jedynek) tworząc w ten sposób wiadomość binarną. Następnie, pomiędzy bitami wiadomości a bitami klucza, nadawca wykonał operację alternatywy rozłącznej XOR (reprezentowanej przez symbol  \bigoplus, to dlaczego stosuję się tutaj operację XOR jest prosto wytłumaczone w niniejszym linku).  W ten sposób, powstał szyfrogram który następnie został wysłany przez satelitarne łącze radiowe do odbiorcy. Otrzymany przez odbiorcę szyfrogram w postaci ciągu bitów złożono, ponownie poprzez spójnik logiczny XOR, z kluczem. W ten sposób odszyfrowana została oryginalna wiadomość.

Test drugi polegał na przeprowadzeniu telekonferencji pomiędzy Chińską Akademią Nauk a jej austriackim odpowiednikiem, podczas której przesył informacji przez klasyczne łącze radiowe zaszyfrowany został z wykorzystaniem kluczy udostępnionych przez satelitę Micius. Zastosowanie szyfru z kluczem jednorazowym do transmisji wideo nie byłoby możliwe. Dlatego też wykorzystano metodę która wymaga mniejszych rozmiarów klucza. Posłużono się mianowicie symetrycznym szyfrem blokowym Advanced Encryption Standard (AES)-182, certyfikowanym przez National Security Agency do szyfrowania ściśle tajnych informacji.  Dla przykładu, w oparciu o AES, ale z kluczem o długości 256 bitów,  pracuje popularny  serwis Boxcryptor (wcześniej znany jako Cloudfogger). W celu zapewnienia odpowiedniego poziomu zabezpieczenia, w trakcie 75 minutowej telekonferencji, zmiana 128-bitowego klucza następowała co jedną sekundę.  Szyfrowanie transmisji wymagało więc łącznie przesłania około 70 kB danych poprzez kanał kwantowy. 

Dlaczego opisane powyżej wyniki są tak ważne? Przyczynę związaną z bezpieczeństwem przesyłu informacji zarysowałem już częściowo powyżej. Natomiast, wyjaśnienia wymaga kwestia wykorzystania do tego celu przestrzeni kosmicznej. Dlaczego nie przesłać fotonów przez światłowód, jak to ma miejsce w standardowych łączach internetowych? Otóż, istnieją istotne ograniczenia związane z realizacją  kwantowej dystrybucji klucza przez łącza światłowodowe. W przypadku klasycznej transmisji światłowodowej, tłumienie sygnału na dużych odległościach możemy kompensować przez stosowanie odpowiednich wzmacniaczy sygnału. Mamy tu jednak do czynienia z pakietami falowymi fotonów które zachowują się w sposób klasyczny. W przypadku KDK, klucz przekazywany jest za pomocą pojedynczych fotonów, które zachowują się w sposób kwantowy. Z uwagi na obowiązujący w mechanice kwantowej tak zwany zakaz klonowania kwantowego, nie jest możliwie, w przypadku pojedynczych kwantów światła, przeprowadzenie prostego wzmocnienia sygnału. Można natomiast zastosować tak zwane kwantowe powielacze (ang. quantum repeaters), opierające swoje działanie o pamięć kwantową oraz protokół teleportacji kwantowej.  Są to bardzo skomplikowane układy. Jednakże nawet ich zastosowanie pozwala obecnie na realizację KDK na odległościach maksymalnie około 300 km.  Wykorzystanie przestrzeni kosmicznej staje się w tej sytuacji idealnym rozwiązaniem. Mianowicie, dla fotonów podróżujących  przez atmosferę i próżnię zarówno osłabienie sygnału jak i jego dekoherencja są wielokrotnie słabsze niż w przypadku światłowodów.  Kosmos jest więc obecnie nie tyle możliwością do realizacji  dalekodystansowej kwantowej dystrybucji klucza ale wręcz koniecznością.

Dalszy kierunek rozwoju technologii satelitarnej KDK to utworzenie międzykontynentalnej sieci łączności kwantowej. Sieć taką przyjęło się określać mianem internetu kwantowego. Internet kwantowy, o którym napiszę kiedyś bardziej szczegółowo,  będzie pozwalał na bezpieczne przesyłanie informacji na dużych odległościach na lądzie, jak i następnie w powietrzu i na wodzie. System znajdzie zastosowanie wszędzie tam gdzie potrzebny jest najwyższy poziom ochrony przekazywanej informacji. Czyli wyjściowo będą to głównie obszary takie jak: finanse, obronność, handel czy medycyna.  Nie będzie również przeszkodą „przeciągnięcia” kwantowego internetu poza Ziemię. Kosmiczna próżnia jest wszak idealnym medium do przesyłania informacji kwantowej. 

Wróćmy jednak na koniec na Ziemię. Posiadanie technologii satelitarnej KDK pozwoli Chinom wypracować realną przewagę na gruncie militarnym. Przykładowo, z pomocą satelitarnej KDK możliwe będzie wysyłanie rozkazów do łodzi podwodnych czy też lotniskowca/ców stacjonujących na Oceanie Spokojnym, bez obawy o przechwycenie tajnych informacji przez systemy nasłuchu innych państw i ich pomyślną kryptoanalizę.  Posiadanie tej technologii, w perspektywie kliku/kilkunastu lat, może realnie ułatwić Chinom  realizację swoich strategicznych celów. A chociażby z przykładu Enigmy dobrze wiemy, że od kryptografii mogą zależeć losy Świata. 

© Jakub Mielczarek

Stany skupienia grawitacji

Ogólna Teoria Względności Einsteina przyzwyczaiła nas do myślenia o grawitacji w języku geometrycznej struktury jaką jest czterowymiarowa czasoprzestrzeń. Jednakże, coraz  większa liczba wyników badań nad kwantową naturą oddziaływań grawitacyjnych wskazuje na możliwość występowania różnych faz (stanów skupienia) pola grawitacyjnego. Czasoprzestrzenny stan skupienia jest jedną z kilku możliwości jakie obecnie znamy.

Czy ta różnorodność fazowa grawitacji powinna nas dziwić? Absolutnie nie. Występowanie faz jest jedną z podstawowych własności  układów złożonych (ang. complex systems). Połączenie dużej ilości stopni swobody (np. cząsteczek) oraz wprowadzenie pomiędzy nimi nieliniowego oddziaływania w sposób nieodłączny wiąże się z występowaniem jakościowo różnych sposobów wewnętrznej organizacji takiego układu, czyli faz. Ponadto, fazy te rozdzielone są przez ostre granice zwane przejściami fazowymi. Zachowanie to dotyczy nie tylko systemów dyskretnych ale również ciągłych układów fizycznych jakimi są pola  samooddziałujące (przykładem takiego pola jest pole grawitacyjne).

Z kwantowego punktu widzenia, pole grawitacyjne należy uznać za przykład układu złożonego czy też układu wielociałowego (ang. many-body system). „Atomy” przestrzeni lub czasoprzestrzeni, które wyłaniają się z kwantowych teorii grawitacji, mogą, poprzez

scientificamerican1008-44-I3
„Atomy” przestrzeni w Pętlowej Grawitacji Kwantowej. Źródło

wzajemne oddziaływanie, tworzyć makroskopowe konfiguracje o jakościowo różnych własnościach. W zależności od warunków w których znajdzie się pole grawitacyjne, może przyjąć ono jedną z kilku zidentyfikowanych dotychczas teoretycznie faz. Jest to zachowanie analogiczne do przypadku zbioru cząsteczek H_2O, który w zależności od temperatury otoczenia i zajmowanej objętości utworzy jeden z trzech stanów skupienia: ciekły, stały (lód) lub gazowy (para wodna).

Nic nie stoi na przeszkodzie by przeprowadzić stosowne eksperymenty i zaobserwować stany skupienia wody. Dla grawitacji,  z uwagi na niezwykle słabe sprzężenie pomiędzy materią a polem grawitacyjnym, taka możliwość obecnie nie istnieje. Wytworzenie stanów pola grawitacyjnego w których moglibyśmy spodziewać się wystąpienia nowej fazy wymagałoby ekstremalnych gęstości energii, prawdopodobnie możliwych do osiągnięcia jedynie w bardzo wczesnym Wszechświecie lub we wnętrzach czarnych dziur. Teoretyczna analiza struktury fazowej grawitacji jest również zadaniem niełatwym. Problem polega na tym, że zazwyczaj w badaniach nad kwantową grawitacją rozpatrujemy funkcję (np. hamiltonian) opisującą oddziaływanie pomiędzy pojedynczymi kwantami („atomami”) pola grawitacyjnego. Z analizy samej postaci tej funkcji praktycznie niemożliwe jest wyciągnięcie wniosków dotyczących struktury fazowej rozważanego układu. Wiąże się to z faktem, iż występowanie faz jest przykładem zjawiska emergentnego. Na tej samej zasadzie, znajomość potencjału oddziaływania pomiędzy dwiema cząsteczkami wody nie mówi nam jeszcze nic o stanach skupienia wody które wyłonią się w makroskopowych układach takich cząsteczek.

Jak więc możemy sobie z tym problemem poradzić? Istnieją dwie główne drogi: symulacje wielociałowe kwantowej grawitacji oraz teoria renormalizacji, której zastosowanie może również wymagać przeprowadzenia symulacji.  Przybliżę tutaj podejście pierwsze. Najbardziej zaawansowane badania tego typu prowadzi się obecnie w ramach tak zwanych Kauzalnych Dynamicznych Triangulacjami (ang. Causal Dynamical Triangulations – CDT).  Wyniki najnowszych badań w ramach CDT wskazują na występowanie trzech lub

pd
Trzy fazy czterowymiarowej grawitacji w CDT. Źródło

czterech (w zależności od tego jaki  tzw. parametr porządku jest badany) faz grawitacji. Jedną z nich jest geometryczna faza C opisująca, na odpowiednio dużych skalach, czterowymiarowy Wszechświat, zgodny  z OTW.  Zaobserwowano również sub-fazę fazy C w której ujawniają się pewne nowe, niegeometryczne własności, jak również zidentyfikowano dwie dodatkowe fazy A i B. W fazie A, pole grawitacyjne przyjmuje formę charakteryzującą się fraktalną strukturą polimerową (tzw. branched polymer). Natomiast, faza B (tzw. crumpled phase) wyróżnia się dążącą do nieskończoności liczbą wymiarów, odzwierciedlającą wysoką ilość połączeń pomiędzy tak zwanymi sympleksami, z których zbudowana jest konfiguracja pola grawitacyjnego. W fazie tej, wszystkie „atomy” czasoprzestrzeni stają się swoimi sąsiadami. Jest to zachowanie zupełnie odmiennie do tego obserwowanego w fazie geometrycznej w której każdy sympleks ma małą i średnio taką samą liczbę sąsiadów.  Dzięki tej własności, w fazie C, dobrze określone jest pojęcie lokalności, możemy wprowadzić układ współrzędnych i w konsekwencji dokonać interpretacji konfiguracji pola w języku czasoprzestrzeni. Taka interpretacja nie jest możliwa w zbitej fazie B, dlatego też określamy ją mianem fazy niegeometrycznej. Istnienie tego typu stanu grawitacji wyłoniło się również z symulacji przeprowadzonych w podejściu zwanym Quantum Graphity. W rozważanych modelach, zaobserwowano przejście fazowe od fazy niegeometrycznej do fazy geometrycznej wraz z obniżaniem temperatury układu. Proces taki przyjęło się określać mianem geometrogenezy.

Rodzi się oczywiście pytanie czy niegeometryczne stany skupienia grawitacji, takie jak obserwowane w CDT fazy A i B występują lub występowały gdzieś w naszym Wszechświecie? Tak jak już wspomniałem, z uwagi na to, że wytworzenie takich faz wymagałoby użycia ekstremalnych wartości energii, prawdopodobnie jedynymi miejscami gdzie możemy ich poszukiwać są albo wnętrza czarnych dziur lub też bardzo wczesne etapy ewolucji Wszechświata. Empiryczne badanie wnętrz czarnych dziur, na obecnym poziomie zrozumienia fizyki czarnych dziur, nie jest możliwe. Pozostaje jedynie szansa w obserwacjach kosmologicznych. Rozważa się modele w których w epoce Plancka zachodzi wspomniana geometrogeneza z fazy crumpled do fazy geometrycznej. Co więcej,  związane z tym przejście fazowe może cechować się tak zwanym zachowaniem krytycznym. To zaś może prowadzić do generowania pierwotnych zaburzeń kosmologicznych oraz, poprzez  mechanizm Kibble’a-Zurka, do tworzenia grawitacyjnych defektów topologicznych. Rysuje to pewne nadzieje odnośnie możliwości empirycznego badania fazowej różnorodności grawitacji. Jest to jednakże zagadnienie niezwykle zawiłe i prawdopodobnie ostatecznie będzie możliwe uzyskanie jedynie pewnych słabych ograniczeń obserwacyjnych. Dlatego też, podstawowym narzędziem do badania stanów skupienia grawitacji pozostają dalsze eksperymenty numeryczne z wykorzystaniem coraz to lepszych algorytmów i sprzętu komputerowego.

Chciałbym na koniec pokreślić, że zagadnienie struktury fazowej grawitacji jest dużo szersze niż tu omówiono i było w ostatnim czasie przedmiotem wielu analiz w ramach niezależnych podejściach do kwantowej grawitacji. Z konieczności, musiałem ograniczyć się tutaj do przytoczenia zaledwie kilku wybranych wyników. Dalsze przykłady można znaleźć w artykule Spacetime as a quantum many-body system  oraz w artykule Towards the map of quantum gravity (w rozdziale Phases of gravity i w literaturze tam cytowanej).

© Jakub Mielczarek

O symulacjach ludzkiego mózgu

Przeprowadzenie pełnej symulacji komputerowej ludzkiego mózgu wydaje się najprostszą drogą do osiągnięcia tak zwanej silnej sztucznej inteligencji (ang. artificial general intelligence – AGI). Mówiąc precyzyjniej, w tym przypadku należałoby dokonać emulacji mózgu, co wiązałoby się ze ścisłym odwzorowaniem (w ramach symulacji) struktury połączeń neuronalnych, wag synaptycznych oraz innych szczegółów morfologicznych pojedynczych neuronów i mózgu konkretnej osoby. Zagadnienie pozyskiwania danych wejściowych do emulacji mózgu jest obszerne i opiszę je niezależnie. Natomiast tutaj, chciałbym się skoncentrować na przeanalizowaniu aspektów obliczeniowych związanych z przeprowadzeniem symulacji mózgu ludzkiego.

Podstawową jednostką przetwarzającą informacje w mózgu jest neuron. Typowo, mózg dorosłego człowieka zawiera niecałe 10^{11} neuronów i około 10^{14} połączeń synaptycznych (po około 100 synaps na jeden neuron). Każde połączenie synaptyczne ma określoną siłę, którą w modelu neuronu określa tak zwana waga synaptyczna.  Poniżej skoncentrujemy się na modelu mózgu uwzględniającego dwa główne aspekty przetwarzania informacji, mianowicie plastyczność (ustalanie wag synaptycznych) oraz występowanie potencjałów czynnościowych  (tzw. spikes).

Chcąc przeprowadzić symulację mózgu należy zacząć od zdefiniowania modelu matematycznego pojedynczego neuronu. Neuron jest  skomplikowaną komórką, przetwarzający sygnały elektrochemiczne poprzez złożone procesy fizykochemiczne zachodzące w jego błonie komórkowej. Zachowanie potencjału czynnościowego neuronu, kluczowego dla przetwarzania informacji w mózgu, można jednakże z dużą precyzją opisać za pomocą matematycznych modeli opierających się na analizie przewodności elektrycznej błony komórkowej.   Najbardziej znanym przykładem takiego opisu jest model Hodgkina-Huxleya. Uproszczoną wersją modelu Hodkina-Huxleya jest zaproponowany w 2003 roku przez model Eugene M. Izhikevicha, opisywany przez układ dwóch równań różniczkowych.

Model neuronu IzhinkevichaModel ten jest zredukowaną (poprzez zastosowanie metod matematycznych analizy układów dynamicznych) postacią modelu Hodkina-Huxleya. Opisywany jest przez układ dwóch równań różniczkowych:

\frac{dv}{dt}= 0,04 v^2 +5 v +140 - u +I,

\frac{du}{dt} =a(bv-u),

wraz z warunkiem resetowania neuronu po wygenerowaniu impulsu nerwowego:

jeśli v \geq 30 mV  to v \rightarrow c i u \rightarrow u+d .

W powyższych wzorach,  v jest potencjałem czynnościowym, u jest zaś zmienną pomocniczą (tzw. membrane recovery variable). Natomiast a,b,c i d są parametrami modelu. Wartość  potencjału  synaptycznego pobudzającego określona jest przez I. Zachęcam do zabawy numerycznej z powyższym modelem.

Załóżmy teraz, że chcielibyśmy przeprowadzić symulację mózgu ludzkiego opartego na neuronach opisywanych przez model Izhikevicha, rozszerzony o uwzględnienie wag synaptycznych. Zacznijmy od kwestii pamięci  potrzebnej do przeprowadzenia takiej symulacji. Przypuśćmy, że do określenia każdej z wag potrzebujemy 1 bajt (8 bitów) informacji. To rozsądna wartość gdyż 1 B pozwala nam zapisać aż 2^8=256 różnych wartości danej wagi. Mnożąc tę wartość przez liczbę połączeń synaptycznych dostajemy 100 TB. Takie ilości danych nikogo dzisiaj nie przerażają i są standardem. Nie wolno zapomnieć również o pamięci operacyjnej oraz pamięci potrzebnej do zmagazynowania informacji o samym neuronie. Dla prostych modeli neuronu może to być 1 kB  na neuron co łącznie daje również około 100 TB. Natomiast, pamięć potrzeba do symulowania mózgu na poziomie oddającym szczegóły morfologiczne pojedynczych neuronów wymagałaby wartości rzędu  100 PB (petabjatów), co odpowiadałoby około 1 MB pamięci przypadającej na pojedynczy neuron. Skale patebajtowe to wciąż dużo ale powoli się do nich przyzwyczajamy. Już cztery lata temu, dzienna aktywność na Facebooku generowała 4 petabajty danych. W skali roku są to już nawet nie setki petabajtów lecz eksobajty (1EB = 1000 PB) danych.

Przejdźmy teraz do mocy obliczeniowej. Posłużymy się tu definicją tak zwanych FLOPS-ów, czyli ilości operacji zmiennoprzecinkowych na sekundę.

FLOPS – Floating Point Operations Per Second.  To liczba operacji  na liczbach zmiennoprzecinkowych wykonywanych w trakcie sekundy przez daną jednostkę obliczeniową. Typowy rdzeń procesora wykonuje cztery takie operacje na jeden cykl, czyli 4 FLOPy. Procesor komputera na którym piszę ten tekst pracuje z częstotliwością 1,6 GHz i posiada dwa rdzenie. Każdy z rdzeni wykonuje więc 1,6 miliarda cykli na sekundę. Dostajemy stąd 4 FLOP \cdot 1,6 GHz = 6,4  GFLOP/s = 6,4 GFLOPS. Mnożąc ten wynik przez ilość rdzeni otrzymamy całkowitą moc obliczeniową mojego procesora, równą 12,8 GFLOPS (gigaflopsa).  Przykład ten łatwo uogólnić w celu wyznaczenia mocy  obliczeniowej bardziej złożonych jednostek obliczeniowych.

Model Hodkina-Huxleya wymaga około 1,2 miliona FLOPS-ów do symulacji w czasie rzeczywistym. Natomiast model Izhikevicha  jedynie 13 000 FLOPS-ów w czasie rzeczywistym. Mnożąc to przez liczbę neuronów otrzymujemy około 10^{15} FLOPS lub inaczej 1 PFLOPS (petaflops). Oparcie się na modelu Hodkina-Huxleya  wymagałoby zaś około 10^{17} FLOPS czyli 100 PFLOPS.

Dzisiejszy najlepszy superkomputer, chiński Sunway TaihuLight, dysponuje mocą właśnie około 100 PFLOPS. Najlepszy polski superkomputer Prometheus dysponuje mocą ponad 2 PFLOPS, wystarczającej więc do symulowania modelu mózgu ludzkiego

Zrzut ekranu 2018-04-20 o 01.13.18
Wykładniczy wzrost w czasie mocy obliczeniowej superkomputerów.  Zielone punty to suma mocy z listy TOP500 superkomputerów, pomarańczowe trójkąty to #1 z listy, niebieskie kwadraty to #500 z listy.   Źródło

opartego o modele neuronów Izhikevicha. Całkowita moc pięciuset najlepszych superkomputerów świata osiąga dzisiaj wartość 1000 PFLOPS. Obserwuje się, że moc obliczeniowa superkomputerów zwiększa się o czynnik około 10^3 w ciągu dekady (patrz na wykres po prawej). Ekstrapolując obecne trendy, można przewidzieć, że za 10 lat, w roku 2028 moce pojedynczych najlepszych komputerów mogą osiągać wartości 100 EFLOPS = 100 000 FLOPS, natomiast przeciętny superkomputer będzie dysponował mocą 1000 PFLOPS. Wykonywanie symulacji układów o złożoności ludzkiego mózgu nie będzie więc miało żadnych barier od strony dostępności mocy obliczeniowych. 

Żyjemy w czasach w których moce obliczeniowe pojedynczych  superkomputerów stają się wystarczające do symulowania modeli ludzkich mózgów. Nie tylko staje się to możliwe ale w coraz większym stopniu już się to dzieje. Pozwolę sobie, w tymi miejscu, przytoczyć kilka reprezentatywnych przykładów takich badań:

1) Izhikevich. W 2005-tym roku przeprowadził on symulację modelu mózgu zbudowanego z 10^{11} neuronów i 10^{15} synaps, czyli odpowiadający rozmiarami mózgowi ludzkiemu. W symulacji uwzględniono 22 typy neuronów oraz plastyczność synaptyczną zależną od opóźnienia impulsów nerwowych (tzw. STDP). Z uwagi na ograniczone dostępne moce obliczeniowe, symulacja ta nie była przeprowadzona w czasie rzeczywistym, lecz w zwolnieniu o czynnik około 10^6. W symulacji zaobserwowano m.in. spontaniczną aktywność symulowanego mózgu oraz pojawienie się aktywności neuronalnej o częstotliwości fal alfa i gamma.  

2) Human Brain Project (HBP). Celem projektu jest  pełna  symulacja mózgu ludzkiego do roku 2023.  HBP jest flagowym projektem w ramach H2020, finansowanym ze środków Unii Europejskiej.  Projekt wyspecjalizował się w symulowaniu kolumn neuronalnych. Wykorzystywane modele neuronów są niezwykle precyzyjne, natomiast dane wejściowe pochodzą z obrazowania układów biologicznych. Obecnie w projekcie wprowadzane są tak zwane komputery neuromorficzne. Najbardziej rozbudowane symulacje w ramach HBP dotyczyły około miliona neuronów, każdy o niezwykle wysokim poziomie precyzji modelowania.

3) Spaun. W 2012-tym roku przeprowadzono symulację modelu zawierającego 2.5 miliona neuronów. Symulacja została wyposażona w zmysł wzroku (poprzez jedno oko) oraz w zdolności motoryczne (poprzez ramię). Zaobserwowano zachowania podobne do ludzkich. Symulacje była w stanie przeprowadzić osiem niezależnych percepcyjnych, motorycznych i poznawczych zadań w dowolnej kolejności.

4) SyNAPSE. Finansowany przez DARPA projekt symulacji mózgu oparty o procesory neuromorficzne. W ramach tego projektu przeprowadzono symulację modelu mózgu zawierającego 500 miliardów neuronów, czyli około pięć razy więcej niż w mózgu ludzkim. Jednakże, bazowano na uproszczonych modelach neuronów, podobnych do tych wykorzystanych w symulacjach Izhikevicha. 

Największym wyzwaniem stojącym przed symulacjami ludzkiego mózgu jest obecnie wprowadzenie odpowiednich danych początkowych. Dzisiaj są one albo generowane losowo z uwzględnieniem pewnych cech architektury mózgu albo częściowo pozyskiwane z danych obrazowania tkanki mózgu zwierząt (jak to ma np. miejsce w HBP). Możemy się jednakże spodziewać, że rozwój technik zarówno inwazyjnego jak i bezinwazyjnego obrazowania tkanki mózgowej umożliwi w ciągu dekady przeprowadzenie realistycznych emulacji mózgu ludzkiego. Ale o tym, tak jak już wspomniałem, innym razem. Niecierpliwym zaś rekomenduję raport Brain Emulation: A Roadmap opublikowany, w ramach działającego na Uniwersytecie w Oksfordzie  Future of Humanity Institute, przez Andersa Sandberga i Nicka Bostroma.

Bez wątpienia, wchodzimy obecnie w epokę petabajtów jak  i petaFLOPS-ów. Są to właśnie te skale pamięci i mocy obliczeniowej które są potrzebne do przeprowadzenia realistycznych symulacji modeli ludzkiego mózgu. Symulacje te stają się na naszych oczach faktem a ich precyzja będzie rosnąć, uwzględniając coraz to większą liczbę szczegółów budowy morfologicznej mózgu i samych neuronów. Sięgając dalej w przyszłość, prowadzone symulacje wykroczą poza przypadek ludzkiego mózgu, rozszerzając jego możliwości poznawcze co w konsekwencji może urzeczywistnić ideę tak zwanej superinteligencji.

© Jakub Mielczarek