Optyczny mózg

Prędkość rozchodzenia się informacji (za pośrednictwem impulsów nerwowych) w mózgach ssaków sięga około 120 m/s. Wartość ta determinuje czas potrzebny na komunikację pomiędzy dowolnymi obszarami w mózgu i w konsekwencji czas reakcji na bodźce. To zaś, przy narzuconych przez środowisko zewnętrzne skalach czasowych, rzutuje na maksymalne dopuszczalne rozmiary mózgu. Przykładowo, informacja pomiędzy dwoma odległymi o 10 cm częściami mózgu podróżuje co najmniej milisekundę (0,001 s). Zachowanie tego rzędu czasów propagacji sygnału jest niezbędne do tego, żeby organizm mógł przetworzyć bodziec zewnętrzny i zareagować na niego w ułamku sekundy. Takie tempo rekcji umożliwiło naszym przodkom przetrwać w potyczce z dzikim zwierzęciem i prowadzić polowania. Dzisiaj jest to niezbędne chociażby do tego, żeby sprawnie kierować pojazdami.

O ile prędkość propagacji impulsów w naszych mózgach jest ograniczona biochemiczną naturą naszego hardware’u, to w przypadku systemów neuromorficznych – naśladujących działanie mózgu –  ogranicza nas jedynie maksymalna prędkość rozchodzenia się informacji w przyrodzie, równa prędkość światła w próżni, c\approx 299\ 794\ 458 m/s.  Jeśli udałoby się zasymulować działanie sieci neuronowych za pomocą światła, mogłyby one przetwarzać informacje około 2,5 miliona razy szybciej niż ludzki mózg. To zaś,  z jednej strony znaczy, że optyczny mózg mógłby być znacznie większy niż ten biologiczny.  Dla przykładu, przy zachowaniu minimalnej latencji sygnałów w ludzkim mózgu (~1 ms dla ~10 cm) rozmiary świetlnej sieci neuronowej mogą sięgać 300 km. Z drugiej strony, możliwe stałoby się osiąganie dużo większego niż w ludzkim mózgu tempa przetwarzania informacji. Hipotetyczny, optyczny symulator ludzkiego mózgu o rozmiarach naturalnych działałaby około 2,5 miliona razy szybciej od jej biologicznego odpowiednika. Jeden dzień funkcjonowania ludzkiego mózgu odpowiadałby więc około czterem setnym sekundy pracy optycznego mózgu. Jeden ziemski rok, odpowiadałby w symulacji optycznej około 13 sekundom. Natomiast, w świecie optycznym, symulacja naszego całego życia nie trwałoby dłużej niż dwadzieścia kilka minut!

Powyższe szacunki zaniedbują dodatkowe czasy wynikające z propagacji sygnału w innym niż próżnia ośrodku, jak i te związane z nieliniowym przetwarzaniem informacji optycznej, uwzględnienie których może być konieczne do symulacji realistycznych sieci neuronowych. Są one jednak wystarczająco miarodajne to tego, żeby uzmysłowić nam bardzo ważną z punktu widzenia człowieka własność sztucznej inteligencji. Mianowicie, może stać się ona nie tylko potężniejsza do ludzkiej, pod względem ilości przetwarzanej informacji ale i znacznie od niej szybsza. Z taką, tak zwaną, superinteligencją (Artificial Super Intelligence – ASI) trudno byłoby człowiekowi konkurować, ponieważ żyłby on w zupełnie innych skalach czasowych, nieprzystających do tych obowiązujących w wirtualnym świecie superinteligencji. Kiedy w świecie optycznej superinteligencji upłynęłoby 2,5 miliona lat, czyli czyli okres porównywalny z całą historią Homo sapiens na Ziemi, w zewnętrznym świecie ludzkim upłynąłby zaledwie jeden rok ziemski.

Wróćmy zatem na Ziemię. Superinteligencja to wciąż domena futurologii, natomiast prace nad optycznymi sztucznymi sieciami neuronowymi i ogólniej procesorami optycznymi trwają na dobre [1,2,3,4].  To samo dotyczy innych podejść do sztucznej inteligencji i symulacji ludzkiego mózgu. Można o tym poczytać w moich wcześniejszych wpisach O symulacjach ludzkiego mózgu i Dwanaście technologii jutra, gdzie m.in. przywołuję prowadzone obecnie symulacje wykonywane za pomocą tzw. procesorów neuromorficznych. Tutaj chciałbym jednak pozostać przy podejściu optycznym, które można uważać za rozwiązanie docelowe, zarówno ze względu na dyskutowaną powyżej możliwość osiągnięcia maksymalnej dopuszczalnej w przyrodzie prędkości przesyłania informacji, jaki i z uwagi na możliwość przetwarzania informacji z niedostępną innymi metodami częstotliwością. Ponadto, podejście optyczne w sposób naturalny otwiera drogę do implementacji tak zwanej kwantowej sztucznej inteligencji (ang. quantum artificial intelligence) [5,6,7], ale o tym przy innej okazji.

Chociaż mogłoby się wydawać, że optyczna sieć neuronowa to nieuchronnie coś bardzo skomplikowanego i kosztownego, to prostą optyczną sieć neuronową może zbudować dosłownie Każdy, korzystając z powszechnie dostępnych elementów do budowy światłowodowych sieci internetowych. To zaś jak można to zrobić zarysuję poniżej i posłużę się tym przykładem do omówienia kilku wybranych aspektów optycznych implementacji sieci neuronowych.

20200317_113414
Prototyp optycznej sztucznej sieci neuronowej opartej o światłowody jednomodowe oraz dzielniki mocy (splittery). Źródłem światła jest laser, pracujący na długości fali 650 nm.

Do konstrukcji optycznej sieci neuronowej będziemy potrzebować sztuczne neurony oraz połączenia pomiędzy nimi. Te drugie możemy zrealizować wykorzystując światłowody, stosowane do komunikacji optycznej. Odcinki takich światłowodów można ze sobą łączyć stosując odpowiednie adaptery. Medium transmisyjne wykorzystywane w światłowodach to przeważnie domieszkowane szkło kwarcowe, dla którego współczynnik załamania n \approx 1.46, co daje prędkość propagacji sygnału v=c/n \approx 205\ 000 km/s, czyli około 70 \% prędkości światła w próżni.

Funkcją neuronów jest zbieranie sygnałów wejściowych z synaps i wytworzenie na ich podstawie sygnału wyjściowego. W biologicznych sieciach neuronowych, dodatkowym aspektem jest wytworzenie tak zwanego potencjału czynnościowego (ang. spike). Możliwość wytwarzania spike’ów jest brana pod uwagę w symulacjach mózgu, w szczególności z wykorzystaniem systemów neuromorficznych. Natomiast, są one zazwyczaj pomijane w uproszczonych modelach sieciach neuronowych stosowanych w uczeniu maszynowym. W tym przypadku, działanie sztucznego neuronu polega na zsumowaniu, z odpowiednimi wagami (synaptycznymi), sygnałów wejściowych i przetworzeniu takiej sumy przez tzw. funkcję aktywacji, otrzymując w ten sposób sygnał wyjściowy. Otrzymany sygnał jest następnie podawany na wejścia innych neuronów, lub też, na wejście tego samego neuronu. Do sytuacji bez tego typu pętli zalicza się sieć typu feedforward, na której skupimy poniżej naszą uwagę.

Najprostszą realizacją optycznego neuronu jest przypadek z liniową funkcją aktywacji,  dla którego neuron jest niczym innym jak sumatorem sygnałów wejściowych. Pomimo swojej prostoty, model ten jest wystarczający do tego by uchwycić podstawową ideę przetwarzania informacji przez sieć neuronową. Realizacją optyczną  neuronu-sumatora jest rozdzielacz (ang. splitter) światłowodowy. Dodatkowo, wagi na “synapsach” takiego optycznego neuronu można modyfikować stosując odpowiednio dobrane tłumiki mocy. W rozwiązaniu prototypowym widocznym na zdjęciu powyżej, wykorzystano standardowe rozdzielacze i połączenia stosowane przy budowie sieci światłowodowych. Całość układu można jednak znacząco zminiaturyzować stosując zintegrowane obwody fotoniczne, zawierajace sieci miniaturowych sztucznych neuronów.

Istota działania sieci neuronowych sprowadza się do wykrywania wzorów. Mogą to być zarówno wzory graficzne, dźwiękowe, lub też bardziej abstrakcyjne wzory związane z przetwarzaniem języka i wyższymi funkcjami poznawczymi. Rozpoznawanie wzoru w sieci neuronowej realizowane jest warstwowo. Żeby to zobrazować, posłużmy się przykładem rozważanej sieci optycznej,  z szesnastoma neuronami w warstwie wejściowej. Neurony te będą reprezentować 16 pikseli na mapie bitowej o rozmiarach 4×4. Łącznie mamy więc 2^{16} = 65536 możliwych binarnych konfiguracji wejściowych. W przypadku optycznym, stan “1” danego bitu oznacza wprowadzenie do obwodu światła o ustalonej mocy. Stan “0” to brak światła.  Ponieważ, w ogólności, możemy zmieniać w sposób ciągły natężenie świtała, dopuszczalnych analogowych stanów wejściowych jest nieskończenie wiele. Tutaj jednak, dla uproszczenia, zawęzimy rozważania do stanów binarnych.

Kolejna warstwa, a  zarazem jedyna tzw. warstwa ukryta, wykrywa  8 liniowych wzorów składowych, wynikających z zsumowania wybranych czterech pikseli w warstwie pierwszej. Są to pośrednie wzory z których w ostatniej (trzeciej) warstwie komponowane są wzory które nasza sieć ma za zadanie rozpoznać. Sytuację tę przedstawia rysunek poniżej:

Netork
Graf reprezentujący połączenia w prototypowej optycznej sztucznej sieci neuronowej, rozpoznającej wybrane 4 wzory na bitmapie o rozmiarach 4×4.

Zaprezentowany tu przykład optycznej sieci neuronowej jest niezwykle prosty i opiera się na dzieleniu mocy sygnałów optycznych. Z uwagi na liniowość funkcji aktywacji, uzasadnione było zastosowanie tylko jednej warstwy wewnętrznej. W celu wykrywania bardziej skomplikowanych wzorów, konieczne jest wprowadzenie nieliniowych funkcji aktywacji (np. sigmoidalnych) oraz większej ilości warstw. Wyzwanie to jest podejmowane w wielu aktualnych pracach nad optycznymi sieciami neuronowymi, zarówno klasycznymi, jak i tymi wykorzystującymi kwantową naturę światła.  Nad wdrożeniami takich rozwiązań pracują m.in.  takie startupy jak LightMatterXandu.

Implementacje te dotyczą “wąskiej” sztucznej inteligencji (Artificial Narrow Intelligence – ANI) nie zaś symulacji nakierowanych na stworzenie ogólnej sztucznej inteligencji (Artificial General Intelligence – AGI), nie wspominając nawet o superinteligencji. Faza ANI jest jednak przedsionkiem do dalszego rozwoju podejścia optycznego w kierunku AGI i ASI.  Warto ostatecznie podkreślić, że przetwarzanie informacji za pomocą światła rozważane jest nie tylko w kontekście sieci neuronowych, ale również (a obecnie nawet przede wszystkim) w kontekście akceleratorów optycznych, przyśpieszających działanie procesorów o standardowej, nieneuronalnej,  architekturze. Ponadto, korzyści płynące z wykorzystania światła nie polegają wyłącznie na wysokiej prędkość propagacji sygnału. W standardowym przewodzie elektrycznym, prędkość rozchodzenia się impulsu elektromagnetycznego jest również porównywalna z prędkością światła w próżni. Problemem jest natomiast dyssypacja energii w układach elektronicznych, która rośnie wraz z częstotliwością przetwarzania informacji.  Problem odprowadzania wytworzonego w ten sposób ciepła okazał się na tyle trudny, że częstotliwość taktowania naszych komputerów pozostaje praktycznie niezmieniona od przeszło dziesięciu lat i wynosi maksymalnie ~3,5 GHz. Wykorzystanie światła jako nośnika informacji otwiera drogę do wyjścia z tego impasu. Więcej informacji na ten temat można znaleźć w poniższym filmiku oraz w artykule [4].

Chciałbym na koniec dodać, że opisana tu przykładowa optyczna sieć neuronowa powstała dzięki zasobom Garażu Złożoności i Quantum Cosmos Lab, działających na Uniwersytecie Jagiellońskim. W ramach tych dwóch przedsięwzięć planujemy kolejne projekty związane z systemami neuromorficznymi, w szczególności opartymi o optyczne przetwarzanie informacji. Osoby zainteresowane współpracą w tym obszarze zachęcam do kontaktu.

Bibliografia

[1] R. Hamerly, L. Bernstein, A. Sludds, M. Soljačić, and D. Englund  Large-Scale Optical Neural Networks Based on Photoelectric Multiplication Phys. Rev. X 9, 021032 (2019).
[2] Xiao-Yun Xu  et al. A scalable photonic computer solving the subset sum problem, Science Advances,  Vol. 6, no. 5, eaay5853 (2020).
[3] Y. Zuo, B. Li, Y. Zhao, Y. Jiang, Y. Chen, P. Chen, G. Jo, J. Liu, and S. Du, All-optical neural network with nonlinear activation functions, Optica 6, 1132-1137 (2019).  
[4] K. Kitayama et al.,  Novel frontier of photonics for data processing – Photonic accelerator, APL Photonics 4, 090901 (2019)
[5] G.R. Steinbrecher, J.P. Olson , D. Englund et al. Quantum optical neural networks, npj Quantum Inf 5, 60 (2019).
[6] F. Tacchino, C. Macchiavello, D. Gerace et al. An artificial neuron implemented on an actual quantum processor, npj Quantum Inf 5, 26 (2019).
[7] J. Biamonte, P. Wittek, N. Pancotti et al. Quantum machine learningNature 549, 195-202 (2017).

© Jakub Mielczarek

Wykładnicza strona świata

Wszystko wskazuje na to, że nie mieliśmy w historii świata sytuacji w której równie świadomie i szeroko ludzkość odczuła potęgę wzrostu wykładniczego, jak ma to miejsce obecnie. I chociaż śmiercionośne pandemie nawiedzały świat w przeszłości, to dopiero dzięki obecnemu stopniowi informatyzacji jesteśmy w stanie tak precyzyjnie, z dnia na dzień, śledzić ich globalny przebieg, niczym notowania na giełdzie.

Jednakże, pomimo powszechnego dostępu do wiedzy i informacji, wykładniczy charakter początkowej fazy rozwoju epidemii wywołanej zarażeniem wirusem SARS-CoV-2 spowodował duże zaskoczenie. Obserwowaliśmy i wciąż obserwujemy, jak w poszczególnych krajach ilość zidentyfikowanych przypadków zarażeń rośnie z tygodnia na tydzień, najpierw od kilku do kilkudziesięciu, następnie do kilkuset, w kolejnych tygodniach do kliku tysięcy, aż do dziesiątek i setek tysięcy. O ile więc, początkowe wzrosty mogą uśpić czujność, prowadząc nierzadko do nieadekwatnych reakcji, to po nietypowo krótkim czasie sytuacja rozwija się do poziomu trudnego do opanowania.

Zachowanie takie wymyka się intuicji naszych mózgów przyzwyczajonych do ekstrapolacji liniowych, co najwyżej parabolicznych, ale nie wykładniczych.     A systematyczne przyrosty o rząd wielkości, w stałym okresie czasu, są właśnie przykładem zależności wykładniczej. Zachowanie takie dotyczy nie tylko początkowej fazy rozwoju epidemii, ale przejawia się w niezliczonej ilości procesów, na przestrzeni skal od mikroświata aż po obserwowalny Wszechświat. Wykładniczość jest więc czymś  powszechnym i ważnym dla zrozumienia otaczającego nas świata. Stwierdzenie to odnosi się nie tylko do zjawisk naturalnych, ale również do opisu pewnych aspektów cywilizacji technologicznej, będącej wytworem aktywności ludzkiej.

W większości przypadków,  zależności wykładnicze umykają jednak naszej percepcji, co ma związek z charakteryzującymi je skalami czasowymi. Są one albo zbyt długie (lata) albo zbyt krótkie (ułamki sekund). Stąd też tak słabo jesteśmy z nimi oswojeni. Obecna epidemia, wywołana koronawirusem, jest na tym tle sytuacją dosyć wyjątkowa gdyż, zarówno charakteryzujące ją skale czasowe (czasy podwojenia) wynoszą typowo kilka-kilkanaście dni (umożliwiając „odczucie” dynamiki procesu),  jak i z uwagi na bezpośrednie tragiczne skutki jakie za sobą niesie, co zaś potęguje nasze zainteresowanie jej przebiegiem. A skoro już takie niesprzyjające okoliczności wystąpiły, postarajmy się je przynajmniej wykorzystać do lepszego zrozumienia zachowań wykładniczych.

Żeby wyjaśnić istotę procesu wykładniczego posłużę się przykładem  bakterii. Bakteria, w ustalonym środowisku, potrzebuje z grubsza stałego czasu, żeby dokonać podziału. W zależności od typu bakterii może on wynosić od kilkunastu minut do nawet doby. Nazwijmy ten czas \tau. A więc, z wyjściowo jeden bakterii, po czasie \tau, otrzymamy dwie bakterie. Każda z tych bakterii, po upływie kolejnego interwału \tau, ulegnie podziałowi, dając łącznie cztery mikroorganizmy. Zatem, jeśli dla czasu t=0 mamy jedną bakterię, to dla czasu t=\tau liczba bakterii wynosi 2, dla t=2\tau liczba ta wynosi 2 \cdot 2=4, dla t=3\tau otrzymamy 2\cdot 2\cdot 2=8, itd., co obrazuje rysunek poniżej:

Graph

Z matematycznego punktu widzenia, jest to przykład postępu geometrycznego z ilorazem ciągu równym 2. A więc, każdorazowo,  po upływie czasu \tau, liczba bakterii podwaja się. Dlatego też, czas \tau nazywamy czasem podwojenia.

Stąd już łatwo dojść do wniosku, że aby wyznaczyć ilość komórek po n podziałach (dla czasu t=n\tau), należy pomnożyć przez siebie n-krotnie czynnik 2, czyli, innymi słowy, musimy wyliczyć 2^n. Wyrażając n poprzez czas t, dostajemy zaś 2^{t/\tau}. Traktując t jako liczbę rzeczywistą, otrzymujemy przykład funkcji wykładniczej o podstawie 2.  W praktyce, jako podstawę funkcji wykładniczej często wykorzystuje się liczbę e=2,71828..., co jest wygodne obliczeniowo. Otrzymaną w ten sposób funkcję wykładniczą nazywamy eksponentą.  Tutaj jednakże, dla uproszczenia, ograniczymy się do przypadku z dwójką.

Dopóki koncentracja bakterii jest niska i dostęp do zasobów nieograniczony, opisany powyżej wzrost wykładniczy dobrze opisuje wzrost populacji. Zależność ta jest  wykorzystywana chociażby w przypadku standardowych testów mikrobiologicznych na szalce Petriego, gdzie jedna bakteria potrzebuje odpowiedniej liczby podziałów, aby rozwinąć się do widocznej nawet gołym okiem kolonii. Opis wykładniczy  zaczyna się jednak załamywać, kiedy ilość namnożonych bakterii staje się odpowiednio duża a dostęp do składników budulcowych, potrzebnych do kolejnych podziałów, zaczyna być ograniczony.  Dobry opis matematyczny takiej sytuacji daje tak zwana krzywa logistyczna, która dla odpowiednio małych wartości czasu pokrywa się z trendem wykładniczym, lecz w pewnym momencie przegina się i następuje „saturacja” na ustalonej wartości.   

Wykresy funkcji wykładniczej (czerwony) oraz krzywej logistycznej (niebieski) przedstawiają rysunki poniżej:

ExpLog

Po lewej stronie znajdują się wykresy na skali liniowej. Po prawej stronie przedstawiono te same funkcje, lecz na skali logarytmicznej, na której funkcja wykładnicza staje się linią prostą.

Podstawowe modele epidemiologiczne, takie jak model SIS [1], z punktu widzenia matematycznego są równoważne powyższemu opisowi rozwoju populacji bakterii. W uproszczeniu, w przypadku takim, czas podwojenia odpowiada średniemu czasowi niezbędnemu do zarażenia przez osobę zakażoną kolejnej osoby. Ograniczając liczbę możliwych kontaktów, można ten czas wydłużyć, spowalniając tempo rozwoju epidemii. Zidentyfikowanie zaś zainfekowanych osób i uniemożliwienie im dalszego rozprzestrzeniania patogenu, może zaś cały proces wygasić. W uproszczeniu, proces taki można opisać właśnie krzywą logistyczną. Jeśli nie podjęto by żadnych środków zapobiegawczych, trend również uległ by wypłaszczeniu (jak dla krzywej logistycznej) z tą różnicą jednak, że nastąpiłoby to dla wartości porównywalnej z liczebnością całej populacji.     

Powyżej skupiliśmy naszą uwagę na wzroście wykładniczym. Równie dobrze możemy jednak mówić o wykładniczym spadku. Powszechnie znanym przykładem takiego zachowania jest rozpad promieniotwórczy.  Weźmy np. N atomów Polonu 210, dla którego czas połowicznego rozpadu wynosi około  \tau=138 dni. Oznacza to, że po czasie  \tau, z początkowych N atomów pozostanie średnio N/2. Po upływie kolejnego \tau, będziemy mieli już tylko N/4 atomów Polonu. Jak widać, to co właśnie robimy, to dzielenie wyjściowej liczby atomów przez kolejne potęgi dwójki. W ogólności, po upływie czasu t,  pozostanie więc n(t)=N/2^{t/\tau}=N2^{-t/\tau} atomów. Jest to przykład tak zwanego zaniku wykładniczego. Nawiasem mówiąc, to właśnie dosyć wyjątkowy (nie za krótki i nie za długi) czas połowicznego rozpadu Polonu 210 stoi za złą sławą tego izotopu, jako wyrafinowanego środka unicestwienia.  Przyjemniejsza strona wykładniczego zaniku przejawia się zaś w opadaniu piany w chłodnym, nasyconym dwutlenkiem węgla napoju dla osób pełnoletnich. Jak wskazują wyniki eksperymentów, czas połowicznego zaniku wynosi w tym przypadku około minuty [2]. Nie warto więc zbyt długo czekać z degustacją.   

Ale zachowania wykładnicze, to nie tylko sprawy przyziemne. Jak wskazują obserwacje astronomiczne, ewolucja objętości naszego Wszechświata przebiega w sposób bliski wykładniczemu, co jest związane z obecnością tak zwanej ciemnej energii, odkrycie której uhonorowano w 2011 roku Nagrodą Nobla w dziedzinie fizyki [3]. Aktualny czas podwojenia dla Wszechświata wynosi kilkanaście miliardów lat.  Ale to nie wszystko, obserwacje astronomiczne wspierają również tak zwany model inflacyjny, w którym młody wszechświat podlegał wykładniczemu “puchnięciu” z niewyobrażalnie małym czasem podwojenia rzędu 10^{-38} sekundy [4].

Około 13.8 miliardów lat później, w pewnym zakątku Wszechświata, rozwinęła się Cywilizacja, tworząca artefakty których poziom złożoności sam zaczął podążać w sposób wykładniczy. Sztandarowym przykładem jest tu prawo Moore’a, opisujące ilość tranzystorów w mikroprocesorze, dla którego podwojenia wynosi w przybliżeniu 2 lata [5]. Podobne prawo spełnia również moc obliczeniowa najszybszego dostępnego na świecie superkomputera, rosnąca z czasem podwojenia równym około 14 miesięcy [6]. Znanym badaczem tego typu zależności jest wynalazca i futurolog Ray Kurzweil. W jego książce The Singularity is Near  można znaleźć wiele przykładów trendów wykładniczych ze świata technologii [7]. Są one niezwykle przydatnym narzędziem futurologii analitycznej, pozwalającym przewidzieć szereg nowych możliwości jakie otworzą się przed nami w perspektywie 10-20 lat.

Na podstawie swoich analiz, Kurzweil doszedł do wniosku, że ilość wytwarzanej przez cywilizację techniczną wiedzy może rosnąć wykładniczo lub też szybciej niż wykładniczo, a kluczowym katalizatorem tego procesu stanie się sztuczna inteligencja. W tym drugim przypadku, model matematyczny przewiduje, że w skończonym czasie, ilość wiedzy będzie dążyć do nieskończoności. Obserwacja ta doprowadziła do sformułowania hipotezy tak zwanej osobliwości technologicznej [7]. To czy faktycznie zbliżamy się do takiego stanu jest kwestią dyskusyjną. Niewątpliwe jednak należy się takiej możliwości starannie przyglądać, gdyż procesy te mogą okazać się kluczowe jeszcze w obecnym stuleciu. Jak to już również podkreśliłem, w przypadku zależności wykładniczych, początki bywają bardzo niewinne. Jednakże, po przekroczeniu pewnego poziomu, wykładniczy charakter zaczyna ujawnia swoją moc. Warto więc zachować czujność.

Dużo, rzecz jasna, zależy również od tego jak nisko leży próg odczuwalności danego procesu. W większości przypadków, by go osiągnąć, wystarczy kilka wielokrotności czasu podwojenia. W przypadku epidemii, przy załóżmy 4-dniowym czasie podwojenia (co jest dobrym przybliżeniem dla wielu lokalnych faz epidemii COVID-19 [8]), zmiana ze 100 na 200 zakażonych w przeciągu 4 dni może nie być jeszcze tak przerażająca.  Natomiast, po kolejnych około 10 dniach spotkamy się z sytuacją kiedy liczba zidentyfikowanych zarażonych równa 1000, w przeciągu kolejnych 4 dni, wzrośnie do 2000. Takie wzrosty zaczynają odsłaniać siłę procesu wykładniczego. Później, niestety, jest już tylko gorzej.

Ważne jest więc, by nie bagatelizować zależności wykładniczych,   oczekując ich rychłego samoistnego „wypłaszczenia”. Jednym z najbardziej niepokojących współczesnych trendów wykładniczych jest skumulowana antropogeniczna emisja dwutlenku węgla do atmosfery [9]. Jak wiadomo, obecność dwutlenku węgla, poprzez absorpcję promieniowania termicznego z Ziemi, prowadzi do efektu cieplarnianego i w konsekwencji do zmian klimatycznych. Miejmy nadzieję, że trudne aktualne doświadczenia pozwolą nam Wszystkim lepiej uzmysłowić sobie znaczenie również tego zagrożenia.

Bibliografia

[1] R. V. Sole, Phase Transitions, Princeton University Press 2011.
[2] A. Leike, Demonstration of the exponential decay law using beer front.  European Journal of Physics, Vol. 23, No. 1, 21-26, 2001.
[3] The Accelerating Universe – Scientific Background on the Nobel Prize in Physics 2011: https://www.nobelprize.org/uploads/2018/06/advanced-physicsprize2011.pdf
[4] https://www.astro.caltech.edu/~ccs/Ay21/guth_inflation.pdf
[5] G. E. Moore, Cramming more components onto integrated circuits, Electronics, Vol. 38, No. 8, 1965.
[6] https://www.top500.org/
[7] R. Kurzweil, The Singularity is Near, Penguin Books 2006.
[8] https://ourworldindata.org/
[9] D. J. Hofmann, J. H. Butler, P. P. Tans, A new look at atmospheric carbon dioxide, Atmospheric Environment, Vol. 43, Issue 12, 2084-2086, 2009.

  © Jakub Mielczarek

Artykuł został opublikowany na portalu Polish Brief.

Technologie kwantowe a cyberbezpieczeństwo

Jednym z najważniejszych filarów bezpieczeństwa w cyberprzestrzeni jest kryptografia. Z punktu widzenia jednostki, m.in. to dzięki kryptografii możliwe jest korzystanie z systemów bankowości elektronicznej, dokonywanie zakupów online, zachowanie prywatności w komunikacji internetowej, czy też zapewnienie poufności naszej dokumentacji medycznej w medycznych systemach teleinformatycznych.   Z punktu widzenia Państwa, kryptografia to zaś kluczowy element tarczy chroniącej przed cyberatakami na strategiczne komponenty (zarówno infrastrukturę fizyczną, jak i zasoby cyfrowe) oraz narzędzie umożliwiające wymianę i przechowywanie informacji niejawnej, o podstawowym znaczeniu dla interesu i bezpieczeństwa Państwa.

Rozwój technologii kwantowych, opartych na niezwykłych własnościach mikroświata, ma z punktu widzenia cyberbezpieczeństwa znaczenie dwojakie. Z jednej strony, kwantowe przetwarzanie informacji dostarcza nowej metody prowadzenia ataków na klasyczne systemy kryptograficzne, poprzez tzw. kryptoanalizę kwantową. Państwa lub organizacje, które wejdą w posiadanie zaawansowanych systemów umożliwiających prowadzenie obliczeń kwantowych będą więc dysponowały nowym narzędziem stanowiącym potencjalne zagrożenie dla cyberbezpieczeństwa. Z drugiej zaś strony, technologie kwantowe dostarczają zupełnie nowych rozwiązań kryptograficznych, które mogą pozwolić osiągnąć poziom bezpieczeństwa w wymianie i magazynowaniu informacji, niedostępny z wykorzystaniem kryptografii klasycznej. W szczególności, rozwiązania takie mogą uchronić przed atakami z wykorzystaniem kryptoanalizy kwantowej.    

To czy technologie kwantowe ostatecznie obniżą poziom cyberbezpieczeństwa, czy też tylko go wzmocnią, zależy zarówno od tempa i zakresu postępów w rozwoju technologii kwantowych oraz decyzji państw i organizacji międzynarodowych w zakresie wdrażania rozwiązań odpornych na kryptoanalizę kwantową [1].  Z uwagi na wysokie koszty oraz unikalną wiedzę i doświadczenie, które są niezbędne do rozwoju technologii kwantowych, realne są scenariusze w których zarówno zabezpieczenie cyberprzestrzeni przed atakami, jak i wejście w posiadanie kwantowych narzędzi kryptoanalitycznych, będzie postępowało bardzo niejednorodnie. Stanowić to więc może realne zagrożenie dla krajów nie należących do światowej czołówki w obszarze nauki i techniki.

Kryptoanaliza kwantowa

Zagrożenie związane z kryptoanalizą kwantową wynika z możliwości redukcji tak zwanej złożoności obliczeniowej problemów, na których opierają się algorytmy kryptografii klasycznej. Wiąże się to z występowaniem paralelizmu kwantowego (Dodatek A), który jest możliwy do zrealizowania poprzez wykonanie algorytmów kwantowych na odpowiednio zaawansowanych komputerach kwantowych.  Kwantowa redukcja złożoności jest teoretycznie możliwa zarówno w przypadku kryptografii symetrycznej (z tajnym kluczem), jak i kryptografii asymetrycznej (z kluczem publicznym). Otrzymywany, dzięki algorytmom kwantowym, stopień redukcji złożoności jest jednak zasadniczo różny dla tych dwóch przypadków.  W konsekwencji, niektóre stosowane obecnie algorytmy kryptografii symetrycznej pozostaną niepodatne na kryptoanalizę kwantową. Natomiast, np. wykorzystywane powszechnie w bankowości elektronicznej,  systemach płatniczych, czy też  rozwiązaniach opartych o technologię Blockchain, algorytmy kryptografii asymetrycznej zostaną wystawione na potencjalne zagrożenie.

Przedyskutujmy powyższą kwestię bardziej szczegółowo. W przypadku kryptografii symetrycznej, siła zabezpieczenia opiera się, w dużej mierze, na wielkości przestrzeni tajnego  klucza. Przykładowo, dla stosowanego powszechnie  algorytmu symetrycznego AES (Advanced Encryption Standard) z kluczem 256 bitowym, przestrzeń klucza posiada N = 2256 elementów, co jest w przybliżeniu równe jeden i 77 zer. Przeszukanie tak ogromnego zbioru w poszukiwaniu tajnego klucza jest praktycznie niemożliwe, zarówno korzystając z obecnych, jak i możliwych do przewidzenia przyszłych zasobów obliczeniowych.

Zastosowanie algorytmów kwantowych pozwoli przyśpieszyć proces poszukiwania przestrzeni klucza w ataku siłowym (ang. brute force). Mianowicie, jak pokazał w 1996 roku Lov Grover, wykorzystanie obliczeń kwantowych pozwala zredukować średnią ilość prób potrzebnych do znalezienia elementu w nieuporządkowanym N elementowym zbiorze z N/2 do pierwiastka kwadratowego z N, czyli N1/2. Oznacza to, że w przypadku AES-256, komputer kwantowy będzie wciąż potrzebował wykonać około N1/2=2128 prób w celu znalezienia tajnego klucza. Nawet więc dysponując komputerem kwantowym, na którym zaimplementowany mógłby zostać algorytm Grover’a, siła szyfru pozostanie na poziomie porównywalnym z AES z kluczem 128 bitowym. Jest to zabezpieczenie zupełnie wystarczający dla większości standardowych sytuacji.

Rzecz ma się jednak inaczej w przypadku szyfrów kryptografii asymetrycznej (z kluczem publicznym). Istota kryptografii asymetrycznej opiera się na trudności  obliczeniowej pewnych operacji matematycznych, dla których zaś operacja „przeciwna” jest łatwa do przeprowadzenia. Do najbardziej znanych przykładów algorytmów tego typu zaliczają się DH (Diffie-Hellman), RSA (Rivest-Shamir-Adleman) oraz ECC (Elliptic Curve Cryptography). Algorytm DH jest oryginalnie pierwszą propozycją kryptografii z kluczem publicznym a trudnym problemem jest tutaj znajdowanie tak zwanego logarytmu dyskretnego (logarytmu określonego na skończonym zbiorze liczb). Z kolei, popularny algorytm RSA wykorzystuje złożoność obliczeniową rozkładu liczby na czynniki pierwsze (zagadnienie faktoryzacji). Wadą algorytmów DH i RSA jest konieczność stosowania stosunkowo długich kluczy (obecnie powszechnie stosuje się klucze 2048 bitowe). Problem ten rozwiązuje zastosowanie algorytmów ECC, wykorzystujących problem złożoności logarytmu dyskretnego dla działania zdefiniowanego na krzywej eliptycznej. Poziom bezpieczeństwa porównywalny z DH lub RSA z kluczem 2048 bitwym otrzymamy stosując algorytm ECC z kluczem 224 bitowym. Między innymi z tego powodu, algorytmy ECC znalazły szerokie zastosowanie w technologii Blockchain.

Okazuje się, że trudność obliczeniową na której oparte są przytoczone powyżej algorytmy kryptografii asymetrycznej można sprowadzić do zagadnienia znalezienia okresu pewnej funkcji. O ile jednak, znajdowanie okresu funkcji jest z perspektywy komputerów klasycznych zadaniem trudym obliczeniowo, nie jest już takim dla komputerów kwantowych. Mianowicie, jak pokazał w 1994 roku Peter Shor, obliczenia kwantowe pozwalają zredukować złożoność problemu znajdowania okresu funkcji z  problemu wykładniczego w funkcji ilości bitów danej liczby do problemu wielomianowego klasy BPQ (Dodatek B). Fakt ten jest głównym źródłem zagrożenia związanego z kryptoanalizą kwantową.

CyberSec
Obwód kwantowy dla algorytmu Shora na tle fragmentu książki Georga Orwella 1984, zakodowanej za pomocą kolorów przez Hyo Myoung Kima [cała książka].

W optymalnej konfiguracji, Algorytm Shora dla przypadku z kluczem n-bitowym wymaga rejestru kwantowego zawierającego 2n+3 kubity logiczne. Dla algorytmu RSA-2048 są to więc 4099 kubity logiczne. Jednakże, z uwagi na błędy występujące w fizycznych realizacjach komputerów kwantowych, konieczne jest stosowanie rozbudowanych systemów kwantowej korekcji błędów. Zastosowanie korekcji błędów wymaga użycia co najmniej pięciu fizycznych kubitów do zakodowania jednego kubitu logicznego. Absolutnie minimalna liczba fizycznych kubitów, potrzebnych do przeprowadzenia kwantowej kryptoanalizy algorytmu RSA-2048 na komputerze kwantowym, jest więc rzędu 20 000. W praktyce jednak, konieczne może się okazać wykorzystanie dużo większej ilości kubitów pomocniczych, co może zwiększyć tę liczbę do setek tysięcy lub nawet milionów kubitów. Równie ważną kwestią jest osiągnięcie odpowiednio długiego czasu koherencji, gdyż realizacja powyższego algorytmu będzie wymagać przynajmniej 107 kroków obliczeniowych.

Oszacowane powyżej wielkości mogą wydawać się zupełnie abstrakcyjne z perspektywy dostępnych dzisiaj możliwości przeprowadzania obliczeń kwantowych. Dla przykładu, najbardziej zaawansowany komputer kwantowy firmy Google posiada 53 kubity i jest w stanie wykonać kilkanaście kroków obliczeniowych. Jednakże, przyjmując hipotetyczny wykładniczy charakter rozwoju technologii kwantowych (analogiczny do prawa Moore’a), osiągnięcie poziomu miliona kubitów jest realne w perspektywie 30 lat. Załóżmy, że skala czasowa podwojenia ilości kubitów w procesorze kwantowym będzie wynosiła około 2 lata (podobnie jak obecnie ma to miejsce w przypadku liczby tranzystorów w procesorach klasycznych). W takim przypadku, w kolejnych latach możemy prognozować wartości: 100 (2021), 200 (2023), 400 (2025), 800 (2027), 1600 (2029), 3200 (2031), 6400 (2033), 12800 (2035), 25600 (2037), 51200 (2039), 102400 (2041), 204800 (2043), 409600 (2045), 819200 (2047), 1638400 (2049), … . Zgodnie z tą naiwną ekstrapolacją, poziom milionów kubitów powinien zostać osiągnięty do roku 2050. Istnieją również bardziej optymistyczne prognozy, wskazujące na możliwość nawet podwójnie wykładniczego rozwoju technologii kwantowych („prawo” Neven’a).

W kontekście kryptoanalizy, warto przywołać także przypadek funkcji skrótu (ang. hash functions), które są nieodzownym elementem współczesnych protokołów kryptograficznych.  Do najpowszechniejszych z nich należą: MD4, MD5, SHA-1, SHA-2 i SHA-3. Kryptoanaliza siłowa funkcji skrótu jest zasadniczo podobna do przypadku kryptografii symetrycznej i opiera się na wykorzystaniu algorytmu Grovera. W przypadku SHA-3 ze skrótem 512 bitowym, odporność na tzw. preimage attack jest więc na poziomie algorytmu symetrycznego z kluczem 256 bitowym. Tego samego poziomu jest odporność na ataki kolizyjne. Z uwagi na tę niepodatność na kryptoanalizę kwantową, funkcje skrótu rozpatruje się jako jeden z najbardziej obiecujących komponentów tak zwanej kryptografii postkwantowej.

Kryptografia postkwantowa

Kryptografia postkwantowa [2] jest odpowiedzią na potencjalne zagrożenie związane z  kryptoanalizą kwantową algorytmów klasycznej kryptografii asymetrycznej. Z uwagi na to, że kwantowe przyśpieszenie wykładnicze (Dodatek A) nie występuje w przypadku problemu przeszukiwania przestrzeni klucza, nie istnieją obecnie podstawy do obaw o bezpieczeństwo silnych algorytmów kryptografii symetrycznej, takich jaki AES-256, czy też algorytmów opartych na funkcjach skrótu.

Potencjalne zagrożenie związane z kwantową kryptoanalizą algorytmów kryptografii asymetrycznej nie może jednak zostać zbagatelizowane. Nawet jeśli kwantowe możliwości obliczeniowe umożliwiające kryptoanalizę RSA z kluczem 2048 bitowym pojawią się dopiero za 30 lat, należy podejmować działania zapobiegawcze. Po pierwsze, wynika to z faktu, że proces wdrażania (standaryzacja i implementacja) nowych rozwiązań kryptograficznych jest długotrwały, wymagając zarówno prac badawczych, szeroko zakrojonych testów podatności na kryptoanalizę, jak i samej implementacji w ramach istniejących systemów informatycznych. Po drugie, wiele zaszyfrowanych informacji pozostaje wrażliwymi przez okres kilkudziesięciu lat. Ich przechowywanie (jako szyfrogramy) i odszyfrowanie w momencie pojawienia się odpowiednich możliwości obliczeniowych, może doprowadzić nawet do ogólnoświatowego kryzysu. Dla przykładu, dostępne publicznie mogą stać się dane osobowe, transakcje bankowe, dane medyczne milionów osób, co otworzy szereg możliwości działań natury przestępczej.  Ponadto, zgodnie z Art. 25 ustawy z dnia 22 stycznia 1999 r. o ochronie informacji niejawnych: „Informacje niejawne stanowiące tajemnicę państwową podlegają ochronie, w sposób określony ustawą, przez okres 50 lat od daty ich wytworzenia.” Biorąc pod uwagę możliwość wykorzystania algorytmów kryptografii asymetrycznej do przetwarzania tego typu informacji (chociażby poprzez wykorzystanie kryptografii asymetrycznej do wymiany klucza), realność kryptoanalizy kwantowej w perspektywie 30 lat stawia pod znakiem zapytania bezpieczeństwo przetwarzanej obecnie informacji niejawnej, stanowiącej tajemnicę państwową.

Z uwagi na zagrożenia powyższego typu, w 2016 roku amerykański Narodowy Instytut Standaryzacji i Technologii (NIST) ogłosił program opracowania standardu kryptografii postkwantowej, odpornego na kryptoanalizę kwantową. Proces ten przebiega na zasadzie konkursu, podobnie jak to wcześniej miało miejsce np. w przypadku standardu AES. Obecnie, w drugiej rundzie, rozważana jest pula  26 propozycji. W pierwszej rundzie, z początkowych 250 zgłoszeń wybranych zostało 69 najbardziej obiecujących rozwiązań. Cały proces ma zostać zakończony do roku 2022. Rozpatrywany wachlarz rozważanych algorytmów kryptografii postkwantowej jest szeroki.  Do najbardziej obiecujących kierunków należą zaś:

  • Algorytmy kratowe (ang. lattice-based cryptography)
  • Algorytmy  oparte na kodach korekcyjnych (ang. code-based cryptography)
  • Kryptografia wielu zmiennych (ang. multivariate cryptography)
  • Podpis elektroniczny opary o funkcje skrótu (ang. hash-based signatures)

Z uwagi na subtelną naturę rozwiązań kryptograficznych, standaryzacja jest kluczowym elementem poprzedzającym szeroką implementacji nowych algorytmów. Etap ten  jest długotrwały i powiązany jest z badaniem odporności danych rozwiązań na ataki kryptologiczne. Należy mieć jednak na uwadze to, że nawet pomyślne wyłonienie nowego standardu nie gwarantuje późniejszego długotrwałego  bezpieczeństwa. Wiązać się to może zarówno z odkryciem niezauważonych wcześniej słabości rozwiązań, z pojawieniem się nowych schematów ataków oraz nowymi możliwościami obliczeniowymi. Dla przykładu, zaprojektowany na zlecenie NIST i stosowany od połowy lat siedemdziesiątych ubiegłego wieku symetryczny szyfr DES (z kluczem efektywnie 56 bitowym), okazał się możliwy do złamania już po 20 latach od jego wprowadzenia.

Fakt iż, możliwości kryptoanalizy szyfrów kryptografii postkwantowej są wciąż stosunkowo słabo poznane, istnienie realna obawa, że nawet wyłonione w procesie standaryzacji rozwiązania będą podatne na pewne typy ataków. Dlatego też, w początkowej fazie implementacji wydaje się zasadne opieranie się w jak największym stopniu na dobrze zbadanych elementach obecnych systemów kryptograficznych, takich jak funkcje skrótu lub kody korekcyjne. 

O ile proces standaryzacji prowadzony przez NIST jest w toku, w ramach niezależnych projektów podano już pewne rekomendacje co do algorytmów kryptografii postkwantowej. W szczególności, europejski projekt  PQCRYPTO, finansowany w ramach programu Horyzont 2020, rekomendował AES-256 i  Salsa20 z kluczem 256 bitowym jako postkwantowe algorytmy kryptografii symetrycznej. Dla kryptografii asymetrycznej, rekomendowany został natomiast szyfr McEliece’a, będący przykładem algorytmu opartego na kodach korekcyjnych [3]. 

Certyfikowana kwantowa przypadkowość

Jednymi z komponentów systemów kryptograficznych, mającymi fundamentalne znaczenie z punktu widzenia bezpieczeństwa,  są generatory liczb losowych. W praktyce, są to generatory liczb pseudolosowych, co na przykład w przypadku szyfrów strumieniowych (wykorzystywanych np. do zabezpieczania  transmisji w telefonii komórkowej) jest własnością pożądaną. Jednakże, już w przypadku generowania kluczy (będących ciągami bitów) oczekujemy niepowtarzalnej przypadkowości. Dotyczy to zarówno kluczy wykorzystywanych w kryptografii symetrycznej, jak i asymetrycznej.

Błędy w implementacji generatorów pseudolosowych mogą istotnie wpłynąć na obniżenie bezpieczeństwa, wykorzystujących je algorytmów kryptograficznych. Znanym przykładem jest wykazanie istnienia „tylnej furtki” w generatorze pseudolosowym Dual_EC_DRBG. Ujawnione przez Edwarda Snowdena informacje na temat programu deszyfrażu Bullrun, sugerują, że obecność furtki mogło być  działaniem celowym amerykańskiej National Security Agency (NSA) [4].  O ile więc furtki takie mogą być wprowadzane celowo przez agencje dbające o bezpieczeństwo publiczne, ich obecność stwarza również możliwość wykorzystania przez osoby, instytucje i państwa nieprzyjazne. 

Probabilistyczna natura mechaniki kwantowej stwarza atrakcyjną możliwość budowy generatorów losowych. Co więcej, rozwiązania takie są już dostępne komercyjnie.  Jednakże, otwarte zostaje potencjalne zagrożenie związane z wykorzystaniem  możliwych „tylnych furtek” w tego typu rozwiązaniach. Dlatego też, dąży się do opracowania rozwiązań które będą gwarantowały zarówno losowość, jak i niepodatność na ataki, zarówno na poziomie sprzętu, jak i oprogramowania.

Jednym z pojeść do tego zagadnienia jest wykorzystanie trudności obliczeniowej problemu przewidzenia rozkładu prawdopodobieństwa pomiarów dla odpowiednio dużych pseudolosowo-generowanych obwodów kwantowych. Własność tę można wykorzystać do generowania certyfikowanych kwantowo losowych ciągów binarnych (ang. certified quantum randomness) [5]. Losowość otrzymanego ciągu bitów jest zagwarantowana złożonością obliczeniową problemu przewidzenia z jakim prawdopodobieństwem dany ciąg może zostać wygenerowany przez obwód kwantowy. Ponadto, nawet kiedy źródło generatora obwodów zostałoby upublicznione, wygenerowane wartości losowe zachowają prywatność.

Metoda ta może być pomyślnie stosowana już z wykorzystaniem dostępnych obecnie komputerów kwantowych, posiadających kilkadziesiąt (zaszumionych) kubitów fizycznych. Dowodem na to jest niedawny rezultat otrzymany za pomocą komputera kwantowego opracowanego przez firmę Google. Rozważane zagadnienie próbkowaniem (ang. sampling), które przeprowadzono na 53 kubitowym procesorze może zostać zaadoptowane do zapewnienia certyfikowanej kwantowej przypadkowości [6].

Zastosowanie certyfikowanej kwantowej generacji kluczy może istotnie wzmocnić bezpieczeństwo zarówno konwencjonalnej kryptografii (asymetrycznej i symetrycznej) jak i algorytmów kryptografii postkwantowej. Jest to przykład rozwiązania hybrydowego w którym wykorzystuje się połączenie znanych i możliwych do zastosowania algorytmów kryptografii klasycznej z najnowszymi osiągnięciami w obszarze obliczeń kwantowych.

Kwantowa dystrybucja klucza

Nawet jeśli jest to możliwe w niepraktycznie dużych skalach czasowych, algorytmy kryptografii klasycznej, z wyłączeniem szyfru z kluczem jednorazowym (ang. one-time pad), są zawsze możliwe do złamania. Mechanika kwantowa dostarcza jednakże teoretycznie niepodatnej na kryptoanalizę metody szyfrowania informacji.  Opracowywaniem tego typu rozwiązań zajmuje się kryptografia kwantowa.

Kwantowa dystrybucja klucza (ang. quantum key distribution – QKD) [7] jest, rozważaną w ramach kryptografii kwantowej,  metodą bezpiecznego przesyłania sekretnego klucza za pośrednictwem stanów kwantowych pojedynczych fotonów. Metoda ta wykorzystuje kwantowe własności mikroświata (w szczególności, tak zwane twierdzenie o  zakazie klonowania kwantowego) do przesyłania informacji. Ponieważ przepustowość wykorzystywanych do QKD tzw. kanałów kwantowych nie dorównuje tym osiąganym w klasycznych łączach światłowodowych oraz radiowych, łącza kwantowe wykorzystywane są obecnie do przesyłania sekretnych kluczy, pozwalających zaszyfrować (klasyczną) wiadomość, nie zaś do transmisji samej wrażliwej informacji.  Udostępniony, za pośrednictwem QKD, klucz może być wykorzystany do zaszyfrowania danych np. z użyciem silnego symetrycznego szyfru AES-256.

Kwantowa dystrybucja klucza jest rozwiązaniem,  które zostało już wdrożone do komercyjnego użytku.  Jednakże, dostępne obecnie rozwiązania posiadają jedno kluczowe ograniczenie. Mianowicie, jest to dystans, na który możemy przesłać zabezpieczoną kwantowo informację. Wiąże się to z tłumieniem fotonów w światłowodzie i koniecznością stosowania skomplikowanych tzw. powielaczy kwantowych. Obiecującym rozwiązaniem tego problemu jest przesyłanie fotonów z zakodowaną kwantowo informacją poprzez atmosferę oraz przestrzeń kosmiczną. Udane próby międzykontynentalnej QKD z wykorzystaniem kwantowych technologii satelitarnych udało się przeprowadzić w 2017-tym roku. Obecnie trwają prace nad kilkoma projektami satelitarnymi, które mają na celu rozwój kwantowych technologii związanych z łącznością satelitarną. 

Połączenie światłowodowej oraz satelitarnej łączności kwantowej może pozwolić urzeczywistnić idę tzw. internetu kwantowego – niepodatnego na kryptoanalizę kanału wymiany informacji.  Stworzenie podwalin dla internetu kwantowego to m.in. jeden z filarów, rozpisanego na okres dziesięciu lat (2018-2028), flagowego programu Komisji Europejskiej – Quantum Flagship. Ponadto, w ramach projektu OPENQKD (Open European Quantum Key Distribution Testbed) powstaje obecnie w Europie eksperymentalna sieć do kwantowej dystrybucji klucza, której jeden z węzłów znajdzie się również w Polsce.

Warto w tym miejscu podkreślić, że systemy do kwantowej dystrybucji klucza, choć teoretycznie bezwarunkowo bezpieczne, mogą stać się jednak przedmiotem ataków. Istnieje mianowicie szerokie spektrum możliwych ataków fizycznych, wykorzystujących błędy w implementacji systemów do QKD. Jedną z prób rozwiązania tego problemu jest opracowanie algorytmów kryptografii kwantowej gwarantujących bezpieczeństwo w wymianie informacji, niezależne do wad implementacji fizycznych. Konieczne są jednakże dalsze prace zarówno teoretyczne, jak i eksperymentalne w tym obszarze.

Podsumowanie

Infosfera stała się kluczowym elementem współczesnej aktywności ludzkiej. Jej dynamiczny rozwój doprowadził jednak do pojawienia się zagrożeń zupełnie nowego typu. Dotyczy to zarówno poziomu jednostek, jak i społeczeństw. W konsekwencji, cyberprzestrzeń stała się równoprawnym do wody, lądu, powietrza i przestrzeni kosmicznej, obszarem działań wojennych. Powaga problemu doprowadziła do szerokiego zaangażowania państw i organizacji w obszarze zapewnienia bezpieczeństwa w cyberprzestrzeni. W Polsce, ważnym krokiem stało się sformułowanie w 2015 roku Doktryny Cyberbezpieczeństwa Rzeczypospolitej Polskiej [8]. Elementem realizacji jej założeń jest konsolidacja polskich zasobów  w obszarze cyberbezpieczeństwa i kryptologii w ramach utworzonego w 2019 roku Narodowego Centrum Bezpieczeństwa Cyberprzestrzeni (NCBC), funkcjonującego wcześniej jako Narodowe Centrum Kryptologii (NCK).

Technologie kwantowe, które coraz odważniej wychodzą z obszaru badawczego do fazy wdrożeń, stanowią zarówno potencjalne zagrożenie dla cyberbezpieczeństwa, jak i dają narzędzie dla jego wzmocnienia do bezprecedensowego poziomu. Zagrożenie związane jest głównie z możliwością kryptoanalizy algorytmów kryptografii asymetrycznej (w szczególności RSA i ECC). Natomiast, silne algorytmy kryptografii symetrycznej pozostaną odporne na kryptografię kwantową. W mojej ocenie, realistyczna wydaje się możliwość kryptoanalizy algorytmu RSA z kluczem 2048 bitowym w perspektywie czasowej 30 lat. Warto również mieć na uwadze prawdopodobieństwo opracowania nowych algorytmów, które mogą znaleźć zastosowanie w kryptoanalizie kwantowej.

Odpowiedzią na zagrożenie związane z kryptoanalizą kwantową jest kryptografia postkwantowa. Zadaniem które sobie stawia jest opracowanie algorytmów kryptografii z kluczem publicznym, niepodatnych na ataki kwantowe. W toku jest proces standaryzacji algorytmów kryptografii postkwantowej, po zakończeniu którego (około roku 2023) można spodziewać intensyfikacji w implementacji tego typu rozwiązań. Należy jednak zdawać sobie sprawę z faktu, że algorytmy kryptografii postkwantowej wciąż wymagają testów pod kątem kryptoanalizy, zarówno konwencjonalnej, jak i kwantowej.

Z drugiej strony, technologie kwantowe otwierają obiecującą możliwość implementacji rozwiązań kryptografii kwantowej. Jednym z nich jest kwantowa generacja klucza. Rozwiązania takie stają się możliwe do urzeczywistnienia z wykorzystaniem opracowywanych obecnie komputerów kwantowych. W perspektywie nadchodzącej dekady, certyfikowane kwantowe generowanie kluczy pozwoli wzmocnić bezpieczeństwo kryptografii klasycznej, jak również algorytmów postkwantowych. Kolejnym, bardzo obiecującym, rozwiązaniem dostarczanym przez kryptografię kwantową jest kwantowa dystrybucja klucza. Naziemna i satelitarna sieć kanałów kwantowych (tzw. kwantowy internet) pozwoli na bezwarunkowo bezpieczne przekazywanie sekretnych kluczy. Z ich pomocą, możliwe będzie  późniejsze przesyłanie informacji kanałami klasycznymi, stosując silne szyfry symetryczne.

Budowa infrastruktury do komunikacji kwantowej, która ostatecznie zapewni nowy poziom bezpieczeństwa w przesyle informacji jest zadaniem niezwykle złożonym i wymagającym integracji wielu zasobów i kompetencji. Jej utworzenie wykreuje zupełnie nowe realia dla cyberbezpieczeństwa. Warto w tym kontekście zaznaczyć, że z uwagi skomplikowaną naturę systemów do komunikacji kwantowych i kryptografii kwantowej, ważnym elementem będzie proces szkolenia specjalistów, którzy będą w stanie analizować subtelności stosowanych rozwiązań i przewidywać możliwość występowania nowych zagrożeń.

Przeprowadzona tu analiza jedynie zarysowuje zagadnienie cyberbezpieczeństwa kwantowego, akcentując podstawowe możliwości i zagrożenia. Dalsza szersza dyskusja, łącząca płaszczyzny: polityczną, akademicką, militarną i przedsiębiorczą, jest konieczna w celu wypracowania optymalnych rozwiązań, które pozwolą na wykorzystanie technologii kwantowych do zapewnienia jeszcze wyższego poziomu cyberbezpieczeństwa w Polsce i na świecie.   

Dodatek A – Kwantowy elementarz

Technologie kwantowe tworzy obecnie szerokie spektrum rozwiązań, wykorzystujących kwantową naturę mikroświata, opisywaną przez mechanikę kwantową. Do najważniejszych przykładów należą: systemy przetwarzania informacji kwantowej (komputery kwantowe),  systemy łączności kwantowej (oparte o kryptografię kwantową) i  systemy metrologii kwantowej (np. kwantowe magnetometry).   

Szczególną klasą układów kwantowych, odgrywają kluczową rolę w kwantowym przetwarzaniu informacji, są kubity. Kubity można postrzegać jako kwantowe odpowiedniki klasycznych bitów, mogące występować w kwantowych superpozycjach stanów „0” i „1”. Sytuacja robi się jeszcze ciekawsza kiedy rozważamy wiele oddziałujących ze sobą kubitów. Właśnie takie złożenie kubitów stanowi rejestr komputera kwantowego, na którym, poprzez wykonywanie odpowiednich operacji (unitarnych), przeprowadzane są obliczenia kwantowe. Wyzwaniem związanym z budowaniem tego typu maszyn jest odseparowanie rejestru kwantowego od środowiska zewnętrznego, które zaburza jego kwantową naturę. Wyzwaniem jest również odpowiednie kontrolowanie kubitów i przeprowadzanie na nich operacji. Przez wiele lat, fizycy zmagali się z osiągnięciem odpowiedniego poziomu koherencji kwantowej i sterowalności rejestrów kwantowych. Przełomowe okazało się wykorzystanie nadprzewodzących kubitów, które ostatecznie doprowadziło do eksperymentalnego wykazania przewagi (w wczasie obliczeń) komputera kwantowego nad najsilniejszym dostępnym superkomputerem klasycznym. Udało się to ostatecznie wykazać firmie Google, dla problemu próbkowania ciągów binarnych z zadanym przez obwód kwantowy  rozkładem prawdopodobieństwa [6].

Trudność w emulowaniu obliczeń kwantowych na komputerach klasycznych wiąże się z faktem, że stan układu n kubitów opisywany jest w 2n wymiarowej przestrzeni Hilberta. W konsekwencji, na przykład by opisać układ 100 kubitów należy użyć wektora posiadającego około 1030 składowych. Próba zapisania takiego wektora zarówno w obecnych jaki i możliwych do wyobrażenia przyszłych komputerach klasycznych jest praktycznie skazana na niepowodzenie.  Z drugiej strony, operowanie w 2n wymiarowej przestrzeni Hilberta,  dysponując n kubitami umożliwia wykonywanie wykładniczo rosnącej z n liczby operacji. Na własności tej opiera się tzw. paralelizm kwantowy, mogący w pewnych przypadkach doprowadzić do kwantowego przyśpieszenia wykładniczego (ang. exponential speed-up) w rozwiązaniu pewnych problemów. Z sytuacją taką spotykamy się, w szczególności, w przypadku algorytmu faktoryzacji Shora, znajdującym zastosowanie w kryptoanalizie kwantowej.

Dodatek B – Złożoność obliczeniowa 

Złożoność obliczeniowa, w uproszczeniu określa poziom trudności rozwiązania danego problemu.  Dla przykładu, rozważmy problem znalezienia konkretnego elementu w nieuporządkowanym zbiorze N elementowym. Element taki znajdziemy w średnio N/2 próbach. Czas potrzebny na znalezienie elementu będzie więc skalował się liniowo wraz z liczebnością (mocą) zbioru. Jest to przykład problemu należącego do wielomianowej klasy złożoności – P (ang. Polynomial). Innym  przykładem problemu należącego do klasy P jest mnożenie liczb.

Nie wszystkie znane problemy należą jednak do kasy P, a przynajmniej tak się wydaje. Okazuje się mianowicie, że istnieje cały szereg problemów dla których nie udało się, jak dotąd, zaproponować algorytmów ich rozwiązywania które należałyby do klasy P. Problemy takie określamy mianem NP (ang. Nondeterministically Polynomial). Są to takie problemy dla których znając wynik możemy w czasie wielomianowym zweryfikować czy propozycja wyniku jest rozwiązaniem czy też nie. Przykładem takiego problemu, jest rozkład liczby złożonej na czynniki pierwsze (problemu faktoryzacji). Problemy klasy NP znajdują szerokie zastosowanie w kryptologii. Otwartym i jednym z najważniejszych problemów matematycznych jest odpowiedzenie na pytanie czy faktycznie NPP?

Uogólnienie rozważań do obliczeń kwantowych wymaga wprowadzenia nowych klas złożoności. Na potrzeby tego artykułu, wprowadzimy jedynie klasę BQP (ang. bounded-error quantum polynomial time). Do klasy tej należą problemy, dla których istnieje możliwość znalezienia rozwiązania w czasie wielomianowym, z prawdopodobieństwem co najmniej 2/3 (czyli błędem nie większym niż 1/3). Okazuje się, że kwantowy algorytm Shora pozwala zredukować złożoność obliczeniową problemu faktoryzacji, klasycznie klasyfikowanego jaki problem wykładniczy, do takiej właśnie złożoności. Jest to przykład kwantowego przyśpieszenia wykładniczego.

Bibliografia

[1] M. Mosca,  Cybersecurity in an Era with Quantum Computers: Will We Be Ready? IEEE Security & Privacy, September/October 2018, pp. 38-41, vol. 16
[2] D. J. Bernstein, T. Lange,  Post-quantum cryptography, Nature, 549(7671), 188-194.
[3] PQCRYPTO – Post-Quantum Cryptography for Long-Term Security. Initial recommendations of long-term secure post-quantum systems
[4] D. J. Bernstein, T. Lange, R. Niederhagen, Dual EC: A Standardized Back Door. In: Ryan P., Naccache D., Quisquater JJ. (eds) The New Codebreakers. Lecture Notes in Computer Science, vol 9100. Springer, Berlin, Heidelberg
[5] Acín, A., Masanes, L. Certified randomness in quantum physics. Nature 540, 213–219 (2016).
[6] Arute, F., Arya, K., Babbush, R. et al. Quantum supremacy using a programmable superconducting processor. Nature 574, 505–510 (2019)
[7] A. Shenoy-Hejamadi, A. Pathak, S. Radhakrishna, Quantum Cryptography: Key Distribution and Beyond, Quanta 2017; 6: 1–47
[8] Doktryna Cyberbezpieczeństwa Rzeczypospolitej Polskiej, 2015.

                                                                                                                               © Jakub Mielczarek

Artykuł został opublikowany na portalu CyberDefence24.

Esej o przemijaniu

Życie prowadzi tylko w jednym kierunku – od poczęcia do śmierci. I choć dopuszczalny jest proces przeciwny, to jego prawdopodobieństwo jest tak małe, że nawet w czasie liczonym wiekiem Wszechświata, ewenement taki nie wystąpi. Fizyka określa taką sytuację mianem procesu nieodwracalnego. Procesy takie są, z definicji, niesymetryczne ze względu na odwrócenie czasu: t -> -t. Takim też się zdaje być cały otaczający nasz Świat. Jednakże, wbrew temu co mówi nam nasze codzienne doświadczenie, rzeczywistość na najgłębszym znanym nam poziomie nie rozróżnia przeszłości od przyszłości. A mówiąc precyzyjniej, spełnia tak zwaną symetrię CPT (złożenie sprzężenia ładunku (C), parzystości (P) i odwrócenia czasu (T)). O ile więc sam wymiar czasu istnieje również w fizyce mikroświata, to jego kierunkowość, czyli tak zwana strzałka czasu, wyłania się dopiero rozważając obiekty makroskopowe.

Nie trudno jest podać przykład procesu nie posiadającego strzałki czasu. Jest nim chociażby ruch wahadła matematycznego, które jest oczywiście przypadkiem wyidealizowanym, nie uwzględniającym tarcia. Przyglądając się nagraniu oscylacji takiego wahadła nie będziemy w stanie stwierdzić czy odtwarzane jest ono w przód czy też wstecz w czasie. Sytuacja ulegnie jednak zmianie kiedy przeprowadzimy eksperyment z wahadłem rzeczywistym, charakteryzującym się pewnym tarciem. Oscylacje takiego wahadła będą powoli wygasać, aż ostatecznie ustaną. Odtwarzając nagranie naszego eksperymentu będziemy w stanie z całą pewnością stwierdzić czy zostało one puszczone zgodnie z faktycznym biegiem czasu, czy też nie. Bo przecież nikt nigdy nie zaobserwował by wahadło samo się rozhuśtało, chociaż zdarzenie takie fizyka dopuszcza. Podobnie jednak jak w przypadku życia, jego prawdopodobieństwo jest tak znikome, że w praktyce niemożliwe do zaobserwowania. To co odróżnia wahadło matematyczne od przypadku wahadła rzeczywistego to tarcie, które jest przykładem tak zwanej dyssypacji energii.

Pawel Kuczynski
Ilustracja wahadła rzeczywistego dyssypującego energię poprzez tarcie o ziemię. Obraz Pawła Kuczyńskiego.  Źródło

Dyssypacja to nic innego jak rozpraszanie energii mechanicznej do otoczenia. W procesie tym, użyteczna energia (a precyzyjniej, tak zwana energia swobodna), np. związana z ruchem wahadła którą moglibyśmy wykorzystać do wykonania pracy, zamienia się w chaotyczny ruch cząsteczek, który nazywamy ciepłem. Z ciepła nie jesteśmy w stanie odzyskać włożonej pracy, a przynajmniej nie całej. Sposobem na jej częściowe odzyskanie jest wykorzystanie chłodnicy i zbudowanie silnika cieplnego, który zawsze charakteryzuje się jednak pewną sprawnością.

Znaczenie dyssypacji energii jest dużo głębsze niż to może się na pierwszy rzut oka wydawać. Istnieje mianowicie związek pomiędzy dyssypacją, a informacją. Mówiąc obrazowo, dyssypując energię, rozpraszamy informację z układu do jego otoczenia. Natomiast, co może brzmieć początkowo dosyć nieintuicyjnie, im obficiej dyssypujemy energię tym więcej informacji możemy przetworzyć u układzie. Wyższa dyssypacja to więc większy potencjał do wykonywania obliczeń.

To, że przetwarzanie informacji wiąże się z dyssypacją energii nie powinno nas dziwić. Wszak każdy z nas tego doświadcza trzymając przez dłuższy czas smartfon w dłoni. Jednakże, ciepło smartfona, tabletu czy laptopa, które odczuwamy wynika głównie z oporów przepływu prądu elektrycznego w procesorze. Jak jednak teoretycznie pokazał w 1961 roku Rolf Landauer, istnieje pewna minimalna ilość ciepła, która zawsze zostanie oddana do otoczenia w nieodwracalnym układzie obliczeniowym, nawet jeśli zupełnie zaniedbamy opory elektryczne i innego typu tarcie w układzie. Zjawisko to wiąże się z utratą informacji o elementarnej porcji informacji, którą jest bit. Przewidywanie Landauer’a zostało potwierdzone eksperymentalnie w  2014 roku.

Aby zilustrować powyższą tzw. zasadę Landauer’a, rozważmy operację logiczną na dwóch bitach. Powiedzmy, niech to będzie operacja alternatywy rozłącznej XOR, zdefiniowanej tak, że 0 XOR 0=0, 0 XOR 1=1, 1 XOR 0=1,  1 XOR 1=0. Jak widać, jest to operacja nieodwracalna, ponieważ znając wynik operacji, nie jesteśmy w stanie jednoznacznie stwierdzić, jakie były wartości bitów wejściowych. Np. Jeśli jako wynik otrzymamy „1”, to może to odpowiadać dwóm konfiguracjom bitów początkowych (0,1) i (1,0). Bramka realizująca operację XOR traci więc informację o stanie początkowym. Informacja ta „ukrywana jest” w otoczeniu, co przejawia się jako dyssypacja porcji ciepła. Jeśli natomiast, oprócz stanu końcowego, nasz układ zachowywałby również jeden z bitów wejściowych, z informacji końcowej moglibyśmy odzyskać stan początkowy. Byłby to przykład tzw. obliczeń odwracalnych (bez utraty informacji), które teoretycznie mogą być realizowane przez tzw. komputery kwantowe.

Powyższa dyskusja dotycząca obliczeń i informacji miała na celu podkreślenie silnego związku pomiędzy dyssypacją energii, a tempem przetwarzania informacji. Z drugiej strony, dyssypacja to nieodwracalność a nieodwracalność to, jak sądzimy, strzałka czasu. Pozwala to wywnioskować, że istnieje relacja pomiędzy strzałką czasu a tempem przetwarzania informacji. Czy więc może przepływ informacji jest miarą upływu czasu? Czyż nie stoi to w zgodzie z naszym poczuciem upływu czasu, które zależy od tego jak dużo informacji przetwarzamy? Nie ma przecież lepszej metody na oczekiwanie na spóźniony samolot niż lektura książki. Oraz przeciwnie, wpatrując się w błękitne letnie niebo, możemy wręcz osiągnąć stan „pozaczasowości”.  Nie chciałbym tu wchodzić w kwestię percepcji czasu. To odrębne i złożone zagadnienie. Przywołuję jedynie naturalnie nasuwające się skojarzenia.

Prowadzą nas one również z powrotem w stronę życia, w szczególności do Człowieka.  Czy więc życie, jako proces nierównowagowy, a więc i dyssypatywny jest pewnym systemem przetwarzającym informacje? Bez wątpienia takim jest, o czym świadczą zarówno zachodzące w nim przetwarzanie informacji na poziomie molekularnym jak i na poziomie komórkowym. Nasze myśli to nic innego jak procesowanie informacji, z którą wiąże się dyssypacja energii.

Skąd jednak w życiu pozorna „chęć” dyssypowania energii? Choć to zupełnie fundamentalne pytanie, które wciąż traktowane jest jako otwarte, postaram się tu jednak nakreślić na nie odpowiedź, bazując na najlepszej dostępnej nam wiedzy.

Po pierwsze, życie jest przykładem układu otwartego, mogącego wymieniać energię  i informację z otoczeniem. Jest to, w zasadzie, podstawowy warunek jego istnienia. Dla układów zamkniętych obowiązuje mianowicie druga zasada termodynamiki, która mówi nam, że układy izolowane dążą do stanu tak zwanej równowagi termodynamicznej.  W stanie tym maksymalizowana jest tak zwana entropia, którą często utożsamia się z miarą nieuporządkowania systemu. Zamiast mówić o uporządkowaniu, które to może posiadać wiele miar, warto tu jednak podkreślić, że stan równowagi termodynamicznej, jak sama nazwa wskazuje, to stan równowagowy. Jest on więc symetryczny ze względu na odwrócenie czasu. Obserwując stan równowagi termodynamicznej, będziemy mogli zauważyć pewne fluktuacje takich wielkości jak energia czy też entropia układu. Zarówno jednak wielkości średnie jak i fluktuacje nie wyróżnią strzałki czasu. Ponadto, w stanie równowagi termodynamicznej nie dysponujemy energią swobodną (jest ona minimalna), którą można byłoby dyssypować, a tym samym przetwarzać informacje. Życie więc zdecydowanie takim stanem nie jest.

Żeby istnieć, organizmy żywe muszą trzymać się z dala od stanu równowagi termodynamicznej. A to jest możliwe dzięki ciągłemu wymuszonemu odpływowi entropii z układu. Erwin Schrödinger, jeden z ojców mechaniki kwantowej, w swojej książce „What is Life?” z 1944 roku, w której utworzył fizyczne fundamenty fizyki życia, określił ten konieczny do zaistnienia życia ujemy strumień entropii negentropią.  Negentropia pojawia się, w szczególności, kiedy układ znajduje się „pomiędzy” grzejnicą (źródłem ciepła) a chłodnicą (odbiornikiem ciepła), podobnie jak w silniku cieplnym.

Spotkało nas to szczęście, że Ziemia jest właśnie takim układem otwartym, przez który nieustannie przepływa strumień negentropii. Dzieję się to dzięki temu, że Ziemia odbiera ze Słońca promieniowanie w zakresie głównie widzialnym a wypromieniowuje je w postaci (podczerwonego) promieniowania termicznego. W sytuacji stacjonarnej, ilość energii absorbowanej i emitowanej przez Ziemię są równe. Różnica polega jednak na formach tych energii. Mówimy mianowicie, że promieniowanie absorbowane jest niskoentropowe, natomiast promieniowanie emitowane jest wysokoentropowe. Bilans entropowy pozostaje więc ujemny.

Ten ujemny rozrachunek entropowy umożliwia intensywne przetwarzanie informacji na powierzchni Ziemi, co skutkuje dyssypacją energii. Co więcej, tworzy się hierarchia podsystemów będących układami otwartymi. W szczególności, takim podsystemem Ziemi jest biosfera, której to podsystemem są zarówno sami ludzie jak i tworzona przez nich cywilizacja technologiczna (choć ta zaczyna już wykraczać poza biosferę). Dostępność niskoentropowego pożywienia, takiego jak powstałych w procesie fotosyntezy cukrów,  dzięki któremu życie może funkcjonować jest więc konsekwencją tego, iż Ziemia jako całość jest otwartym, nierównowagowym układem wystawionym na strumień negentropii.

Zagłębienie się w szczegóły działajacych tu mechanizmów jest jednak nie lada wyzwaniem. A to dlatego, że o ile opis stanów równowagowych znany jest doskonale od dziewiętnastego wieku, tak obszar fizyki nierównowagowej to wciąż otwarta karta fizyki. Jednym z prekursorów tej dyscypliny był noblista Ilia Prigogine, który wniósł ogromny wkład zarówno w rozwój, jak i spopularyzowanie fizyki procesów nierównowagowych. To On jako pierwszy zwrócić uwagę na możliwość formowania się złożonych struktur dyssypatywnych. Postęp w tej dziedzinie jest jednak powolny i w dużym stopniu następuje skokowo (dzięki przełomom). Za ostatni z takich milowych kroków można uznać  pokazanie przez amerykańskiego fizyka  Jeremy’ego Englanda nowego związku pomiędzy nieodwracalnością procesów makroskopowych, a ilością dyssypowanej energii. Ponadto,  England wskazał, że przy działaniu periodycznej siły wymuszającej, układ nierównowagowy może dokonywać reorganizacji do postaci zwiększającej dyssypację energii. Co jest zupełnie niesłychane, reorganizacja ta przypomina proces ewolucji darwinowskiej. Wyniki Englanda stanową również wsparcie do tak zwanej zasady maksymalnej produkcji entropii MEP (Maximum Entropy Production), która wyłoniła się w latach osiemdziesiątych ubiegłego wieku z  niezależnych rozważań w takich obszarach jak klimatologia, chemia, i biologia. Zasada ta mówi, że układy znajdujące się z dala od stanu równowagi termodynamicznej dążą do maksymalizacji dyssypacji energii.

Powyższe obserwacje skłaniają do przypuszczenia, że proces ewolucji biologicznej jest przejawem „poszukiwania” przez układ, którym jest powierzchnia Ziemi, a dokładniej biosfera, najbardziej optymalnego sposobu dyssypacji energii. Maksymalizacja dyssypacji energii umożliwia zaś przetwarzanie największej ilości informacji. A patrząc na to samo z drugiej strony, do optymalnej dyssypacji potrzebujemy dużej ilości nieodwracalnych obliczeń. Obliczenia te są tym wydajniej przeprowadzane im bardziej wyspecjalizowane są systemy przetwarzające informację. Wszak mózg może dużo lepiej dyssypować energię niż np. 1,5 kilograma wody. Jednak, osiągnięcie takiej perfekcji w obliczeniach a zarazem dyssypowaniu energii zajęło Naturze około 4 miliardy lat.

Opierając się na powyższym rozumowaniu, możemy dojść do konkluzji, że życie jest przejawem nierównowagowego procesu dążącego do maksymalizacji dyssypacji energii. Człowiek jest natomiast jedną z najbardziej złożonych jednostkowych struktur dyssypatywnych jakie są nam znane. Mechanizm ewolucji, który nas ukształtował, możemy zaś postrzegać jako przejaw optymalizacji procesu dyssypacji. Pewnie częściowo z konieczności, w wyniku skończonych zasobów materii w systemie jaki i poprzez akumulację błędów, proces ten „wypracował” rozwiązanie w postaci śmierci wcześniejszych ewolucyjnie wersji „maszyn dyssypatywnych”. Po co wszak utrzymywać przy życiu stare modele, kiedy zużywają one zasoby negentropii którymi można zasilić nowe, bardziej wydajne, dyssypatory?

Kolejną, poza poziomem jednostek, warstwą osiągania maksimum wydajności procesu dyssypacji jest warstwa cywilizacyjna. Tworząc cywilizację techniczną, Natura jeszcze skuteczniej jest w stanie dyssypować energię. Obserwacja ta dostarcza możliwego, wysokopoziomowego, wyjaśnienia naszej ciągłej woli rozwoju i tworzenia. To, że podjąłem wysiłek napisania tego tekstu jest prawdopodobnie również przejawem dążenia do maksymalizacji procesów przetwarzania informacji, chociaż niewątpliwie nie jest się łatwo z taką perspektywą pogodzić.

Warto ostatecznie podkreślić, że dążenia systemów nierównowagowych do konfiguracji o maksymalnej możliwej dyssypacji energii nie należy postrzegać w kategoriach teleologicznych (dążenia do pewnego ustalonego celu). Jest to raczej proces podobny do osiągania przez układy fizyczne stanu podstawowego, np. poprzez wypromieniowywanie energii. Dążenie do stanu o najniższej energii jest konsekwencją niestabilności stanów wzbudzonych. Analogicznie, stan układu nierównowagowego nie dyssypujący maksymalnie energii można postrzegać jako pewien stan niestabilny. Niestabilność ta powoduje przejście do kolejnej, bardziej optymalnej konfiguracji, która to znowu okazuje się niestabilna, itd. Z uwagi na to, że przestrzeń konfiguracji jest niewyobrażalnie ogromna, cały proces będzie bardzo wolny i złożony. Jest to ciągłe poszukiwanie, w którym trudno jest nawet wskazać konfigurację optymalną (prawdopodobnie jedną z wielu). Jednym z możliwych finałów tego procesu jest osiągniecie granicznej wartości dyssypacji   lub też wyczerpanie się strumienia negentropii. Wtedy to, naszym odległym potomkom, pozostanie znalezienie nowego źródła nieodwracalności albo skazanie na „bezczasowość” stanu równowagi termodynamicznej.

                                                                                                                              © Jakub Mielczarek

Kwantowe technologie kosmiczne

Większość z nas każdego dnia korzysta z jednej z kwantowych technologii kosmicznych – zegarów atomowych, zainstalowanych na satelitach systemów nawigacyjnych, takich jak GPS i  Galileo. Zastosowanie zjawisk kwantowych w branży kosmicznej nie jest więc czymś nowym. Jednakże, ostatnie lata przyniosły szereg obiecujących wyników, które pozwalają spojrzeć na wykorzystanie kwantowej natury światła i materii w warunkach kosmicznych w dużo szerszym kontekście.  Niniejsze opracowanie ma na celu dostarczenie zwięzłego przeglądu głównych możliwości jakie rodzą się na styku mechaniki kwantowej i inżynierii kosmicznej.

Zegary, sensory i metrologia kwantowa

Jak już wspomniałem powyżej, zegary atomowe są najpowszechniejszym przykładem technologii kwantowych wykorzystywanych w warunkach kosmicznych. W szczególności, satelity europejskiego systemu Galileo pracują w oparciu o zarówno tradycyjne zegary Rubidowe jak i precyzyjniejsze pasywne masery wodorowe (odpowiedniki laserów działające w zakresie mikrofal). W przypadku zegara wodorowego, wykorzystywane jest doskonale znane wszystkim astronomom przejście kwantowe pomiędzy poziomami w strukturze nadsubtelnej wodoru, czyli osławiona linia neutralnego wodoru 21 cm, której odpowiada częstotliwość około 1,420 GHz (co można wyprowadzić na gruncie mechaniki kwantowej). Okres oscylacji równy jest więc około 0.704 ns a osiągana dokładność pracy takiego zegara to około 0.45 ns na 12h pracy zegara [1]. Niezwykle dokładny pomiar czasu z wykorzystaniem maserów wodorowych przekłada się na większą precyzję pozycjonowania (sięgający 10 cm promień błędu) systemu Galileo, względem konkurencyjnych systemów GPS, Beidou i GLONASS. Warto dodać, że precyzyjne pomiary czasu mają ogromne znaczenie nie tylko dla nawigacji naziemnej, ale również dla nawigacji statków kosmicznych.

Kolejnego, jednak już nieco mniej oczywistego przykładu zastosowania układu kwantowego w warunkach kosmicznych dostarczają kondensaty Bosego-Einsteina. Kondensaty Bosego-Einsteina są konfiguracjami w których bozonowe stopnie swobody (cząstki o spinie całkowitym) makroskopowo obsadzają ten sam stan podstawowy (stan o najniższej energii).  W konsekwencji, gęstość prawdopodobieństwa poszczególnych cząstek (związana z ich funkcją falową) nabiera interpretacji koncentracji materii w kondensacie i może być poddawana analizie optycznej.  Własność ta znajduje zastosowanie m.in. przy budowie interferometrów atomowych, które okazują się być niezwykle wrażliwe na zmiany natężenia pola grawitacyjnego. Opierające swoje działanie na kondensatach Bosego-Einsteina grawimetry doczekały się już wdrożeń komercyjnych, a ich czułość sięga poniżej 10^{-9} g [2] (g jest przyśpieszeniem grawitacyjnym na powierzchni Ziemi).

Wysoka wrażliwość interferometrów atomowych na zmiany pola grawitacyjnego wygenerowała zainteresowanie przeprowadzaniem eksperymentów w warunkach swobodnego spadku. Badania takie, motywowane zarówno możliwymi zastosowaniami praktycznymi jaki i chęcią lepszego zrozumienia wpływu pola grawitacyjnego na układy kwantowe, zostały przeprowadzone m.in. we wieży swobodnego spadku w Bremie [3].  W 2017 roku udało się natomiast zrealizować pierwszą kosmiczną misję z wykorzystaniem kondensatu Bosego-Einsteina. Eksperyment ten przeprowadzono z pomocą rakiety MAIUS-1, wykonującej lot paraboliczny i osiągającej pułap około 243 km nad poziomem morza [4].

BEC
Schemat rakietowego eksperyment z kondensatem Bosego-Einsteina, przeprowadzonego w 2017 roku . Źródło

Powodzenie misji stanowi ważny krok w stronę grawimetrii satelitarnej opartej na wykorzystaniu kondensatów Bosego-Einsteina.  Ma to również znaczenie w kontekście zrozumienia pewnych aspektów oddziaływania (klasycznego) pola grawitacyjnego na układy kwantowe. Watro również podkreślić, że opracowane pod kątem eksperymentu rozwiązania inżynieryjne będą mogły znaleźć szersze zastosowanie w ramach kwantowych technologii kosmicznych. Przeprowadzenie eksperymentu wiązało się bowiem z koniecznością dostosowania skomplikowanego układu doświadczalnego do wymogów stawianych przed technologiami kosmicznymi (m.in. odporność na wibracje i przeciążenia, ograniczenia na rozmiary układu). Warto w tym miejscu zaznaczyć, że wytworzenie kondensatu Bosego-Einsteina wymaga ochłodzenia materii do skrajnie niskich temperaturach, przyjmujących typowo wartości rzędu ułamków mikrokelwinów.

Z punktu widzenia badań podstawowych, interferometry atomowe oparte na kondensatach Bosego-Einsteina rozważane są również w kontekście budowy nowego typu naziemnych i kosmicznych detektorów fal grawitacyjnych [5].   Zanim jednak takie rozwiązania powstaną, własności mechaniki kwantowej zostaną wykorzystane w celu redukcji szumu w obecnie przygotowywanym kosmicznym obserwatorium fal grawitacyjnych LISA. Już teraz, w celu obejścia problemu szumu śrutowego w naziemnych interferometrycznych obserwatoriach fal grawitacyjnych stosuje się tak zwane ściśnięte stany kwantowe światła [6]. Podejście to jest przykładem metrologii kwantowej, wdrożonej już w warunkach ziemskich, a której implementacja w misjach satelitarnych pozostaje jedynie kwestią czasu.

Komunikacja kwantowa

Niewątpliwie, wzbudzającym największe emocje i oczekiwania kierunkiem rodzącym się na styku inżynierii kosmicznej i mechaniki kwantowej jest tak zwana łączność kwantowa (o której pisałem m.in. we wpisie kwantowa łączność satelitarna).  W istocie, jest to wykorzystanie stanów kwantowych pojedynczych fotonów do przesyłania informacji. Ponieważ jednak przepustowość, powstałych w ten sposób, kanałów kwantowych nie może konkurować z przepustowością dostępnych łączy klasycznych, kanał kwantowy wykorzystywany jest jedynie do wymiany tak zwanego sekretnego klucza (będącego ciągiem bitów). Klucz ten umożliwia zastosowanie silnych algorytmów klasycznej kryptografii symetrycznej (takich jak AES-256) dla danych przesyłanych drogą konwencjonalną. Podejście takie nosi nazwę kwantowej dystrybucji klucza (ang. quantum key distribution – QKD) i stanowi jeden z filarów kryptografii kwantowejZaletą takiego rozwiązania jest, wynikająca z zasad mechaniki kwantowej, teoretyczna niepodatność protokołów na ataki (w praktyce, istnieją jednak możliwości ataków fizycznych na systemy kryptografii kwantowej).

Z uwagi na wykładniczne tłumienie sygnału kwantowego w światłowodach, wykorzystanie  przestrzeni kosmicznej daje obecnie jedyną możliwość przeprowadzenia kwantowej dystrybucji klucza na odległościach kilkuset i kliku tysięcy kilometrów.  Pierwszej tego typu satelitarnej komunikacji kwantowej dokonano w 2017 roku z wykorzystaniem chińskiego satelity Micius [7].

QDK
Zrealizowane, obecne i planowane misje satelitarne przeprowadzające kwantową dystrybucję klucza. Źródło

Rozwiązania satelitarne w skali satelity Micius są niezwykle skomplikowane i kosztowne. Aby więc, przy ograniczonych zasobach, przyśpieszyć prace nad satelitarną komunikacja kwantową, grupy badawcze skłaniają się obecnie do dużo tańszych rozwiązań nanosatelitarnych, w szczególności w standardzie CubeSat. Eksperymenty te mają zarówno na celu przetestowanie pracy systemów optyki kwantowej w warunkach kosmicznych jak również samą łączność kwantową pomiędzy satelitą z stacją naziemną.

Do kategorii misji testujących same układy optyczne (bez łączności) można zaliczyć nanosatelitę Galassia (2U) [8], za pomocą której w 2015 roku przeprowadzono testy systemu Spontaneous Parametric DownConversion (SPDC), wytwarzającego splątane stany kwantowe mające zastosowanie w protokole Ekerta E91.  Kierunek ten jest rozwijany obecnie ramach cubesata SpooQySat (3U) [9]. Do misji nanosatelitarnych mających na celu przetestowanie łączności kwantowej możemy natomiast zaliczyć proponowane projekty takie jak Nanobob (12U) [10] i Q3Sat (3U) [11]. Są one zaprojektowane w konfiguracji uplink. Ich konstrukcja nie wymaga więc instalowania systemu do przygotowywania stanów kwantowych a jedynie prostszy układ detekcyjny. Z drugiej strony jednak, rozwiązanie takie jest mniej korzystne z punktu widzenia czynnika atmosferycznego. Mianowicie, w przypadku  konfiguracji downlink, turbulencje atmosferyczne wpływają na kierunek propagacji fotonów dopiero na końcowym etapie drogi, powodując jedynie nieznaczne poszerzenie wiązki. Natomiast, w przypadku konfiguracji uplink, kierunek propagacji fotonów jest najpierw zaburzony przez czynnik atmosferyczny,  po czym dewiacja od wyjściowej osi optycznej narasta w trakcie jego dalszej propagacji. Dlatego też, zarejestrowanie fotonu wymagać będzie większej średnicy zwierciadła. 

Ciekawym wynikiem w kontekście komunikacji kwantowej było niedawne wykorzystanie retroreflektoru zainstalowanego na jednym z satelitów należących do systemu GLONASS do odbicia pojedynczych fotonów [12]. Wyniki tego eksperymentu rodzą nadzieję na przyszłe wykorzystanie pasywnych układów optycznych umieszczonych na satelitach do prowadzenia komunikacji kwantowej. Pozwoliłoby to znacznie uprościć konstrukcję i obniżyć koszty satelitów do kwantowej  dystrybucji klucza, przenosząc środek ciężkości złożoności technologicznej takich systemów na powierzchnię Ziemi.

Warto zaznaczyć, że komunikacja kwantowa z uwagi na wykorzystanie światła laserowego wpisuje się również w kierunek komunikacji laserowej, dostarczającej w przypadku łączności klasycznej dużo większych przepustowości niż łączność radiowa (co jest prostą konsekwencją mniejszej długości fali). Obszar ten jest obecnie rozwijany w Europie w ramach projektu ESA ARTES ScyLight. Postęp w technologii kwantowej łączności satelitarnej (szerzej – kwantowego internetu) oraz metrologii kwantowej jest również obecnie wspierany m.in. w ramach programu flagowego Komisji Europejskiej Quantum Flagship.

Teleportacja kwantowa i efekty relatywistyczne

Nie można utworzyć idealnej kopii (klonu) nieznanego stanu kwantowego, co stanowi fundament bezpieczeństwa komunikacji kwantowej. Możliwe jest natomiast dokonanie jego kwantowej teleportacji (przesłania stanu kwantowego z prędkością światła), wykorzystując połączenie kanału kwantowego oraz klasycznego. Teleportacja kwantowa stanowi bardzo ważny element systemów przesyłania i przetwarzania informacji kwantowej. Jej eksperymentalnego potwierdzenia dokonano po raz pierwszy w 1997 roku [13]. Po 20 latach od tego przełomowego momentu, w 2017 roku, przeprowadzono pierwszą teleportację stanu kwantowych fotonu z powierzchni Ziemi na niską orbitę okołoziemską [14]. W ramach tego eksperymentu dokonano teleportacji sześciu różnych typów stanów kwantowych fotonu. W każdym z przypadków zaobserwowano poziom wierności (ang. fidelity) przesłanych stanów przekraczający wartość dla najlepszej strategii klasycznej, co potwierdza realność przeprowadzonego protokołu teleportacji.

Teleportation
Układ eksperymentalny za pomocą którego w 2017 roku przeprowadzono teleportację stanu kwantowego z powierzchni Ziemi na niską orbitę okołoziemską. Źródło

Jak już wcześniej zaznaczono, wykorzystanie zjawisk kwantowych w warunkach kosmicznych dostarcza zarówno narzędzi do badania zjawisk grawitacyjnych (np. detekcja fal grawitacyjnych) jak również pozwala empirycznie eksplorować pewien obszar oddziaływania (klasycznego) pola grawitacyjnego na układy kwantowe. Dotyczy to przede wszystkim wpływu pola grawitacyjnego na ewolucję układu kwantowego. Okazuje się, że efekty związane z geometrią czasoprzestrzeni mogą mieć niezaniedbywalny wpływ na zachowanie układów kwantowych w pobliżu Ziemi. Rozważania te, w szczególności, dotyczą kwantowej teorii pola na przestrzeniach zakrzywionych. Teorię tę stosujemy głównie do opisu promieniowania czarnych dziur oraz pierwotnych zaburzeń kosmologicznych, jednakże kwantową teorię pola na przestrzeniach zakrzywionych możemy wykorzystać również do opisu paczek falowych fotonów wykorzystywanych w komunikacji kwantowej. Co więcej, bardzo dobre przybliżenie geometrii czasoprzestrzennej w pobliżu Ziemi dostarcza metryka Schwarzschilda, opisująca nierotujące czarne dziury (w przypadku Ziemi, promień Schwarzchilad wynosi ok. 9 mm). Wykorzystując tę metrykę można np. przewidzieć poziom szumu w kanale kwantowym wynikający z grawitacyjnego przesunięcia ku czerwieniCo ciekawe, wartość skumulowanego efektu relatywistycznego (grawitacyjne przesunięcie ku czerwieni + relatywistyczny efekt Dopplera) może prowadzić do błędów w komunikacji kwantowej sięgających ~1% [15]. Taki wkład nie będzie mógł zostać pominięty przy planowaniu przyszłych satelitarnych systemów do kwantowej dystrybucji klucza, podobnie jak uwzględnienie efektów relatywistycznych jest dzisiaj niezbędne do osiągnięcia odpowiednio wysokiej precyzji systemów nawigacji satelitarnej.

Podsumowanie

Kwantowe technologie coraz odważniej wkraczają w świat branży kosmicznej, skutkując kształtowaniem się nowej fascynującej dziedziny – kwantowych technologii kosmicznych. Jako główne praktyczne zastosowania tego kierunku rozwojowego  rysują się obecnie: precyzyjne pomiary czasu (nawigacja), pomiary grawimetryczne oraz komunikacja kwantowa. Ponadto, kosmiczne technologie kwantowe dostarczają narzędzi do prowadzenia nowych eksperymentów w zakresie badań podstawowych takich jak: detekcja fal grawitacyjnych i  wpływ pola grawitacyjnego na zjawiska kwantowe. Szczególnie interesująca jest możliwość urzeczywistnienia wizji satelitarnego internetu kwantowego, który dostarczyłby niepodatnego na kryptoanalizę sposobu wymiany szczególnie wrażliwych informacji. Wprowadzenie takiego rozwiązania stanowiłoby odpowiedź na obecne i przyszłe zapotrzebowanie zarówno cywilne jak i wojskowe. Na drodze do osiągnięcia tego celu stoi wiele wyzwań, zarówno natury technicznej jak i organizacyjnej (m.in. związanej z finansowaniem tak ambitnych przedsięwzięć).  Należy być również świadomym ograniczeń takiego systemu, m.in. wynikających z możliwości zakłócenia jego pracy zarówno poprzez naturalne czynniki atmosferyczne jak i  wywołane celowo, sztuczne, zakłócenia.   

Pozwolę sobie na koniec dodać, że warunki kosmiczne stanowią całkiem dogodne środowisko dla systemów kwantowych. Próżnia kosmiczna dostarcza mianowicie odpowiednią izolację układów kwantowych przed niepożądanym wpływem środowiska (które prowadzi do dekoherencji układów kwantowych). Wiązki fotonów mogą zaś bez przeszkód propagować informację kwantową poprzez przestrzeń kosmiczną. Stwarza to nadzieję na rozwój kwantowych technologii kosmicznym, nie tylko w najbliższym otoczeniu Ziemi ale również w bardziej odległych obszarach. Z teoretycznego punktu widzenia, dopuszczalne jest “rozpięcie” kanału kwantowego chociażby pomiędzy Ziemią (lub orbitą okołoziemską) a Księżycem. Pozwoliłoby to m.in. na pobieranie informacji kwantowej bezpośrednio ze zlokalizowanych na Księżycu sensorów kwantowych i przetwarzanie informacji kwantowej bez konieczności jej “tłumaczenia” na informację klasyczną. Jednym z zastosowań takiego rozwiązania mogłaby być budowa kosmicznych interferometrycznych teleskopów optycznych, wykorzystujących teleportację stanów kwantowych światła [16]. Otrzymana syntetyczna apertura takich teleskopów byłaby nieporównywalna z jakąkolwiek istniejącą obecnie, dając możliwość prowadzenia obserwacji optycznych z niespotykaną rozdzielczością kątową. To oczywiście wciąż jedynie śmiałe pomysły, dopuszczalne jednak przez fizykę i nie aż tak odległe z technicznego punku widzenia. Od nas zależy to czy kiedykolwiek się urzeczywistnią.

Bibliografia

  • [1] https://www.esa.int/Our_Activities/Navigation/Galileo/Galileo_s_clocks
  • [2] V. Menoret et al., Gravity measurements below 10−9 g with a transportable absolute quantum gravimeterScientific Reports  8, Article number: 12300 (2018
  • [3] H. Müntinga et al., Interferometry with Bose-Einstein Condensates in Microgravity, Phys. Rev. Lett. 110 (2013) no.9, 093602 [arXiv:1301.5883]
  • [4] D. Becker et al.Space-borne Bose-Einstein condensation for precision interferometr, Nature 562, 391–395 (2018) [arXiv:1806.06679]
  • [5] S. Dimopoulos, P. W. Graham, J. M. Hogan, M. A. Kasevich and S. Rajendran, Gravitational Wave Detection with Atom Interferometry, Phys. Lett. B 678 (2009) 37 [arXiv:0712.1250]
  • [6] LIGO Scientific Collaboration, Enhanced sensitivity of the LIGO gravitational wave detector by using squeezed states of light, Nature Photonics 7, 613–619 (2013) [arXiv:1310.0383]
  • [7] Sheng-Kai Liao, et al., Satellite-relayed intercontinental quantum network, Phys. Rev. Lett. 120, 030501 (2018) [arXiv:1801.04418]
  • [8] Z. Tang, et al., Generation and Analysis of Correlated Pairs of Photons aboard a Nanosatellite, Phys. Rev. Applied 5 (2016) no.5, 054022 [arXiv:1603.06659]
  • [9] R. Bedington et al.Nanosatellite experiments to enable future space-based QKD missions, EPJ Quantum Technology 2016 3:12
  • [10] E. Kerstel et al.Nanobob: a CubeSat mission concept for quantum communication experiments in an uplink configuration, EPJ Quantum Technology 5, Article number: 6 (2018)  [arXiv:1711.01886]
  • [11] S. P. Neumann et al.Q3Sat: quantum communications uplink to a 3U CubeSat—feasibility & design, EPJ Quantum Technol. (2018) 5: 4 [arXiv:1711.03409]
  • [12] L. Carderaro et al.,  Towards Quantum Communication from Global Navigation Satellite System, Quantum Sci. Technol. 4, 015012 (2019) [arXiv:1804.05022].
  • [13] D. Bouwmeester et al., Exerimental quantum teleportation, Nature 390, 575–579 (1997) [arXiv:1901.11004]
  • [14] J-G Ren et al.Ground-to-satellite quantum teleportation, Nature 549, 70–73 (07 September 2017) [arXiv:1707.00934]
  • [15] D. E. Bruschi, T. Ralph, I. Fuentes, T. Jennewein and M. Razavi, Spacetime effects on satellite-based quantum communications, Phys. Rev. D 90 (2014) no.4, 045041. [arXiv:1309.3088]
  • [16] E. Khabiboulline et al., Quantum-Assisted Telescope Arrays [arXiv:1809.03396]

@ Jakub Mielczarek

 

Kwantowa dystrybucja klucza

W moich wcześniejszych wpisach kilkukrotnie odwoływałem się do kwantowej dystrybucji klucza (KDK), będącej jednym z głównych filarów kryptografii kwantowejMiało to miejsce w kontekście omawiania takich zagadnień jak: kwantowa łączność satelitarna, internet kwantowy oraz bezpieczeństwo kryptowalut (wpisy: Kwantowa łączność satelitarna, Dwanaście technologii jutra i Kryptowaluty-Kwanty-Kosmos). Niniejszy wpis można potraktować jako uzupełnienie techniczne tych rozważań. Poniżej, przedstawię fizyczne podstawy na których opiera się kwantowa dystrybucja klucza oraz omówię, wprowadzony w 1984 roku, protokół Bennetta-Brassard BB84. Jest to najbardziej znany i historycznie pierwszy przykład protokołu KDK opartego na superpozycji kwantowej.  W późniejszych latach, wprowadzono także protokoły oparte na innych własnościach mechaniki kwantowej, m.in. na splątaniu kwantowym (np. protokół E91). Dyskusja szerokiego spektrum rozważanych obecnie protokołów kryptografii kwantowej wykracza poza ramy tego wpisu. Czytelnika zainteresowanego zapoznaniem się z pełniejszym obrazem tematu zachęcam do przestudiowania np. przeglądowego artykułu arXiv:1802.05517. Tytułem wstępu dodam jeszcze, że do zrozumienia niniejszego tekstu przydatna jest znajomość zasad mechaniki kwantowej. Niezapoznanego z nimi Czytelnika zachęcam do przestudiowania mojego wpisu Elementary quantum computing oraz znajdujących się w nim odnośników.

Zacznijmy więc. W największym skrócie, kwantowa dystrybucja klucza pozwala na, jak mówimy, bezwarunkowo bezpieczną wymianę klucza w oparciu o własności mechaniki kwantowej. To w jaki sposób fizyka mikroświata pozwala zapewnić “bezwarunkowe bezpieczeństwo”, postaram się wyjaśnić poniżej.  Jak to również zostanie dokładniej omówione w dalszej części tekstu, przepustowość wykorzystywanych do KDK tzw. kanałów kwantowych nie dorównuje tym osiąganym w klasycznych łączach światłowodowych oraz radiowych. Z tego też powodu, łącza kwantowe wykorzystywane są obecnie do przesyłania sekretnych kluczy, pozwalających zaszyfrować (klasyczną) wiadomość, nie zaś do transmisji samej wrażliwej informacji.  Udostępniony, za pośrednictwem KDK, klucz może być wykorzystany do zaszyfrowania danych np. z użyciem bardzo silnego symetrycznego szyfru AES 256 Przykładową architekturę systemu do kwantowej dystrybucji klucza, zawierającą zarówno kanał kwantowy (do przesyłania klucza) oraz kanał klasyczny (do przesyłania zaszyfrowanych danych oraz informacji pomocniczych), przedstawia rysunek poniżej:

QKD.gif
Przykładowa architektura systemu do kwantowej dystrybucji klucza z kanałem kwantowym oraz kanałem klasycznym.  Źródło

W przypadku kanału klasycznego opartego o łącze światłowodowe, zaszyfrowana informacja przesyłana jest za pomocą światła. Do przesłania klucza poprzez kanał kwantowy również wykorzystywane jest pole elektromagnetyczne. Z tą jednak różnicą, że odbywa się to za pośrednictwem nie klasycznych impulsów  lecz pojedynczych kwantów światła, czyli fotonów. Do zakodowania informacji kwantowej wykorzystywane są zaś stany polaryzacji światła. Przedyskutujmy to bardziej szczegółowo. Mianowicie, światło docierające do nas, na przykład, ze Słońca lub z żarówki nie jest spolaryzowane. Na poziomie klasycznym,  oznacza to, że światło tego typu składa się z fal elektromagnetycznych oscylujących jednakowo we wszystkich kierunkach  prostopadłych do osi propagacji światła.  Żeby dokonać selekcji fal elektromagnetycznych, których wektor natężenia pola oscyluje w wybranym przez nas kierunku, stosujemy polaryzator. Przepuszczając niespolaryzowane światło przez polaryzator liniowy dokonujemy jego polaryzacji.  Jeśli za polaryzatorem liniowym umieścilibyśmy kolejny podobny polaryzator, jednakże z osią polaryzacji ustawioną prostopadle do tej pierwszej, dokonalibyśmy całkowitego wygaszenia światła. Zachęcam do przeprowadzenia tego prostego eksperymentu np. pozyskując dwa polaryzatory liniowe z powierzchni wyświetlaczy ciekłokrystalicznych zepsutego zegarka lub kalkulatorka.

Zgodnie z regułą dodawania wektorów,  każdą falę elektromagnetyczną można zapisać jako sumę dwóch fal elektromagnetycznych, prostopadłych do siebie w płaszczyźnie polaryzacji. Czyli inaczej, każdą polaryzację liniową światła można opisać jako superpozycję dwóch normalnych względem siebie polaryzacji, nazwijmy je horyzontalną H (ang. horizontal) oraz wertykalną V (ang. vertical).

Polar
Polaryzacja światła niespolaryzowanego z wykorzystaniem polaryzatora liniowego.

Przeprowadźmy teraz następujący eksperyment myślowy. Załóżmy, że dysponujemy źródłem światła niespolaryzowanego oraz zestawem płytek półprzepuszczalnych tłumiących światło. Ustawiające je kolejno na osi optycznej, możemy doprowadzić do sytuacji w której  przez zestaw płytek przedostawać się będą jedynie pojedyncze fotony. Możemy w tym miejscu zapytać co się stanie gdy pojedynczy foton napotka polaryzator światła?  Okazuje się, że foton taki z pewnym prawdopodobieństwem może przejść przez polaryzator, jak również z pewnym prawdopodobieństwem może zostać przez niego zatrzymany. Jest to konsekwencją kwantowej natury fotonu, co przejawia się istnieniem fotonu w stanie kwantowym |\Psi \rangle, będącym superpozycją kwantową dwóch polaryzacji, co zapisujemy jako:

|\Psi \rangle = \alpha |H \rangle +\beta |V \rangle,

tak, że |\alpha |^2+|\beta|^2=1. Prawdopodobieństwo znalezienia fotonu w stanie |H \rangle równe jest P(H)=|\alpha|^2, natomiast prawdopodobieństwo znalezienia fotonu w stanie |V \rangle równe jest P(V)=|\beta|^2. Stany bazowe |H \rangle i |V \rangle odpowiadają dwóm prostopadłym względem siebie polaryzacjom. Tak więc, polaryzacja światła ma swoje źródło na poziomie pojedynczych fotonów i związana jest z tym, że są one bezmasowymi bozonami o spinie 1. Dla cząstek takich istnieją dwa możliwe rzuty wektora momentu pędu na kierunek jego propagacji. Te dwa stany tak zwanej skrętności (ang. helicity) fotonów, na poziomie klasycznym, odpowiadają dwóm możliwym polaryzacjom kołowym światła (lewoskrętnej i prawoskrętnej). Stany o polaryzacji lewoskrętnej i prawoskrętnej są superpozycjami stanów o polaryzacji liniowej:

| L \rangle  = \frac{1}{\sqrt{2}}\left(|H \rangle  - i |V \rangle   \right)     oraz   | R \rangle  = \frac{1}{\sqrt{2}}\left(|H \rangle  + i |V \rangle   \right) .

Fakt, że foton jest opisywany przez kwantową superpozycję dwóch stanów bazowych, czyli jego stan należy do dwuwymiarowej przestrzeni Hilberta ma ogromne znaczenie z punktu widzenia kwantowej teorii informacji. A mianowicie, foton może być wykorzystany jako nośnik najmniejszej porcji informacji kwantowej, tak zwanego kubitu. Z tego też powodu możemy utożsamić stany polaryzacji fotonu ze stanami bazowymi kubitu: |H \rangle = |0 \rangle oraz |V \rangle = |1 \rangle. Oznaczmy tę bazę jako \mathcal{B}_1 = \{ |0 \rangle, |1 \rangle \}.

Do przeprowadzenia kwantowej dystrybucji klucza, w ramach protokołu BB84, będziemy potrzebowali wprowadzić jeszcze jedną bazę. Mianowicie, \mathcal{B}_2 = \{ |+ \rangle, |- \rangle \}, gdzie stany bazowe wyrażają się jako  następujące superpozycje:

|+ \rangle =  \frac{1}{\sqrt{2}} \left( | 0 \rangle +| 1 \rangle   \right)   oraz    |- \rangle =  \frac{1}{\sqrt{2}} \left( | 0 \rangle -| 1 \rangle   \right).

Jeśli stany bazowe |0 \rangle i |1 \rangle opisują stany polaryzacji pod kątami odpowiednio 0^{\circ} i 90^{\circ} to stany polaryzacji |+ \rangle i |- \rangle opisują polaryzacje liniowe odpowiednio pod kątami 45^{\circ}  i -45^{\circ}. Warto w tym miejscu również zaznaczyć, że stany |0 \rangle i |1 \rangle są stanami własnymi operatora \hat{Z} do wartości własnych +1 i -1 odpowiednio. Natomiast, stany |+ \rangle i |- \rangle są stanami własnymi operatora \hat{X} odpowiednio do wartości własnych  +1 i -1 (operatory \hat{Z} i \hat{X} odpowiadają macierzom Pauliego \sigma_z i \sigma_x). Wszystkie z wprowadzonych tu stanów bazowych można wytworzyć przepuszczając foton przez polaryzator liniowy ustawiony pod jednym z czterech kątów. Ponadto, powyższy dobór baz nie jest przypadkowy i wynika z faktu, że bazy \mathcal{B}_1 i \mathcal{B}_2 są przykładem tak zwanych wzajemnie nieobciążonych baz (ang. mutually unbiased bases), spełniających warunek:

|\langle \psi | \phi \rangle |^2 = \frac{1}{2},

gdzie | \psi \rangle \in  \mathcal{B}_1 a | \phi \rangle \in  \mathcal{B}_2. Oznacza to, że bazy te wykluczają się w sposób maksymalny, uniemożliwiając jednoczesne wykonywanie pomiarów na kubicie w obydwu bazach. W przypadku fotonu ma to następujące konsekwencje: Jeśli przygotujemy foton np. w stanie bazowym |0 \rangle i przepuścimy go przez analizator polaryzacji pod kątami  0^{\circ} i 90^{\circ} (odpowiadających stanom polaryzacji bazy \mathcal{B}_1), to po przejściu przez taki analizator nie nastąpi zmiana stanu fotonu. Jednakże, jeśli na drodze tego samego fotony umieścimy analizator polaryzacji pod kątami  45^{\circ} i -45^{\circ} (odpowiadających stanom polaryzacji bazy \mathcal{B}_2), to po przejściu przez taki analizator foton  z prawdopodobieństwem 1/2 znajdzie się w stanie o polaryzacji |+ \rangle i z takim samym prawdopodobieństwem w stanie o polaryzacji   |- \rangle.  Jeśli foton ten będziemy chcieli zaś ostatecznie przeanalizować wykorzystując analizator ze stanami polaryzacji odpowiadającymi bazie \mathcal{B}_1 to z prawdopodobieństwem 1/2 zaobserwujemy ten foton w stanie  |0 \rangle i z prawdopodobieństwem 1/2 w stanie |1 \rangle (taki sam wynik uzyskalibyśmy jeśli foton byłbym przygotowany w stanie |1 \rangle). Próba przeanalizowania stanu fotonu we wzajemnie obciążonej bazie wprowadza więc maksymalną niepewność co do stanu początkowego.  Własność  ta znajduje bezpośrednie zastosowanie w protokole BB84.

Przyjdźmy więc do jego omówienia. Rozważamy nadawcę (A) i odbiorcę (B) których zwyczajowo określamy mianem Alicji i Boba.  Alicja ma za zadanie przesłać do Boba klucz (ciąg bitów) wykorzystując stany polaryzacji fotonu. Ma ona do dyspozycji 4 stany polaryzacji fotonu odpowiadające stanom bazowym baz \mathcal{B}_1 i \mathcal{B}_2. Klucz stanowi losowy ciąg binarny 01, który można wygenerować np. wykorzystując kwantowy generator liczb losowych (z artykułu arXiv:1405.0453 można dowiedzieć się jak samemu zbudować taki generator w oparciu o smartfon). Alicja wprowadza następujące kodowanie klasycznych bitów klucza za pomocą kwantowych stanów  polaryzacji fotonu. Mianowicie, stany polaryzacji |0 \rangle i |+ \rangle kodują 0, natomiast stany polaryzacji |1 \rangle i |- \rangle kodują 1. W praktyce, generacja klucza odbywa się przez losowe ustalanie jednej z czterech pozycji polaryzatora Alicji (rysunek poniżej).

qbejE
Przykładowa realizacja protokołu BB84. Źródło

Przesyłane od Alicji spolaryzowane fotony Bob będzie rejestrował za pomocą analizatora który może przyjmować takie same orientacje jak polaryzator Alicji. Stany polaryzatora Alicji nie są publiczne, Bob będzie więc dokonywał analizy polaryzacji fotonów w (wybieranych losowo) bazach \mathcal{B}_1 i \mathcal{B}_2.  Na podstawie swoich pomiarów, odzyska on pewien ciąg bitów. Następnym krokiem jest publiczne ogłoszenie przez Boba stanów analizatora (baz) w których dokonywał on kolejnych pomiarów. Warto tu podkreślić, że oczywiście nie upublicznia on samych wyników pomiarów. W ramach danej bazy możliwe są wciąż dwie wartości bitu, wartość klucza pozostaje więc ukryta. Następuje teraz tak zwane uzgodnienie baz (ang. basis reconciliation). Mianowicie, Alicja informuje Boba które użyte przez niego bazy są zgodne ze stanami polaryzacji w których przygotowała ona sekretny klucz. Zdekodowane przez Boba, dla uzgodnionych baz, wartości bitów stanowią sekretny klucz. Ostatnim etapem protokołu jest zweryfikowanie czy nie nastąpiła próba “podsłuchania” przesyłanych kanałem kwantowym informacji.

Omówienie tej kwestii zacznijmy od wyartykułowania jednej z fundamentalnych własności mechaniki kwantowej. Mianowicie, nie jest możliwe idealne skopiowanie nieznanego stanu kwantowego. Nie jest więc możliwe “podłączenie się” do kanału kwantowego i skopiowanie przesyłanej informacji.  Własność ta jest ucieleśniona w twierdzeniu o zakazie klonowania, którego dowód dla przypadku kubitów przedstawiam poniżej.

Twierdzenie o zakazie klonowania (ang. no-cloning theorem) leży u podstaw bezwarunkowego bezpieczeństwa protokołów kryptografii kwantowej. Mówi ono, że nie jest możliwe wykonanie dokładnej kopii (klonu) nieznanego stanu kwantowego. Sformułowanie tego twierdzenia zawdzięczamy Williamowi Woottersowi oraz Wojciechowi Żurkowi [Ref]. Poniżej przedstawię jego dowód, dla przypadku stanu kubitu.

Rozważmy stan kwantowy |\Psi \rangle = \alpha | 0 \rangle + \beta | 1 \rangle. Naszym celem będzie próba skopiowania tego stanu, czyli chcemy aby pewien inny stan, nazwijmy go  |\Phi \rangle, przetransformować (“nadpisać”) w stan |\Psi \rangle, nie zmieniając jednocześnie stanu  |\Psi \rangle. Rozważamy więc wyjściowo stan będący następujacym iloczynem tensorowym:  |\Psi \rangle \otimes |\Phi \rangle. Ponadto, wprowadźmy (unitarny) operator kopiujący, nazwijmy go  \hat{K}, którego działanie  powinno być następujące: \hat{K}(|\Psi \rangle \otimes |\Phi \rangle)=|\Psi \rangle \otimes |\Psi \rangle, dla dowolnego stanu |\Psi \rangle. Żeby sprawdzić czy jest to możliwe, zadziałajmy najpierw operatorem \hat{K} na stany bazowe  | 0 \rangle i | 1 \rangle. Działanie operatora \hat{K} powinno dawać  \hat{K}(|0 \rangle \otimes |\Phi \rangle)=|0\rangle \otimes |0 \rangle oraz \hat{K}(|1 \rangle \otimes |\Phi \rangle)=|1\rangle \otimes |1 \rangle .  Zakładając, że powyższe jest spełnione, spróbujmy przeprowadzić kopiowanie stanu |\Psi \rangle = \alpha | 0 \rangle + \beta | 1 \rangle. Skorzystamy w tym miejscu z własności liniowości operatorów rozważanych w mechanice kwantowej (czyli np. \hat{O}(|a\rangle+|b\rangle)=\hat{O}(|a\rangle)+\hat{O}(|b\rangle) , dla dowolnych stanów |a\rangle i |b\rangle). W konsekwencji, otrzymujemy:

\hat{K}(|\Psi \rangle \otimes |\Phi \rangle) = \hat{K}((\alpha | 0 \rangle + \beta | 1 \rangle) \otimes |\Phi \rangle) = \alpha \hat{K}(|0 \rangle \otimes |\Phi \rangle)+\beta \hat{K}(|1 \rangle \otimes |\Phi \rangle) = \alpha |0\rangle \otimes |0 \rangle + \beta |1\rangle \otimes |1 \rangle.

Stan końcowy  jakiego jednak oczekiwalibyśmy w wyniku kopiowania (klonowania) to:

|\Psi \rangle \otimes |\Psi \rangle = (\alpha |0\rangle + \beta |1\rangle)\otimes (\alpha |0\rangle + \beta |1\rangle) = \alpha^2 |0\rangle  \otimes|0\rangle + \alpha \beta |0 \rangle  \otimes|1\rangle + \alpha\beta|1\rangle  \otimes|0\rangle + \beta^2 |1\rangle  \otimes|1\rangle,

który jest odzyskiwany tylko w szczególnych przypadkach stanów bazowych,  tzn. kiedy \alpha=1 i \beta=0 lub \alpha=0\beta=1. Powyższa analiza dowodzi tego, że nie jest możliwe skopiowanie nieznanego stanu kubitu. Przeprowadzenie dowodu dla przypadku dowolnego stanu |\Psi \rangle pozostawiam Czytelnikowi jako ćwiczenie.

Pomimo zakazu klonowania stanów kwantowych, istnieją pewne strategie ataków na protokoły kryptografii kwantowej. Np. podsłuchujący (nazwijmy ją Ewa) może ustawić na drodze optycznej fotonu analizator i próbować odczytać pewne bity klucza. Jak to już jednak dyskutowaliśmy powyżej, obecność takiego analizatora w sposób nieodłączny wiąże się z wpłynięciem na stany fotonu. W celu wyeliminowania możliwości podsłuchu, Alicja i Bob porównują publicznie część klucza. Jeśli w wybranym ciągu bitów nie zauważą różnić, mają pewność, że nie nastąpiła próba ataku. Oczywiście, w praktyce mogą występować pewne różnice w ciągu bitów wynikające z występowaniem szumu, generującego pewien poziom błędów. Istnieje jednak metoda dokładnego określenia jaki poziom niezgodności porównywanego ciągu bitów jest dopuszczalny dla zachowania poufności wymiany klucza. Metoda ta opiera się na wykorzystaniu teorii informacji i pozwolę sobie zarysować jej uproszczoną postać. Zacznijmy od odpowiedzi na pytanie jak dużo błędów do odczytywanego przez Boba ciągu bitów będzie wprowadzał ustawiony przez Ewę, na drodze fotonu, analizator. Analizator ten może być dostosowany do bazy \mathcal{B}_1 lub \mathcal{B}_2.  Prosta probabilistyka mówi nam, że prawdopodobieństwo nie zaburzenia przez Ewę pojedynczego bitu przesyłanego klucza wynosi:

P= \frac{1}{2}\cdot \frac{1}{2}+\frac{1}{2}\cdot 1 = \frac{3}{4}.

Czyli, starająca się wykraść sekretny klucz Ewa, w 25 % przypadków wprowadzi błąd do przesyłanego ciągu bitów. Ponadto, ponieważ z prawdopodobieństwem 1/2 analizuje ona foton we właściwej bazie, z takim też prawdopodobieństwem odczyta ona poprawnie wartość przesyłanego bitu. Ponieważ, wyjściowo, nie zna ona ustawień polaryzatora Alicji, nie jest ona jednak w stanie stwierdzić który bit odczytała prawidłowo a który nie. Odkodowania połowy przesyłanych bitów klucza może dokonać jedynie poznawszy (post factum) ustawienia polaryzatora Alicji. Może to więc zrobić dla bitów dla których następuje sprawdzenie klucza przez Alicję i Boba.

Do skwantyfikowania ilości błędów wprowadzanych podczas kwantowej transmisji informacji używa się wielkości zwanej QBER (Quantum Bit Error Rate) – e która zdefiniowana jest jako stosunek liczby kubitów z błędem (N_e) względem całkowitej liczby przesyłanych kubitów N:

e  := \frac{N_e}{N}.

Jeśli przez f \in [0,1] oznaczymy część kubitów analizowanych przez Ewę, to wprowadzany przez Nią QBER wynosi e = \frac{1}{4} f, gdzie czynnik 1/4 wynika z przeprowadzonych powyżej rozważań probabilistycznych. Przywołajmy teraz pojęcie informacji wzajemnej (ang. mutual information), która pozwoli nam skwantyfikować jaka część informacji jest tracona w kanale kwantowym w wyniku ataków Ewy. Jak można pokazać, wzajemna informacja pomiędzy Alicją a Bobem wyraża się jako

I(A : B) = 1 - h(e),  gdzie h(e) = -e \log_2 e - (1-e) \log_2 (1-e)

to tak zwana entropia informacyjna Shannona. Wzajemna informacja pomiędzy Alicją a Ewą wynosi zaś

I(A : E) = \frac{1}{2}f = 2e,

co wynika z faktu, iż Ewa (znając położenie polaryzatorów Ewy) jest w stanie teoretycznie odzyskać wartości połowy “podsłuchiwanych” przez Nią bitów. Jeśli informacja w układzie Alicja-Ewa I(A : E) zaczyna być większa niż pomiędzy Alicją i Bobem I(A : B), przesyłanie klucza przestaje być bezpieczne. Na tej podstawie, rozpatrując warunek graniczny I(A : E)=I(A : B), otrzymujemy, że (przy powyższych założeniach) bezpieczeństwo kwantowej dystrybucji klucza zapewnione jest jeśli poziom błędów e jest mniejszy niż około 17 \%Jeśli, porównując wybrane bity klucza, Alicja i Bob zanotują różnicę na wyższym poziomie, nie można zaakceptować przesyłanego klucza  i należy powtórzyć całą procedurę.   

Przeprowadzona powyżej analiza ma znaczenie praktyczne i znajduje zastosowanie w istniejących systemach do kwantowej dystrybucji klucza. Na rynku istnienie obecnie kilka zestawów które pozwalają przeprowadzić KDK wykorzystując protokoły oparte na superpozycji kwantowej. Na rysunku poniżej przedstawiono przykładowy zestaw wykorzystujący zmodyfikowaną wersję protokołu BB84, tzw. protokół T12

ToshibaQKD
Przykładowy dostępny komercyjnie zestaw do kwantowej dystrybucji klucza. Źródło

Do przesyłania fotonów, dostępne komercyjnie systemy kryptografii kwantowej stosują światłowody. Niepożądaną cechą takiego rozwiązania jest jednak wykładnicze tłumienie natężenia światła w funkcji przebytego przez światło dystansu. Z uwagi na twierdzenie o zakazie klonowania oraz na fakt posługiwania się w kwantowej dystrybucji klucza pojedynczymi fotonami, nie jest możliwe stosowanie klasycznych wzmacniaczy sygnału.  Dlatego też, kwantowa dystrybucja klucza za pośrednictwem światłowodów jest dzisiaj ograniczona do odległości poniżej około 400 km.

BitRate
Wykładniczy zanik przepustowości kwantowej dystrybucji klucza w funkcji odległości. Źródło

Wraz z długością linii transmisyjnej spada jej przepustowość.  Na bardzo krótkich dystansach osiągane są obecnie wartości około 10 Mb/s (arXiv:1807.04484). Na odległościach rzędu 50 km wartość ta spada już do około 1 Mb/s. Natomiast, nieubłagana natura zaniku eksponencjalnego sprawia, że na dystansach około 400 km KDK można przeprowadzać w tempie jedynie około 1 bitu na sekundę (co jest wielkością niepraktyczną).

Możliwym rozwiązaniem dla powyższych trudności jest stosowanie powielaczy kwantowych (ang. quantum repeater). Są to jednakże bardzo złożone systemy, będące wciąż w fazie badań.  Dużo bardziej obiecującym rozwiązaniem jest wykorzystanie faktu jedynie odwrotnego z kwadratem odległości zaniku natężenia światła w próżni, oraz dużo słabszego niż w ciele stałym tłumienia fotonów w gazach. Rozwiązanie to wiąże się z wykorzystaniem przestrzeni kosmicznej do przeprowadzenia kwantowej dystrybucji klucza. Możliwość taka została pomyślnie potwierdzona eksperymentalnie na skalach międzykontynentalnych w 2017 roku z wykorzystaniem protokołu BB84. Zagadnienie to opisuję bardziej szczegółowo we wpisie Kwantowa łączność satelitarna.

© Jakub Mielczarek

Naukowe wyzwania a bezpieczeństwo Polski

Nie mając jasno wyznaczonego celu skazani jesteśmy na, jak mówią fizycy, błądzenie przypadkowe, przegrywając z tymi którzy takie cele przed sobą postawili i konsekwentnie do nich dążą. Dotyczy to zarówno naszych osobistych dróg życiowych, jaki i tych obranych kolektywnie przez zbiory jednostek, jakimi są społeczeństwa.

Czy społeczeństwo polskie wyznacza sobie takie globalne cele? Więcej, czy stawia przed sobą ambitne wyzwania, które wymagałby determinacji i zaangażowania ponad podziałami? Trudno mi wskazać jednoznacznie na istnienie obecnie w Polsce takich wyzwań. Mamy pewne, rozmyte, wspólne cele jak chociażby to, że chyba Wszyscy chcielibyśmy żeby Polska stała się krajem silniejszym ekonomicznie. Taki cel nie jest jednak dobrze zdefiniowany. Wymaga on skwantyfikowania, na podobnej zasadzie jak przedsiębiorstwa określają roczne (lub bardziej odległe) plany przychodów i zysków, które później uparcie starają się realizować. W przypadku Polski, za ekonomiczne wyzwanie można by uznać wprowadzenie Polski do grupy G20 w przeciągu, powiedzmy, pięciu lat. To jest całkiem dobrze określony cel, którego osiągnięcie wymaga mobilizacji i odpowiedniego zaangażowania w obszarze gospodarki (ale również dyplomacji) w przeciągu najbliższych lat. Można, w dużym stopniu, określić jakie warunki musielibyśmy spełnić żeby dołączyć do tego elitarnego grona.

Nie w mniejszym stopniu, jako naukowca,  zastanawia mnie również to czy przed Polską Nauką możemy postawić pewne globalne wyzwania, wyznaczające kurs jej rozwoju, co pozwoliłoby systematycznie odrabiać straty do światowej czołówki. Nie stawiając przed rodzimą Nauką takich ambitnych celów, będziemy niestety skazani na pogodzenie się z pozycją w środku stawki. Ale czy takie dobrze określone wyzwania da się w ogóle zdefiniować i czym by one mogły być? Nasuwać się może na myśl: podniesienie polskich uczelni w rankingu szanghajskim, wzrost liczby międzynarodowych patentów i publikacji w Nature. Wprowadzenie Uniwersytetu Warszawskiego i Uniwersytetu Jagiellońskiego do trzeciej setki rankingu szanghajskiego może wydawać się całkiem dobrze określonym wyzwaniem.  Nie o to tu jednak chodzi. Nie uprawiamy Nauki dla pozycji w rankingach. To są kwestie wtórne.  Nauka powinna, przede wszystkim, pracować dla dobra społeczeństwa.  A jeśli będzie to robione właściwie to i poziom jaki prezentuje będzie rósł. Dlatego też, chciałbym zastanowić się tutaj nad tym jaka Nauka jest Polsce najbardziej potrzebna i jakie w ramach niej wyzwania powinniśmy podejmować wspólnymi siłami, na skali dużo szerszej niż kilkuosobowe zespoły naukowe, na których opiera się obecnie, w głównej mierze, praca badawcza w Polsce.         

Nie jest nowym stwierdzenie że, w pierwszej kolejności, rodzima Nauka powinna podejmować kierunki bezpośrednio związane ze strategicznymi obszarami. W artykule tym, chciałbym zaś podkreślić znaczenie, w mojej opinii, najważniejszego z nich, jakim jest bezpieczeństwo, zarówno to militarne jak i energetyczne. Nie trzeba nikomu uzmysławiać sytuacji geopolitycznej Polski i związanych z tym zagrożeń. Istnieje niezliczona liczba opracowań dyskutujących to zagadnienie, pozwolę więc sobie pominąć wchodzenie w szczegóły.  Bezpieczeństwo jest kwestią nadrzędną i bez osiągnięcia odpowiedniego jego poziomu, trudno myśleć o stabilnym długofalowym rozwoju Polski.  Niestety, obecnie rozwój nowoczesnego zaplecza militarnego w Polsce opiera się głównie na kontraktach z zagranicznymi dostawcami technologii. Jestem realistą, pewnych zaległości nie da się nadrobić nawet w trzydzieści lat. Problem zapóźnienia technicznego Polski jest głęboki i trudny do nadrobienia w krótkim okresie czasu. Jednakże, moje obserwacje nie wskazują na to by w obszarze nowoczesnych technologii wojskowych następowała w Polsce znacząca poprawa.

W krajach wysoko rozwiniętych, takich jak Stany Zjednoczone, rozwój technologii z zakresu bezpieczeństwa jest silnie związany z prowadzeniem innowacyjnych badań naukowych. Jest to z korzyścią zarówno dla podniesienia poziomu bezpieczeństwa jak i dla samej Nauki, nie wspominając o ogromnym znaczeniu transferu opracowanych rozwiązań do przemysłu cywilnego. W Polsce, obszar ten wydaje się być zaś zupełnie niezagospodarowany. A przecież może on stanowić doskonały motor dla rozwoju Polskiej Nauki, dostarczając nam równocześnie tak ważnego poczucia bezpieczeństwa.

Zanim przejdę do podania propozycji konkretnych działań w tym kierunku, pozwolę sobie w tym miejscu zwrócić uwagę na jeszcze jedną kwestię. Temat jest mi dosyć dobrze znany, a mianowicie rzecz dotyczy tego to co kieruje młodymi naukowcami w decyzji o prowadzeniu swoich badań poza granicami Polski. Skłaniam się do stwierdzenia, że w dzisiejszych czasach, czynnikiem decydującym nie są zazwyczaj kwestie finansowe. Prowadząc solidne badania, godziwe zarobki można  osiągnąć również w Polsce. Chodzi natomiast o to, że wciąż prowadzone w Polsce badania są często po prostu mało interesujące. Włączenie się w nie, nie stanowi dla młodych naukowców wyzwania. Chcą robić coś ciekawszego i ważniejszego, na wyższym niż w Polsce poziomie. Możliwość taką odnajdują w grupach badawczych prowadzących nowatorskie prace naukowe, poza granicami naszego kraju.

Wydaje mi się, że podjęcie w Polsce strategicznych kierunków badawczych mających, jak to już podkreśliłem, znaczenie dla bezpieczeństwa naszego kraju, stanowiłby bardzo atrakcyjną ofertę dla młodych naukowców. Nie chodzi oczywiście o to żeby młodzi naukowcy nie wyjeżdżali. Wyjeżdżać trzeba, rzecz w tym żeby mieć również do czego wracać. Ambitne, zakrojone na dużą skalę programy naukowe o bezpośrednim znaczeniu dla Polski działałyby jak magnes na najzdolniejsze umysły.  Kiedy można uczestniczyć w takim przedsięwzięciu, kwestia wynagrodzenia staje się poboczna. Ważne, że można być „u siebie”, blisko rodziny i przyjaciół, realizując swoje pasje i jednocześnie robiąc coś ważnego dla całego społeczeństwa. To są, uważam, kwestie niezwykle istotne. W Polsce, możliwość realizowania się w taki sposób jest jednak ograniczona.

W Stanach Zjednoczonych, innowacyjne projekty naukowe o znaczeniu dla obronności finansowane są, między innymi, przez osławioną Defense Advanced Research Project Agency (DARPA). Trochę w cieniu, działa jeszcze kilka podobnych agencji, jak w szczególności Intelligence Advanced Research Project Agency (IARPA), finansująca zaawansowane badania o znaczeniu dla pracy wywiadu. Próżno szukać w Polsce odpowiedników takich instytucji. W ramach firm wchodzących w skład Polskiej Grupy Zbrojeniowej oraz na Wojskowej Akademii Technicznej prowadzone są oczywiście prace badawczo-rozwojowe na potrzeby Sił Zbrojnych RP. Chodzi jednak o to by wyjść z badaniami mającymi znaczenie dla bezpieczeństwa poza te ramy i zaangażować potencjał naukowy uniwersytetów i cywilnych uczelni technicznych, realizując szeroko zakrojone (często interdyscyplinarne) projekty naukowe o znaczeniu strategicznym.

Żeby wyraźniej nakreślić to o jakiego typu przedsięwzięciach mowa, przytoczę tu kilka przykładów projektów finansowanych przez DARPA i IARPA. W szczególności, w latach 2001-2005 DARPA przeznaczyła 100 mln USD na projekt Quantum Information Science and Technology Program (QuIST), dedykowany przede wszystkim budowie systemów kryptografii kwantowej. Rozwiązania tego typu wykorzystują fizykę mikroświata – mechanikę kwantową – do tego by  wymieniać w sposób bezwarunkowo bezpieczny informacje pomiędzy np. jednostkami wojskowym lub ośrodkami decyzyjnymi.  Z kolei, jednym z projektów finansowanych obecnie przez IARPA jest Machine Intelligence from Cortical Networks (MICrONS), którego celem jest uzyskanie konektomu jednego milimetra sześciennego kory mózgowej gryzonia, co będzie miało znaczenie dla uczenia sztucznych sieci neuronowych. Takie sieci znajdą później zastosowanie w systemach wykrywania różnego typu zagrożeń. Finansowanie  projektu to również 100 mln USD. Warto podkreślić, że jest to bardzo interdyscyplinarny projekt w który zaangażowani są m.in. neurobiolodzy, chemicy, fizycy, informatycy i inżynierowie. Jest to więc doskonała okazja do rozwijania współpracy pomiędzy różnymi ośrodkami naukowymi. Kolejny aktualny przykład to program Blackjack, konstelacji dwudziestu nanosatelitów o zastosowaniu militarnym. DARPA zarezerwowała w 2018-tym roku na ten cel ponad 100 mln USD. Bez wątpienia, w projektach tego typu chcieliby bez wahania wziąć udział młodzi ale i starsi Polscy naukowcy i inżynierowie. Warto w tym miejscu zaznaczyć, że naukowe projekty na rzecz bezpieczeństwa, jak chociażby te przytoczone powyżej, dotyczą obszarów zarówno badań stosowanych jak i badań podstawowych. Chciałbym tym samym rozwiać mogącą się pojawić wątpliwość o brak podstawowego charakteru tego typu prac badawczych. Jak uczy nas doświadczenie, to właśnie odpowiednio sprofilowane badania podstawowe mogą być źródłem rozwiązań które później zadecydują o przewadze militarnej. 

Wracając do Polski, budżet MON na rok 2019 wynosi  44,7 mld PLN (2,0% PKB). A gdyby, na przykład, przeznaczyć z takiej kwoty jeden miliard złotych rocznie na innowacyjne programy badawcze związane z obronnością. Przedsięwzięcie takie mogłoby być również realizowane  międzyresortowo. Niewątpliwie, taki program mógłby przynieść ogromne korzyści, zarówno dla bezpieczeństwa jak i dla samej Polskiej Nauki oraz polskiej gospodarki.  W kwocie 1 mld PLN (porównywalnej z jednym sporym kontraktem zagranicznym) udałoby się zrealizować powiedzmy 10 dużych projektów o budżecie 100 mln PLN każdy. Z budżetem 100 mln złotych można np. zbudować i umieścić na niskiej orbicie okołoziemskiej mikrosatelitę (ok. 10-20 kg) o przeznaczeniu wojskowym (obrazowanie, łączność lub naprowadzanie pocisków). Za kolejne 100 mln PLN można zrealizować program budowy rakiety suborbitalnej (w przyszłości, elementu systemu Wisła).  100 mln PLN to również wystarczające środki do tego by połączyć najważniejsze ośrodki decyzyjne w Polsce systemami do kwantowej dystrybucji klucza (zbudowanymi w Polsce). W kwocie 100 mln PLN można również zaprojektować i zbudować nowoczesny system radarowy (typu AESA), mogący w przyszłości stanowić część tarczy antyrakietowej.  Wymieniam tu przykłady co do których wiem, że istnieje zaplecze intelektualne i techniczne do ich realizacji w Polsce.  Do tego, w skali roku, pozostaje 5 kolejnych projektów, każdy rozpisany na 4-5 lat realizacji. Projekty takie mogłyby być zarówno w dużym stopniu niezależne jak również kontrybuować jako części większych przedsięwzięć.   

Można sobie wyobrazić o ile bezpieczniejsi i rozwinięci technologicznie stalibyśmy się dzięki takim działaniom w perspektywie dekady, mając zrealizowanych chociażby kilkanaście ambitnych szeroko zakrojonych projektów naukowo-technicznych z zakresu bezpieczeństwa. Polska Nauka zyskałaby silny impuls do rozwoju, zwiększając poziom innowacyjności i atrakcyjności na światowej arenie. Niniejszy artykuł prezentuje jedynie zarys ścieżki która mogłaby do tego doprowadzić. Moim zamysłem było tu zaś, przede wszystkim, sprowokowanie do dalszych przemyśleń nad zasadnością zaprezentowanej tu koncepcji i szansą jej zmaterializowania w polskich realiach. Wizja ta wymaga oczywiście zarówno dalszej pogłębionej analizy jak i późniejszych ewentualnych odważnych decyzji politycznych. W moim przekonaniu, jest ona jednak realna i możliwa do wcielenia.  

© Jakub Mielczarek