Co już potrafią komputery kwantowe?

Internet stwarza szerokie pole do deformacji rzeczywistości. Sposobność ta nie oszczędziła komputerów kwantowych, które w ciągu ostatnich lat wyszły z laboratoriów badawczych do wielkiego świata, również tego wirtualnego.  Niestety, zderzenie praw fizyki kwantowej z prawami internetu (lub też ich brakiem), nie mogło obejść się bez szwanku dla samego przedmiotu naszego zainteresowania – komputerów kwantowych.  Kogo wszak interesują zawiłości techniczne, prawa natury, wyniki badań i analiz, czy też opinie specjalistów? Ważniejsze są przecież emocje bo to one podsycają zainteresowanie.  Te zaś przyczyniły się do wykreowanie obrazu komputerów kwantowych jako cudownych, ale i stanowiących zagrożenie, wszechmogących maszyn dostępnych już jakoby na wyciągnięcie ręki.

Co prawda, to przejaskrawienie pociągnęło za sobą większe inwestycje w technologie kwantowe. Nie oznacza to jednak czegoś jednoznacznie pozytywnego, ponieważ o ile wzmożone zainteresowanie przełożyło się na przyśpieszenie rozwoju technologii to wiotkie podstawy tego zauroczenia stworzyły zagrożenie wystąpienia patologii. W tym przypadku, istnieje chociażby ryzyko tego, że inwestorzy, nie koniecznie dysponujący specjalistyczną wiedzą z zakresu technologii kwantowych, podejmą decyzje inwestycyjne, w uproszczeniu, zwiedzeni tym, że pomysł zawiera słowo klucz – „kwantowy”. Wynikające stąd, rosnące i niespełniane oczekiwania pokładane w technologii mogą zaś wymuszać manipulacje w przekazach marketingowych, mające na celu wygenerowanie sprzedaży czegoś co nie dostarcza jeszcze bezpośrednich korzyści nad dostępnymi rozwiązaniami alternatywnymi. To zaś tylko wzmaga zafałszowanie przekazu, w szczególności tego wyłaniającego się w świecie wirtualnym.

Niestety, zjawisko takie dotknęło rodzącego się rynku komputerów kwantowych, który za wszelką cenę chciałby zacząć odrabiać poczynione niebotyczne inwestycje. Jest to koszt wyjścia technologii kwantowych poza sferę finansowania jedynie z grantów badawczych, nie narzucających wymogu bezpośredniego zwrotu z inwestycji. Oczywiście, nie dotyczy to jedynie technologii kwantowych, ale również innych nowych technologii wymagających ogromnych nakładów na badania i rozwój, takach jak chociażby technologie oparte na grafenie.

Z całego tego zgiełku, wyniknęło jednak ostatecznie coś dobrego. Mianowicie, pierwsze komputery kwantowe stały się dostępne niemal dla każdego.  Nie są one jednak tymi maszynami przed którymi ostrzegają nas doniesienia medialne o wykorzystaniu komputerów kwantowych do łamania szyfrów stosowanych w elektronicznych transakcjach bankowych. Na te będziemy musieli poczekać jeszcze kolejnych kilka dekad [1]. Dostępne już komputery kwantowe oferują bardzo ograniczone możliwości, nie wykraczające ponad to co dają nam te do korzystania z których przywykliśmy. Ponadto, borykają się one z trudnym do przezwyciężenia problemem dekoherencji kwantowej, znacznie ograniczającym ich obecną funkcjonalność, jak i możliwość dalszego skalowania. Pomimo tych przeszkód, możemy już dzisiaj zacząć naszą przygodę z obliczeniami kwantowymi, chociażby po to aby samemu przekonać się o możliwościach kwantowych maszyn. To co już da się z ich pomocą zdziałać postaram się zarysować poniżej.

Chciałbym jednak wcześniej podkreślić, że droga do miejsca w którym się obecnie znajdujemy nie była krótka. Komputery kwantowe nie wyskoczyły jak królik z kapelusza.   Może to zabrzmieć zaskakująco, ale już przed II wojną światową dysponowaliśmy aparatem teoretycznym niezbędnym do zaprojektowania komputera kwantowego. Tak już jest, że fizyka teoretyczna potrafi wyprzedzić inżynierię o dziesiątki, setki, czy nawet o tysiące lat.

Prawie już sto lat temu, w połowie lat dwudziestych ubiegłego wieku, stara teoria kwantów, do której zalicza się orbitalny model atomu Bohra, przekształciła się w mechanikę kwantową, taką jaką znamy ją dzisiaj. Ważnym krokiem w tym procesie było wprowadzenie przez de Broglie’a (1924) nowatorskiej koncepcji fal materii. Następnie, w 1926 roku, Erwin Schrödinger, zabrawszy pracę de Broglie’a oraz jedną ze swoich muz (nie kota), zaszył się na dwa i pół tygodnia w alpejskiej will, po czym pokazał światu, że rozchodzenie się fal materii można opisać równaniem matematycznym – znanym dzisiaj jako równanie Schrödingera.  Tego samego roku, urodzony w ówczesnym Breslau, Max Born zaproponował, że to co opisuje funkcja falowa to w istocie rozkład prawdopodobieństwa. Odsłoniło to probabilistyczną naturę mikroświata, która odgrywa ogromną rolę w technologiach kwantowych. Rok wcześniej, Born razem z Werner’em Heisenberg’iem wprowadzili równoważne sformułowanie macierzowe (operatorowe) mechaniki kwantowej, z którego na codzień korzystają obecnie programiści komputerów kwantowych. Związek mechaniki kwantowej z teorią informacji zaczął się zaś rysować dzięki pracom pioniera informatyki i fizyka matematycznego węgierskiego pochodzenia Johna Von Neumanna (rok 1932). Na odważny krok zaproponowania komputerów opierających swoje działanie na mechanice kwantowej musieliśmy jednak czekać do połowy lat osiemdziesiątych ubiegłego stulecia. Wtedy to, koncepcje taką zaczął poważnie rozważać, zafascynowany pierwszymi komputerami osobistym, znany wszystkim dobrze Richard Feynman [2]. Od tego czasu zaczął się wyścig w stronę zbudowania komputera kwantowego.

Na pierwsze prototypy musieliśmy poczekać kolejną dekadę. W konstrukcjach tych wykorzystano zjawisko jądrowego rezonansu magnetycznego (NMR), stosowane powszechnie w diagnostyce medycznej. Kierunek ten nie pozwolił jednak na stworzenie komputerów przetwarzających więcej niż kilka jednostek informacji kwantowej – tak zwanych kubitów [3].  Przełomowe okazało się wykorzystanie zjawiska fizycznego zwanego nadprzewodnictwem. Jest to zanik oporu elektrycznego niektórych materiałów ochłodzonych do temperatur bliskich zera bezwzględnego. Przykładem naturalnie występującego w przyrodzie nadprzewodnika jest pierwiastek Niob, który to przechodzi do fazy nadprzewodzącej w temperaturze poniżej 9.2 Kelwina. Jeśli z takiego materiału wykonamy pierścień i przepuścimy przez niego prąd elektryczny zadziała on jak elektromagnes, wytwarzając pole magnetyczne. Niezwykłe własności stanu nadprzewodzącego powodują jednak, że strumień pola magnetycznego przez taki pierścień może przyjmować tylko określone (skwantowane) wartości, podobnie jak poziomy energetyczne w atomie. Dwa najniższe energetycznie poziomy wykorzystuje się do stworzenia kubitu. To właśnie na tego typu nadprzewodzących kubitach opiera swoje działanie komputer kwantowy Sycamore firmy Google, na którym w ubiegłym roku po raz pierwszy wykazano eksperymentalnie przewagę czasową maszyny kwantowej nad klasyczną, wykorzystując 53 kubity [4]. Udało się tego dokonać dla tzw. problemu próbkowania (ang. sampling), sprowadzającego się do generowania ciągów bitów z rozkładu prawdopodobieństwa, który w przypadku komputera kwantowego jest określony przez sekwencję operacji wykonanych na kubitach. Komputery kwantowe oparte na kubitach nadprzewodzących rozwijają również firmy takie jak IBM, D-Wave i Rigetti Computing.

Artists-Rendition-Google-Quantum-Processor.
Artystyczna interpretacja komputera kwantowego Sycamore firmy Google.  Źródło

Od kilku już lat, proste (pod względem możliwości, nie zaś konstrukcji) komputery kwantowe działające na kubitach nadprzewodzących udostępnia potentat branży informatycznej – firma IBM. Każdy, za pomocą platformy online Quantum Experience, może spróbować swoich sił w programowaniu procesora 5 i 15 kubitowego. Istotnym ograniczeniem tych maszyn jest jednak nie tylko ilość dostępnych kubitów ale i długość tak zwanego czasu koherencji, który determinuje to ile operacji jesteśmy w stanie na nich wykonać. Niestety, pomimo ogromnej wykonanej pracy, dla procesorów kwantowych działajacych w oparciu o kubity nadprzewodzących, czasy te są nadal stosunkowo krótkie. Dlatego też, wciąż rozwijane są alternatywne kierunki, między innymi wykorzystujące fotony (np. firma Xanadu) oraz pułapki jonowe (np. firma IonQ).

Udostępnione przez IBM komputery kwantowe, nie dostarczają jak dotąd bezpośrednich korzyści obliczeniowych nad maszynami klasycznymi. Działanie komercyjnego 20 kubitowego komputera kwantowego IBM Q System One możemy emulować nawet na smartfonie. Wykładniczy charakter wzrostu ilości zmiennych potrzebnych do opisu stanu komputera kwantowego sprawia jednak,  że emulacji 100 kubitowego komputera nie bylibyśmy już w stanie przeprowadzić nawet na najpotężniejszym superkomputerze klasycznym. Przezwyciężenie problemów związanych z utrzymywaniem stabilnej pracy tych rozmiarów komputerów kwantowych pozwoli wejść w obszar niedostępny dla komputerów klasycznych.

IBM-Q-System-One
Design 20 kubitowego komputer kwantowy IBM Q System One może wzbudzać zachwyt.  Jednak, już nie jego możliwości, które da się osiągnąć na przeciętnym smartfonie.

Zanim to jednak nastąpi, warto zastanowić się nad tym co daje nam możliwość korzystania z istniejących już komputerów kwantowych. Moim zdaniem, do najważniejszych korzyści płynących z dostępu do tych maszyn należą: możliwość nauki pracy z komputerami kwantowymi,  poznawanie niedoskonałości które je charakteryzują i testowanie algorytmów kwantowych (w tym symulacji kwantowych). Zrozumienie niedoskonałości, przejawiających się w postaci błędów, pozwala opracowywać nowe i skuteczniejsze algorytmy tak zwanej kwantowej korekcji błędów. Na dostępnych komputerach kantowych możemy symulować proste kwantowe układy fizyczne, takie jak na przykład molekuły. Jest to domena chemii kwantowej, a symulacje takie pozwalają na przykład wyznaczać energie stanów podstawowych układów atomów. Wykorzystując komputery kwantowe, udało się to zrobić m.in. dla cząsteczki wodoru molekularnego [5]. W przyszłości, symulacje takie będzie można rozszerzyć do skomplikowanych molekuł, co może znaleźć zastosowanie w farmakologii.

Symulacje układów fizycznych na komputerach kwantowych prowadzone są m.in. w moim zespole Quantum Cosmos Lab, który działa na Uniwersytecie Jagiellońskim w Krakowie. Badania te skupiają się na symulowaniu nie zwykłych atomów, ale „atomów przestrzeni” z których może być zbudowana tkanka naszej przestrzeni. Korzystając z komputerów kwantowych firmy IBM, udało nam się pomyślnie zasymulować pojedynczy kwant przestrzeni [6]. Celem jest jednak to by symulować setki i tysiące takich cegiełek, co pozwoliłoby nam zbadań proces formowania się przestrzeni. Komputery kwantowe otwierają drogę do tego by faktycznie to zrobić, musimy się jednak liczyć z tym, że może nam to zająć kolejne 20-30 lat pracy, podążającej za rozwojem komputerów kwantowych.

Kolejna obiecująca możliwość jaka rysuje się za sprawą zastosowania obecnych i spodziewanych w najbliższych latach komputerów kwantowych to kwantowe generatory liczb losowych, wykorzystujące probabilistyczną naturę świata kwantowego. Generatory takie są szczególnie atrakcyjne ze względu na zastosowanie w rozwiązaniach kryptograficznych, związanych z cyberbezpieczeństwem, takich jak generowanie kluczy. Zaleta komputerów kwantowych leży w tym, że losowość wygenerowania klucza może zostać zagwarantowana (certyfikowana) niemożliwością zasymulowania algorytmu generatora na superkomputerze klasycznym.  Algorytmy generujące certyfikowane kwantowe ciągi liczb losowych wykorzystują obwody kwantowe, podobne do tych za pomocą których  firma Google wykazała, przywołaną wcześniej, korzyść (supremację) komputerów kwantowych.

Duże zainteresowanie budzi zastosowanie komputerów kwantowych w obszarach sztucznej inteligencji i uczenia maszynowego. W przyszłości, kwantowe algorytmy uczenia maszynowego mogą stanowić konkurencję do algorytmów klasycznych. Wskazuje na to szereg badań teoretycznych [7]. Jednakże, na chwilę obecną implementacje takich algorytmów są w bardzo wczesnej fazie. Na uwagę zasługuje przykład niedawno przeprowadzonej symulacji prostego modelu neuronu – tak zwanego perceptronu – na 5 kubitowym komputerze kwantowym [8]. Natomiast, dobrym punktem wyjścia do rozpoczęcia przygody z kwantowych uczeniem maszynowym jest platforma PennyLane, udostępniona przez firmę  Xanadu.

Na koniec, warto przywołać również przypadek tak zwanych adiabatycznych komputerów kwantowych. Komercyjnym przykładem takiego komputera są maszyny oferowane przez firmę D-Wave. Można do nich uzyskać dostęp online poprzez platformę Leap.  Komputery takie realizują wyspecjalizowany algorytm związany z poszukiwaniem stanu o najniższej energii (tzw. stanu podstawowego) dla układu kubitów. Algorytm ten pozwala podejmować szereg złożonych zagadnień, takich jak problemy optymalizacyjne i uczenie maszynowe. Komputery te są również doskonałym narzędziem do przeprowadzania eksperymentów fizycznych dla układów wielu atomów [9]. Pomimo dużej (rzędu 2000) liczby kubitów, zjawiska kwantowe ogrywają w nich inną rolę niż w omawianych wcześniej komputerach kwantowych (powodują tzw. tunelowanie kwantowe) i jak do tej pory nie wykazano by komputery te potrafiły rozwiązać problemy zbyt trudne dla superkomputerów klasycznych.  Programując je można się jednak, z pewnością, bardzo wiele nauczyć.

Niewątpliwie, żyjemy w bardzo ciekawych czasach, które można uznać za przedsionek do ery komputerów kwantowych. Pierwsze z nich są już dostępne do użytku za pośrednictwem platform internetowych, otwartych dla wszystkich chcących spróbować swoich sił w ich programowaniu. I choć nie dają one jeszcze bezpośredniej przewagi nad komputerami klasycznymi, pozwalają zmierzyć się ze światem mechaniki kwantowej i algorytmów kwantowych. Osobiście, bardzo cieszy mnie to, że dzięki komputerom kwantowych, niezwykły kwantowy świat, jak dotąd poznawany prawie wyłącznie przez fizyków teoretyków, zaczyna eksplorować coraz większa liczba śmiałków, w tym szczególnie dużo, otwartych na nowe wyzwania, młodych osób. Liczę na to, że to właśnie dzięki nim na dobre zadomowimy się w świecie komputerów kwantowych.

Bibliografia

[1] J. Mielczarek, Technologie kwantowe a cyberbezpieczeństwo, CyberDefence24, 2019.
[2] R. Feynman, QuantumMechanicalComputers, Optics News, Vol. 11, Issue 2, 11–20, 1985.
[3] L. M. K. Vandersypen, et al., Experimental realization of Shor’s quantum factoring algorithm using nuclear magnetic resonance,  Nature 414, 883–887, 2001.
[4] F. Arute, et al., Quantum supremacy using a programmable superconducting processor, Nature 574, 505-510, 2019.
[5] Y. Cao, et al., Quantum Chemistry in the Age of Quantum Computing, Chemical Reviews, 119 (19), 10856-10915,2019.
[6] G. Czelusta,  J. Mielczarek, Quantum simulations of a qubit of space, arXiv:2003.13124 [gr-qc], 2020.
[7] J. Biamonte, P. Wittek, et al., Quantum machine learning, Nature 549, 195–202, 2017.
[8] Tacchino, F., Macchiavello, C., Gerace, D. et al., An artificial neuron implemented on an actual quantum processor, npj Quantum Inf 5, 26, 2019.
[9] R. Harris, et al.,  Phase transitions in a programmable quantum spin glass simulator,
Science, Vol. 361, Issue 6398, 162–165, 2018.

© Jakub Mielczarek

Artykuł został opublikowany na portalu Polish Brief.

Optyczny mózg

Prędkość rozchodzenia się informacji (za pośrednictwem impulsów nerwowych) w mózgach ssaków sięga około 120 m/s. Wartość ta determinuje czas potrzebny na komunikację pomiędzy dowolnymi obszarami w mózgu i w konsekwencji czas reakcji na bodźce. To zaś, przy narzuconych przez środowisko zewnętrzne skalach czasowych, rzutuje na maksymalne dopuszczalne rozmiary mózgu. Przykładowo, informacja pomiędzy dwoma odległymi o 10 cm częściami mózgu podróżuje co najmniej milisekundę (0,001 s). Zachowanie tego rzędu czasów propagacji sygnału jest niezbędne do tego, żeby organizm mógł przetworzyć bodziec zewnętrzny i zareagować na niego w ułamku sekundy. Takie tempo rekcji umożliwiło naszym przodkom przetrwać w potyczce z dzikim zwierzęciem i prowadzić polowania. Dzisiaj jest to niezbędne chociażby do tego, żeby sprawnie kierować pojazdami.

O ile prędkość propagacji impulsów w naszych mózgach jest ograniczona biochemiczną naturą naszego hardware’u, to w przypadku systemów neuromorficznych – naśladujących działanie mózgu –  ogranicza nas jedynie maksymalna prędkość rozchodzenia się informacji w przyrodzie, równa prędkość światła w próżni, c\approx 299\ 794\ 458 m/s.  Jeśli udałoby się zasymulować działanie sieci neuronowych za pomocą światła, mogłyby one przetwarzać informacje około 2,5 miliona razy szybciej niż ludzki mózg. To zaś,  z jednej strony znaczy, że optyczny mózg mógłby być znacznie większy niż ten biologiczny.  Dla przykładu, przy zachowaniu minimalnej latencji sygnałów w ludzkim mózgu (~1 ms dla ~10 cm) rozmiary świetlnej sieci neuronowej mogą sięgać 300 km. Z drugiej strony, możliwe stałoby się osiąganie dużo większego niż w ludzkim mózgu tempa przetwarzania informacji. Hipotetyczny, optyczny symulator ludzkiego mózgu o rozmiarach naturalnych działałaby około 2,5 miliona razy szybciej od jej biologicznego odpowiednika. Jeden dzień funkcjonowania ludzkiego mózgu odpowiadałby więc około czterem setnym sekundy pracy optycznego mózgu. Jeden ziemski rok, odpowiadałby w symulacji optycznej około 13 sekundom. Natomiast, w świecie optycznym, symulacja naszego całego życia nie trwałoby dłużej niż dwadzieścia kilka minut!

Powyższe szacunki zaniedbują dodatkowe czasy wynikające z propagacji sygnału w innym niż próżnia ośrodku, jak i te związane z nieliniowym przetwarzaniem informacji optycznej, uwzględnienie których może być konieczne do symulacji realistycznych sieci neuronowych. Są one jednak wystarczająco miarodajne to tego, żeby uzmysłowić nam bardzo ważną z punktu widzenia człowieka własność sztucznej inteligencji. Mianowicie, może stać się ona nie tylko potężniejsza do ludzkiej, pod względem ilości przetwarzanej informacji ale i znacznie od niej szybsza. Z taką, tak zwaną, superinteligencją (Artificial Super Intelligence – ASI) trudno byłoby człowiekowi konkurować, ponieważ żyłby on w zupełnie innych skalach czasowych, nieprzystających do tych obowiązujących w wirtualnym świecie superinteligencji. Kiedy w świecie optycznej superinteligencji upłynęłoby 2,5 miliona lat, czyli czyli okres porównywalny z całą historią Homo sapiens na Ziemi, w zewnętrznym świecie ludzkim upłynąłby zaledwie jeden rok ziemski.

Wróćmy zatem na Ziemię. Superinteligencja to wciąż domena futurologii, natomiast prace nad optycznymi sztucznymi sieciami neuronowymi i ogólniej procesorami optycznymi trwają na dobre [1,2,3,4].  To samo dotyczy innych podejść do sztucznej inteligencji i symulacji ludzkiego mózgu. Można o tym poczytać w moich wcześniejszych wpisach O symulacjach ludzkiego mózgu i Dwanaście technologii jutra, gdzie m.in. przywołuję prowadzone obecnie symulacje wykonywane za pomocą tzw. procesorów neuromorficznych. Tutaj chciałbym jednak pozostać przy podejściu optycznym, które można uważać za rozwiązanie docelowe, zarówno ze względu na dyskutowaną powyżej możliwość osiągnięcia maksymalnej dopuszczalnej w przyrodzie prędkości przesyłania informacji, jaki i z uwagi na możliwość przetwarzania informacji z niedostępną innymi metodami częstotliwością. Ponadto, podejście optyczne w sposób naturalny otwiera drogę do implementacji tak zwanej kwantowej sztucznej inteligencji (ang. quantum artificial intelligence) [5,6,7], ale o tym przy innej okazji.

Chociaż mogłoby się wydawać, że optyczna sieć neuronowa to nieuchronnie coś bardzo skomplikowanego i kosztownego, to prostą optyczną sieć neuronową może zbudować dosłownie Każdy, korzystając z powszechnie dostępnych elementów do budowy światłowodowych sieci internetowych. To zaś jak można to zrobić zarysuję poniżej i posłużę się tym przykładem do omówienia kilku wybranych aspektów optycznych implementacji sieci neuronowych.

20200317_113414
Prototyp optycznej sztucznej sieci neuronowej opartej o światłowody jednomodowe oraz dzielniki mocy (splittery). Źródłem światła jest laser, pracujący na długości fali 650 nm.

Do konstrukcji optycznej sieci neuronowej będziemy potrzebować sztuczne neurony oraz połączenia pomiędzy nimi. Te drugie możemy zrealizować wykorzystując światłowody, stosowane do komunikacji optycznej. Odcinki takich światłowodów można ze sobą łączyć stosując odpowiednie adaptery. Medium transmisyjne wykorzystywane w światłowodach to przeważnie domieszkowane szkło kwarcowe, dla którego współczynnik załamania n \approx 1.46, co daje prędkość propagacji sygnału v=c/n \approx 205\ 000 km/s, czyli około 70 \% prędkości światła w próżni.

Funkcją neuronów jest zbieranie sygnałów wejściowych z synaps i wytworzenie na ich podstawie sygnału wyjściowego. W biologicznych sieciach neuronowych, dodatkowym aspektem jest wytworzenie tak zwanego potencjału czynnościowego (ang. spike). Możliwość wytwarzania spike’ów jest brana pod uwagę w symulacjach mózgu, w szczególności z wykorzystaniem systemów neuromorficznych. Natomiast, są one zazwyczaj pomijane w uproszczonych modelach sieciach neuronowych stosowanych w uczeniu maszynowym. W tym przypadku, działanie sztucznego neuronu polega na zsumowaniu, z odpowiednimi wagami (synaptycznymi), sygnałów wejściowych i przetworzeniu takiej sumy przez tzw. funkcję aktywacji, otrzymując w ten sposób sygnał wyjściowy. Otrzymany sygnał jest następnie podawany na wejścia innych neuronów, lub też, na wejście tego samego neuronu. Do sytuacji bez tego typu pętli zalicza się sieć typu feedforward, na której skupimy poniżej naszą uwagę.

Najprostszą realizacją optycznego neuronu jest przypadek z liniową funkcją aktywacji,  dla którego neuron jest niczym innym jak sumatorem sygnałów wejściowych. Pomimo swojej prostoty, model ten jest wystarczający do tego by uchwycić podstawową ideę przetwarzania informacji przez sieć neuronową. Realizacją optyczną  neuronu-sumatora jest rozdzielacz (ang. splitter) światłowodowy. Dodatkowo, wagi na “synapsach” takiego optycznego neuronu można modyfikować stosując odpowiednio dobrane tłumiki mocy. W rozwiązaniu prototypowym widocznym na zdjęciu powyżej, wykorzystano standardowe rozdzielacze i połączenia stosowane przy budowie sieci światłowodowych. Całość układu można jednak znacząco zminiaturyzować stosując zintegrowane obwody fotoniczne, zawierajace sieci miniaturowych sztucznych neuronów.

Istota działania sieci neuronowych sprowadza się do wykrywania wzorów. Mogą to być zarówno wzory graficzne, dźwiękowe, lub też bardziej abstrakcyjne wzory związane z przetwarzaniem języka i wyższymi funkcjami poznawczymi. Rozpoznawanie wzoru w sieci neuronowej realizowane jest warstwowo. Żeby to zobrazować, posłużmy się przykładem rozważanej sieci optycznej,  z szesnastoma neuronami w warstwie wejściowej. Neurony te będą reprezentować 16 pikseli na mapie bitowej o rozmiarach 4×4. Łącznie mamy więc 2^{16} = 65536 możliwych binarnych konfiguracji wejściowych. W przypadku optycznym, stan “1” danego bitu oznacza wprowadzenie do obwodu światła o ustalonej mocy. Stan “0” to brak światła.  Ponieważ, w ogólności, możemy zmieniać w sposób ciągły natężenie świtała, dopuszczalnych analogowych stanów wejściowych jest nieskończenie wiele. Tutaj jednak, dla uproszczenia, zawęzimy rozważania do stanów binarnych.

Kolejna warstwa, a  zarazem jedyna tzw. warstwa ukryta, wykrywa  8 liniowych wzorów składowych, wynikających z zsumowania wybranych czterech pikseli w warstwie pierwszej. Są to pośrednie wzory z których w ostatniej (trzeciej) warstwie komponowane są wzory które nasza sieć ma za zadanie rozpoznać. Sytuację tę przedstawia rysunek poniżej:

Netork
Graf reprezentujący połączenia w prototypowej optycznej sztucznej sieci neuronowej, rozpoznającej wybrane 4 wzory na bitmapie o rozmiarach 4×4.

Zaprezentowany tu przykład optycznej sieci neuronowej jest niezwykle prosty i opiera się na dzieleniu mocy sygnałów optycznych. Z uwagi na liniowość funkcji aktywacji, uzasadnione było zastosowanie tylko jednej warstwy wewnętrznej. W celu wykrywania bardziej skomplikowanych wzorów, konieczne jest wprowadzenie nieliniowych funkcji aktywacji (np. sigmoidalnych) oraz większej ilości warstw. Wyzwanie to jest podejmowane w wielu aktualnych pracach nad optycznymi sieciami neuronowymi, zarówno klasycznymi, jak i tymi wykorzystującymi kwantową naturę światła.  Nad wdrożeniami takich rozwiązań pracują m.in.  takie startupy jak LightMatterXandu.

Implementacje te dotyczą “wąskiej” sztucznej inteligencji (Artificial Narrow Intelligence – ANI) nie zaś symulacji nakierowanych na stworzenie ogólnej sztucznej inteligencji (Artificial General Intelligence – AGI), nie wspominając nawet o superinteligencji. Faza ANI jest jednak przedsionkiem do dalszego rozwoju podejścia optycznego w kierunku AGI i ASI.  Warto ostatecznie podkreślić, że przetwarzanie informacji za pomocą światła rozważane jest nie tylko w kontekście sieci neuronowych, ale również (a obecnie nawet przede wszystkim) w kontekście akceleratorów optycznych, przyśpieszających działanie procesorów o standardowej, nieneuronalnej,  architekturze. Ponadto, korzyści płynące z wykorzystania światła nie polegają wyłącznie na wysokiej prędkość propagacji sygnału. W standardowym przewodzie elektrycznym, prędkość rozchodzenia się impulsu elektromagnetycznego jest również porównywalna z prędkością światła w próżni. Problemem jest natomiast dyssypacja energii w układach elektronicznych, która rośnie wraz z częstotliwością przetwarzania informacji.  Problem odprowadzania wytworzonego w ten sposób ciepła okazał się na tyle trudny, że częstotliwość taktowania naszych komputerów pozostaje praktycznie niezmieniona od przeszło dziesięciu lat i wynosi maksymalnie ~3,5 GHz. Wykorzystanie światła jako nośnika informacji otwiera drogę do wyjścia z tego impasu. Więcej informacji na ten temat można znaleźć w poniższym filmiku oraz w artykule [4].

Chciałbym na koniec dodać, że opisana tu przykładowa optyczna sieć neuronowa powstała dzięki zasobom Garażu Złożoności i Quantum Cosmos Lab, działających na Uniwersytecie Jagiellońskim. W ramach tych dwóch przedsięwzięć planujemy kolejne projekty związane z systemami neuromorficznymi, w szczególności opartymi o optyczne przetwarzanie informacji. Osoby zainteresowane współpracą w tym obszarze zachęcam do kontaktu.

Bibliografia

[1] R. Hamerly, L. Bernstein, A. Sludds, M. Soljačić, and D. Englund  Large-Scale Optical Neural Networks Based on Photoelectric Multiplication Phys. Rev. X 9, 021032 (2019).
[2] Xiao-Yun Xu  et al. A scalable photonic computer solving the subset sum problem, Science Advances,  Vol. 6, no. 5, eaay5853 (2020).
[3] Y. Zuo, B. Li, Y. Zhao, Y. Jiang, Y. Chen, P. Chen, G. Jo, J. Liu, and S. Du, All-optical neural network with nonlinear activation functions, Optica 6, 1132-1137 (2019).  
[4] K. Kitayama et al.,  Novel frontier of photonics for data processing – Photonic accelerator, APL Photonics 4, 090901 (2019)
[5] G.R. Steinbrecher, J.P. Olson , D. Englund et al. Quantum optical neural networks, npj Quantum Inf 5, 60 (2019).
[6] F. Tacchino, C. Macchiavello, D. Gerace et al. An artificial neuron implemented on an actual quantum processor, npj Quantum Inf 5, 26 (2019).
[7] J. Biamonte, P. Wittek, N. Pancotti et al. Quantum machine learningNature 549, 195-202 (2017).

© Jakub Mielczarek

Technologie kwantowe a cyberbezpieczeństwo

Jednym z najważniejszych filarów bezpieczeństwa w cyberprzestrzeni jest kryptografia. Z punktu widzenia jednostki, m.in. to dzięki kryptografii możliwe jest korzystanie z systemów bankowości elektronicznej, dokonywanie zakupów online, zachowanie prywatności w komunikacji internetowej, czy też zapewnienie poufności naszej dokumentacji medycznej w medycznych systemach teleinformatycznych.   Z punktu widzenia Państwa, kryptografia to zaś kluczowy element tarczy chroniącej przed cyberatakami na strategiczne komponenty (zarówno infrastrukturę fizyczną, jak i zasoby cyfrowe) oraz narzędzie umożliwiające wymianę i przechowywanie informacji niejawnej, o podstawowym znaczeniu dla interesu i bezpieczeństwa Państwa.

Rozwój technologii kwantowych, opartych na niezwykłych własnościach mikroświata, ma z punktu widzenia cyberbezpieczeństwa znaczenie dwojakie. Z jednej strony, kwantowe przetwarzanie informacji dostarcza nowej metody prowadzenia ataków na klasyczne systemy kryptograficzne, poprzez tzw. kryptoanalizę kwantową. Państwa lub organizacje, które wejdą w posiadanie zaawansowanych systemów umożliwiających prowadzenie obliczeń kwantowych będą więc dysponowały nowym narzędziem stanowiącym potencjalne zagrożenie dla cyberbezpieczeństwa. Z drugiej zaś strony, technologie kwantowe dostarczają zupełnie nowych rozwiązań kryptograficznych, które mogą pozwolić osiągnąć poziom bezpieczeństwa w wymianie i magazynowaniu informacji, niedostępny z wykorzystaniem kryptografii klasycznej. W szczególności, rozwiązania takie mogą uchronić przed atakami z wykorzystaniem kryptoanalizy kwantowej.    

To czy technologie kwantowe ostatecznie obniżą poziom cyberbezpieczeństwa, czy też tylko go wzmocnią, zależy zarówno od tempa i zakresu postępów w rozwoju technologii kwantowych oraz decyzji państw i organizacji międzynarodowych w zakresie wdrażania rozwiązań odpornych na kryptoanalizę kwantową [1].  Z uwagi na wysokie koszty oraz unikalną wiedzę i doświadczenie, które są niezbędne do rozwoju technologii kwantowych, realne są scenariusze w których zarówno zabezpieczenie cyberprzestrzeni przed atakami, jak i wejście w posiadanie kwantowych narzędzi kryptoanalitycznych, będzie postępowało bardzo niejednorodnie. Stanowić to więc może realne zagrożenie dla krajów nie należących do światowej czołówki w obszarze nauki i techniki.

Kryptoanaliza kwantowa

Zagrożenie związane z kryptoanalizą kwantową wynika z możliwości redukcji tak zwanej złożoności obliczeniowej problemów, na których opierają się algorytmy kryptografii klasycznej. Wiąże się to z występowaniem paralelizmu kwantowego (Dodatek A), który jest możliwy do zrealizowania poprzez wykonanie algorytmów kwantowych na odpowiednio zaawansowanych komputerach kwantowych.  Kwantowa redukcja złożoności jest teoretycznie możliwa zarówno w przypadku kryptografii symetrycznej (z tajnym kluczem), jak i kryptografii asymetrycznej (z kluczem publicznym). Otrzymywany, dzięki algorytmom kwantowym, stopień redukcji złożoności jest jednak zasadniczo różny dla tych dwóch przypadków.  W konsekwencji, niektóre stosowane obecnie algorytmy kryptografii symetrycznej pozostaną niepodatne na kryptoanalizę kwantową. Natomiast, np. wykorzystywane powszechnie w bankowości elektronicznej,  systemach płatniczych, czy też  rozwiązaniach opartych o technologię Blockchain, algorytmy kryptografii asymetrycznej zostaną wystawione na potencjalne zagrożenie.

Przedyskutujmy powyższą kwestię bardziej szczegółowo. W przypadku kryptografii symetrycznej, siła zabezpieczenia opiera się, w dużej mierze, na wielkości przestrzeni tajnego  klucza. Przykładowo, dla stosowanego powszechnie  algorytmu symetrycznego AES (Advanced Encryption Standard) z kluczem 256 bitowym, przestrzeń klucza posiada N = 2256 elementów, co jest w przybliżeniu równe jeden i 77 zer. Przeszukanie tak ogromnego zbioru w poszukiwaniu tajnego klucza jest praktycznie niemożliwe, zarówno korzystając z obecnych, jak i możliwych do przewidzenia przyszłych zasobów obliczeniowych.

Zastosowanie algorytmów kwantowych pozwoli przyśpieszyć proces poszukiwania przestrzeni klucza w ataku siłowym (ang. brute force). Mianowicie, jak pokazał w 1996 roku Lov Grover, wykorzystanie obliczeń kwantowych pozwala zredukować średnią ilość prób potrzebnych do znalezienia elementu w nieuporządkowanym N elementowym zbiorze z N/2 do pierwiastka kwadratowego z N, czyli N1/2. Oznacza to, że w przypadku AES-256, komputer kwantowy będzie wciąż potrzebował wykonać około N1/2=2128 prób w celu znalezienia tajnego klucza. Nawet więc dysponując komputerem kwantowym, na którym zaimplementowany mógłby zostać algorytm Grover’a, siła szyfru pozostanie na poziomie porównywalnym z AES z kluczem 128 bitowym. Jest to zabezpieczenie zupełnie wystarczający dla większości standardowych sytuacji.

Rzecz ma się jednak inaczej w przypadku szyfrów kryptografii asymetrycznej (z kluczem publicznym). Istota kryptografii asymetrycznej opiera się na trudności  obliczeniowej pewnych operacji matematycznych, dla których zaś operacja „przeciwna” jest łatwa do przeprowadzenia. Do najbardziej znanych przykładów algorytmów tego typu zaliczają się DH (Diffie-Hellman), RSA (Rivest-Shamir-Adleman) oraz ECC (Elliptic Curve Cryptography). Algorytm DH jest oryginalnie pierwszą propozycją kryptografii z kluczem publicznym a trudnym problemem jest tutaj znajdowanie tak zwanego logarytmu dyskretnego (logarytmu określonego na skończonym zbiorze liczb). Z kolei, popularny algorytm RSA wykorzystuje złożoność obliczeniową rozkładu liczby na czynniki pierwsze (zagadnienie faktoryzacji). Wadą algorytmów DH i RSA jest konieczność stosowania stosunkowo długich kluczy (obecnie powszechnie stosuje się klucze 2048 bitowe). Problem ten rozwiązuje zastosowanie algorytmów ECC, wykorzystujących problem złożoności logarytmu dyskretnego dla działania zdefiniowanego na krzywej eliptycznej. Poziom bezpieczeństwa porównywalny z DH lub RSA z kluczem 2048 bitwym otrzymamy stosując algorytm ECC z kluczem 224 bitowym. Między innymi z tego powodu, algorytmy ECC znalazły szerokie zastosowanie w technologii Blockchain.

Okazuje się, że trudność obliczeniową na której oparte są przytoczone powyżej algorytmy kryptografii asymetrycznej można sprowadzić do zagadnienia znalezienia okresu pewnej funkcji. O ile jednak, znajdowanie okresu funkcji jest z perspektywy komputerów klasycznych zadaniem trudym obliczeniowo, nie jest już takim dla komputerów kwantowych. Mianowicie, jak pokazał w 1994 roku Peter Shor, obliczenia kwantowe pozwalają zredukować złożoność problemu znajdowania okresu funkcji z  problemu wykładniczego w funkcji ilości bitów danej liczby do problemu wielomianowego klasy BPQ (Dodatek B). Fakt ten jest głównym źródłem zagrożenia związanego z kryptoanalizą kwantową.

CyberSec
Obwód kwantowy dla algorytmu Shora na tle fragmentu książki Georga Orwella 1984, zakodowanej za pomocą kolorów przez Hyo Myoung Kima [cała książka].

W optymalnej konfiguracji, Algorytm Shora dla przypadku z kluczem n-bitowym wymaga rejestru kwantowego zawierającego 2n+3 kubity logiczne. Dla algorytmu RSA-2048 są to więc 4099 kubity logiczne. Jednakże, z uwagi na błędy występujące w fizycznych realizacjach komputerów kwantowych, konieczne jest stosowanie rozbudowanych systemów kwantowej korekcji błędów. Zastosowanie korekcji błędów wymaga użycia co najmniej pięciu fizycznych kubitów do zakodowania jednego kubitu logicznego. Absolutnie minimalna liczba fizycznych kubitów, potrzebnych do przeprowadzenia kwantowej kryptoanalizy algorytmu RSA-2048 na komputerze kwantowym, jest więc rzędu 20 000. W praktyce jednak, konieczne może się okazać wykorzystanie dużo większej ilości kubitów pomocniczych, co może zwiększyć tę liczbę do setek tysięcy lub nawet milionów kubitów. Równie ważną kwestią jest osiągnięcie odpowiednio długiego czasu koherencji, gdyż realizacja powyższego algorytmu będzie wymagać przynajmniej 107 kroków obliczeniowych.

Oszacowane powyżej wielkości mogą wydawać się zupełnie abstrakcyjne z perspektywy dostępnych dzisiaj możliwości przeprowadzania obliczeń kwantowych. Dla przykładu, najbardziej zaawansowany komputer kwantowy firmy Google posiada 53 kubity i jest w stanie wykonać kilkanaście kroków obliczeniowych. Jednakże, przyjmując hipotetyczny wykładniczy charakter rozwoju technologii kwantowych (analogiczny do prawa Moore’a), osiągnięcie poziomu miliona kubitów jest realne w perspektywie 30 lat. Załóżmy, że skala czasowa podwojenia ilości kubitów w procesorze kwantowym będzie wynosiła około 2 lata (podobnie jak obecnie ma to miejsce w przypadku liczby tranzystorów w procesorach klasycznych). W takim przypadku, w kolejnych latach możemy prognozować wartości: 100 (2021), 200 (2023), 400 (2025), 800 (2027), 1600 (2029), 3200 (2031), 6400 (2033), 12800 (2035), 25600 (2037), 51200 (2039), 102400 (2041), 204800 (2043), 409600 (2045), 819200 (2047), 1638400 (2049), … . Zgodnie z tą naiwną ekstrapolacją, poziom milionów kubitów powinien zostać osiągnięty do roku 2050. Istnieją również bardziej optymistyczne prognozy, wskazujące na możliwość nawet podwójnie wykładniczego rozwoju technologii kwantowych („prawo” Neven’a).

W kontekście kryptoanalizy, warto przywołać także przypadek funkcji skrótu (ang. hash functions), które są nieodzownym elementem współczesnych protokołów kryptograficznych.  Do najpowszechniejszych z nich należą: MD4, MD5, SHA-1, SHA-2 i SHA-3. Kryptoanaliza siłowa funkcji skrótu jest zasadniczo podobna do przypadku kryptografii symetrycznej i opiera się na wykorzystaniu algorytmu Grovera. W przypadku SHA-3 ze skrótem 512 bitowym, odporność na tzw. preimage attack jest więc na poziomie algorytmu symetrycznego z kluczem 256 bitowym. Tego samego poziomu jest odporność na ataki kolizyjne. Z uwagi na tę niepodatność na kryptoanalizę kwantową, funkcje skrótu rozpatruje się jako jeden z najbardziej obiecujących komponentów tak zwanej kryptografii postkwantowej.

Kryptografia postkwantowa

Kryptografia postkwantowa [2] jest odpowiedzią na potencjalne zagrożenie związane z  kryptoanalizą kwantową algorytmów klasycznej kryptografii asymetrycznej. Z uwagi na to, że kwantowe przyśpieszenie wykładnicze (Dodatek A) nie występuje w przypadku problemu przeszukiwania przestrzeni klucza, nie istnieją obecnie podstawy do obaw o bezpieczeństwo silnych algorytmów kryptografii symetrycznej, takich jaki AES-256, czy też algorytmów opartych na funkcjach skrótu.

Potencjalne zagrożenie związane z kwantową kryptoanalizą algorytmów kryptografii asymetrycznej nie może jednak zostać zbagatelizowane. Nawet jeśli kwantowe możliwości obliczeniowe umożliwiające kryptoanalizę RSA z kluczem 2048 bitowym pojawią się dopiero za 30 lat, należy podejmować działania zapobiegawcze. Po pierwsze, wynika to z faktu, że proces wdrażania (standaryzacja i implementacja) nowych rozwiązań kryptograficznych jest długotrwały, wymagając zarówno prac badawczych, szeroko zakrojonych testów podatności na kryptoanalizę, jak i samej implementacji w ramach istniejących systemów informatycznych. Po drugie, wiele zaszyfrowanych informacji pozostaje wrażliwymi przez okres kilkudziesięciu lat. Ich przechowywanie (jako szyfrogramy) i odszyfrowanie w momencie pojawienia się odpowiednich możliwości obliczeniowych, może doprowadzić nawet do ogólnoświatowego kryzysu. Dla przykładu, dostępne publicznie mogą stać się dane osobowe, transakcje bankowe, dane medyczne milionów osób, co otworzy szereg możliwości działań natury przestępczej.  Ponadto, zgodnie z Art. 25 ustawy z dnia 22 stycznia 1999 r. o ochronie informacji niejawnych: „Informacje niejawne stanowiące tajemnicę państwową podlegają ochronie, w sposób określony ustawą, przez okres 50 lat od daty ich wytworzenia.” Biorąc pod uwagę możliwość wykorzystania algorytmów kryptografii asymetrycznej do przetwarzania tego typu informacji (chociażby poprzez wykorzystanie kryptografii asymetrycznej do wymiany klucza), realność kryptoanalizy kwantowej w perspektywie 30 lat stawia pod znakiem zapytania bezpieczeństwo przetwarzanej obecnie informacji niejawnej, stanowiącej tajemnicę państwową.

Z uwagi na zagrożenia powyższego typu, w 2016 roku amerykański Narodowy Instytut Standaryzacji i Technologii (NIST) ogłosił program opracowania standardu kryptografii postkwantowej, odpornego na kryptoanalizę kwantową. Proces ten przebiega na zasadzie konkursu, podobnie jak to wcześniej miało miejsce np. w przypadku standardu AES. Obecnie, w drugiej rundzie, rozważana jest pula  26 propozycji. W pierwszej rundzie, z początkowych 250 zgłoszeń wybranych zostało 69 najbardziej obiecujących rozwiązań. Cały proces ma zostać zakończony do roku 2022. Rozpatrywany wachlarz rozważanych algorytmów kryptografii postkwantowej jest szeroki.  Do najbardziej obiecujących kierunków należą zaś:

  • Algorytmy kratowe (ang. lattice-based cryptography)
  • Algorytmy  oparte na kodach korekcyjnych (ang. code-based cryptography)
  • Kryptografia wielu zmiennych (ang. multivariate cryptography)
  • Podpis elektroniczny opary o funkcje skrótu (ang. hash-based signatures)

Z uwagi na subtelną naturę rozwiązań kryptograficznych, standaryzacja jest kluczowym elementem poprzedzającym szeroką implementacji nowych algorytmów. Etap ten  jest długotrwały i powiązany jest z badaniem odporności danych rozwiązań na ataki kryptologiczne. Należy mieć jednak na uwadze to, że nawet pomyślne wyłonienie nowego standardu nie gwarantuje późniejszego długotrwałego  bezpieczeństwa. Wiązać się to może zarówno z odkryciem niezauważonych wcześniej słabości rozwiązań, z pojawieniem się nowych schematów ataków oraz nowymi możliwościami obliczeniowymi. Dla przykładu, zaprojektowany na zlecenie NIST i stosowany od połowy lat siedemdziesiątych ubiegłego wieku symetryczny szyfr DES (z kluczem efektywnie 56 bitowym), okazał się możliwy do złamania już po 20 latach od jego wprowadzenia.

Fakt iż, możliwości kryptoanalizy szyfrów kryptografii postkwantowej są wciąż stosunkowo słabo poznane, istnienie realna obawa, że nawet wyłonione w procesie standaryzacji rozwiązania będą podatne na pewne typy ataków. Dlatego też, w początkowej fazie implementacji wydaje się zasadne opieranie się w jak największym stopniu na dobrze zbadanych elementach obecnych systemów kryptograficznych, takich jak funkcje skrótu lub kody korekcyjne. 

O ile proces standaryzacji prowadzony przez NIST jest w toku, w ramach niezależnych projektów podano już pewne rekomendacje co do algorytmów kryptografii postkwantowej. W szczególności, europejski projekt  PQCRYPTO, finansowany w ramach programu Horyzont 2020, rekomendował AES-256 i  Salsa20 z kluczem 256 bitowym jako postkwantowe algorytmy kryptografii symetrycznej. Dla kryptografii asymetrycznej, rekomendowany został natomiast szyfr McEliece’a, będący przykładem algorytmu opartego na kodach korekcyjnych [3]. 

Certyfikowana kwantowa przypadkowość

Jednymi z komponentów systemów kryptograficznych, mającymi fundamentalne znaczenie z punktu widzenia bezpieczeństwa,  są generatory liczb losowych. W praktyce, są to generatory liczb pseudolosowych, co na przykład w przypadku szyfrów strumieniowych (wykorzystywanych np. do zabezpieczania  transmisji w telefonii komórkowej) jest własnością pożądaną. Jednakże, już w przypadku generowania kluczy (będących ciągami bitów) oczekujemy niepowtarzalnej przypadkowości. Dotyczy to zarówno kluczy wykorzystywanych w kryptografii symetrycznej, jak i asymetrycznej.

Błędy w implementacji generatorów pseudolosowych mogą istotnie wpłynąć na obniżenie bezpieczeństwa, wykorzystujących je algorytmów kryptograficznych. Znanym przykładem jest wykazanie istnienia „tylnej furtki” w generatorze pseudolosowym Dual_EC_DRBG. Ujawnione przez Edwarda Snowdena informacje na temat programu deszyfrażu Bullrun, sugerują, że obecność furtki mogło być  działaniem celowym amerykańskiej National Security Agency (NSA) [4].  O ile więc furtki takie mogą być wprowadzane celowo przez agencje dbające o bezpieczeństwo publiczne, ich obecność stwarza również możliwość wykorzystania przez osoby, instytucje i państwa nieprzyjazne. 

Probabilistyczna natura mechaniki kwantowej stwarza atrakcyjną możliwość budowy generatorów losowych. Co więcej, rozwiązania takie są już dostępne komercyjnie.  Jednakże, otwarte zostaje potencjalne zagrożenie związane z wykorzystaniem  możliwych „tylnych furtek” w tego typu rozwiązaniach. Dlatego też, dąży się do opracowania rozwiązań które będą gwarantowały zarówno losowość, jak i niepodatność na ataki, zarówno na poziomie sprzętu, jak i oprogramowania.

Jednym z pojeść do tego zagadnienia jest wykorzystanie trudności obliczeniowej problemu przewidzenia rozkładu prawdopodobieństwa pomiarów dla odpowiednio dużych pseudolosowo-generowanych obwodów kwantowych. Własność tę można wykorzystać do generowania certyfikowanych kwantowo losowych ciągów binarnych (ang. certified quantum randomness) [5]. Losowość otrzymanego ciągu bitów jest zagwarantowana złożonością obliczeniową problemu przewidzenia z jakim prawdopodobieństwem dany ciąg może zostać wygenerowany przez obwód kwantowy. Ponadto, nawet kiedy źródło generatora obwodów zostałoby upublicznione, wygenerowane wartości losowe zachowają prywatność.

Metoda ta może być pomyślnie stosowana już z wykorzystaniem dostępnych obecnie komputerów kwantowych, posiadających kilkadziesiąt (zaszumionych) kubitów fizycznych. Dowodem na to jest niedawny rezultat otrzymany za pomocą komputera kwantowego opracowanego przez firmę Google. Rozważane zagadnienie próbkowaniem (ang. sampling), które przeprowadzono na 53 kubitowym procesorze może zostać zaadoptowane do zapewnienia certyfikowanej kwantowej przypadkowości [6].

Zastosowanie certyfikowanej kwantowej generacji kluczy może istotnie wzmocnić bezpieczeństwo zarówno konwencjonalnej kryptografii (asymetrycznej i symetrycznej) jak i algorytmów kryptografii postkwantowej. Jest to przykład rozwiązania hybrydowego w którym wykorzystuje się połączenie znanych i możliwych do zastosowania algorytmów kryptografii klasycznej z najnowszymi osiągnięciami w obszarze obliczeń kwantowych.

Kwantowa dystrybucja klucza

Nawet jeśli jest to możliwe w niepraktycznie dużych skalach czasowych, algorytmy kryptografii klasycznej, z wyłączeniem szyfru z kluczem jednorazowym (ang. one-time pad), są zawsze możliwe do złamania. Mechanika kwantowa dostarcza jednakże teoretycznie niepodatnej na kryptoanalizę metody szyfrowania informacji.  Opracowywaniem tego typu rozwiązań zajmuje się kryptografia kwantowa.

Kwantowa dystrybucja klucza (ang. quantum key distribution – QKD) [7] jest, rozważaną w ramach kryptografii kwantowej,  metodą bezpiecznego przesyłania sekretnego klucza za pośrednictwem stanów kwantowych pojedynczych fotonów. Metoda ta wykorzystuje kwantowe własności mikroświata (w szczególności, tak zwane twierdzenie o  zakazie klonowania kwantowego) do przesyłania informacji. Ponieważ przepustowość wykorzystywanych do QKD tzw. kanałów kwantowych nie dorównuje tym osiąganym w klasycznych łączach światłowodowych oraz radiowych, łącza kwantowe wykorzystywane są obecnie do przesyłania sekretnych kluczy, pozwalających zaszyfrować (klasyczną) wiadomość, nie zaś do transmisji samej wrażliwej informacji.  Udostępniony, za pośrednictwem QKD, klucz może być wykorzystany do zaszyfrowania danych np. z użyciem silnego symetrycznego szyfru AES-256.

Kwantowa dystrybucja klucza jest rozwiązaniem,  które zostało już wdrożone do komercyjnego użytku.  Jednakże, dostępne obecnie rozwiązania posiadają jedno kluczowe ograniczenie. Mianowicie, jest to dystans, na który możemy przesłać zabezpieczoną kwantowo informację. Wiąże się to z tłumieniem fotonów w światłowodzie i koniecznością stosowania skomplikowanych tzw. powielaczy kwantowych. Obiecującym rozwiązaniem tego problemu jest przesyłanie fotonów z zakodowaną kwantowo informacją poprzez atmosferę oraz przestrzeń kosmiczną. Udane próby międzykontynentalnej QKD z wykorzystaniem kwantowych technologii satelitarnych udało się przeprowadzić w 2017-tym roku. Obecnie trwają prace nad kilkoma projektami satelitarnymi, które mają na celu rozwój kwantowych technologii związanych z łącznością satelitarną. 

Połączenie światłowodowej oraz satelitarnej łączności kwantowej może pozwolić urzeczywistnić idę tzw. internetu kwantowego – niepodatnego na kryptoanalizę kanału wymiany informacji.  Stworzenie podwalin dla internetu kwantowego to m.in. jeden z filarów, rozpisanego na okres dziesięciu lat (2018-2028), flagowego programu Komisji Europejskiej – Quantum Flagship. Ponadto, w ramach projektu OPENQKD (Open European Quantum Key Distribution Testbed) powstaje obecnie w Europie eksperymentalna sieć do kwantowej dystrybucji klucza, której jeden z węzłów znajdzie się również w Polsce.

Warto w tym miejscu podkreślić, że systemy do kwantowej dystrybucji klucza, choć teoretycznie bezwarunkowo bezpieczne, mogą stać się jednak przedmiotem ataków. Istnieje mianowicie szerokie spektrum możliwych ataków fizycznych, wykorzystujących błędy w implementacji systemów do QKD. Jedną z prób rozwiązania tego problemu jest opracowanie algorytmów kryptografii kwantowej gwarantujących bezpieczeństwo w wymianie informacji, niezależne do wad implementacji fizycznych. Konieczne są jednakże dalsze prace zarówno teoretyczne, jak i eksperymentalne w tym obszarze.

Podsumowanie

Infosfera stała się kluczowym elementem współczesnej aktywności ludzkiej. Jej dynamiczny rozwój doprowadził jednak do pojawienia się zagrożeń zupełnie nowego typu. Dotyczy to zarówno poziomu jednostek, jak i społeczeństw. W konsekwencji, cyberprzestrzeń stała się równoprawnym do wody, lądu, powietrza i przestrzeni kosmicznej, obszarem działań wojennych. Powaga problemu doprowadziła do szerokiego zaangażowania państw i organizacji w obszarze zapewnienia bezpieczeństwa w cyberprzestrzeni. W Polsce, ważnym krokiem stało się sformułowanie w 2015 roku Doktryny Cyberbezpieczeństwa Rzeczypospolitej Polskiej [8]. Elementem realizacji jej założeń jest konsolidacja polskich zasobów  w obszarze cyberbezpieczeństwa i kryptologii w ramach utworzonego w 2019 roku Narodowego Centrum Bezpieczeństwa Cyberprzestrzeni (NCBC), funkcjonującego wcześniej jako Narodowe Centrum Kryptologii (NCK).

Technologie kwantowe, które coraz odważniej wychodzą z obszaru badawczego do fazy wdrożeń, stanowią zarówno potencjalne zagrożenie dla cyberbezpieczeństwa, jak i dają narzędzie dla jego wzmocnienia do bezprecedensowego poziomu. Zagrożenie związane jest głównie z możliwością kryptoanalizy algorytmów kryptografii asymetrycznej (w szczególności RSA i ECC). Natomiast, silne algorytmy kryptografii symetrycznej pozostaną odporne na kryptografię kwantową. W mojej ocenie, realistyczna wydaje się możliwość kryptoanalizy algorytmu RSA z kluczem 2048 bitowym w perspektywie czasowej 30 lat. Warto również mieć na uwadze prawdopodobieństwo opracowania nowych algorytmów, które mogą znaleźć zastosowanie w kryptoanalizie kwantowej.

Odpowiedzią na zagrożenie związane z kryptoanalizą kwantową jest kryptografia postkwantowa. Zadaniem które sobie stawia jest opracowanie algorytmów kryptografii z kluczem publicznym, niepodatnych na ataki kwantowe. W toku jest proces standaryzacji algorytmów kryptografii postkwantowej, po zakończeniu którego (około roku 2023) można spodziewać intensyfikacji w implementacji tego typu rozwiązań. Należy jednak zdawać sobie sprawę z faktu, że algorytmy kryptografii postkwantowej wciąż wymagają testów pod kątem kryptoanalizy, zarówno konwencjonalnej, jak i kwantowej.

Z drugiej strony, technologie kwantowe otwierają obiecującą możliwość implementacji rozwiązań kryptografii kwantowej. Jednym z nich jest kwantowa generacja klucza. Rozwiązania takie stają się możliwe do urzeczywistnienia z wykorzystaniem opracowywanych obecnie komputerów kwantowych. W perspektywie nadchodzącej dekady, certyfikowane kwantowe generowanie kluczy pozwoli wzmocnić bezpieczeństwo kryptografii klasycznej, jak również algorytmów postkwantowych. Kolejnym, bardzo obiecującym, rozwiązaniem dostarczanym przez kryptografię kwantową jest kwantowa dystrybucja klucza. Naziemna i satelitarna sieć kanałów kwantowych (tzw. kwantowy internet) pozwoli na bezwarunkowo bezpieczne przekazywanie sekretnych kluczy. Z ich pomocą, możliwe będzie  późniejsze przesyłanie informacji kanałami klasycznymi, stosując silne szyfry symetryczne.

Budowa infrastruktury do komunikacji kwantowej, która ostatecznie zapewni nowy poziom bezpieczeństwa w przesyle informacji jest zadaniem niezwykle złożonym i wymagającym integracji wielu zasobów i kompetencji. Jej utworzenie wykreuje zupełnie nowe realia dla cyberbezpieczeństwa. Warto w tym kontekście zaznaczyć, że z uwagi skomplikowaną naturę systemów do komunikacji kwantowych i kryptografii kwantowej, ważnym elementem będzie proces szkolenia specjalistów, którzy będą w stanie analizować subtelności stosowanych rozwiązań i przewidywać możliwość występowania nowych zagrożeń.

Przeprowadzona tu analiza jedynie zarysowuje zagadnienie cyberbezpieczeństwa kwantowego, akcentując podstawowe możliwości i zagrożenia. Dalsza szersza dyskusja, łącząca płaszczyzny: polityczną, akademicką, militarną i przedsiębiorczą, jest konieczna w celu wypracowania optymalnych rozwiązań, które pozwolą na wykorzystanie technologii kwantowych do zapewnienia jeszcze wyższego poziomu cyberbezpieczeństwa w Polsce i na świecie.   

Dodatek A – Kwantowy elementarz

Technologie kwantowe tworzy obecnie szerokie spektrum rozwiązań, wykorzystujących kwantową naturę mikroświata, opisywaną przez mechanikę kwantową. Do najważniejszych przykładów należą: systemy przetwarzania informacji kwantowej (komputery kwantowe),  systemy łączności kwantowej (oparte o kryptografię kwantową) i  systemy metrologii kwantowej (np. kwantowe magnetometry).   

Szczególną klasą układów kwantowych, odgrywają kluczową rolę w kwantowym przetwarzaniu informacji, są kubity. Kubity można postrzegać jako kwantowe odpowiedniki klasycznych bitów, mogące występować w kwantowych superpozycjach stanów „0” i „1”. Sytuacja robi się jeszcze ciekawsza kiedy rozważamy wiele oddziałujących ze sobą kubitów. Właśnie takie złożenie kubitów stanowi rejestr komputera kwantowego, na którym, poprzez wykonywanie odpowiednich operacji (unitarnych), przeprowadzane są obliczenia kwantowe. Wyzwaniem związanym z budowaniem tego typu maszyn jest odseparowanie rejestru kwantowego od środowiska zewnętrznego, które zaburza jego kwantową naturę. Wyzwaniem jest również odpowiednie kontrolowanie kubitów i przeprowadzanie na nich operacji. Przez wiele lat, fizycy zmagali się z osiągnięciem odpowiedniego poziomu koherencji kwantowej i sterowalności rejestrów kwantowych. Przełomowe okazało się wykorzystanie nadprzewodzących kubitów, które ostatecznie doprowadziło do eksperymentalnego wykazania przewagi (w wczasie obliczeń) komputera kwantowego nad najsilniejszym dostępnym superkomputerem klasycznym. Udało się to ostatecznie wykazać firmie Google, dla problemu próbkowania ciągów binarnych z zadanym przez obwód kwantowy  rozkładem prawdopodobieństwa [6].

Trudność w emulowaniu obliczeń kwantowych na komputerach klasycznych wiąże się z faktem, że stan układu n kubitów opisywany jest w 2n wymiarowej przestrzeni Hilberta. W konsekwencji, na przykład by opisać układ 100 kubitów należy użyć wektora posiadającego około 1030 składowych. Próba zapisania takiego wektora zarówno w obecnych jaki i możliwych do wyobrażenia przyszłych komputerach klasycznych jest praktycznie skazana na niepowodzenie.  Z drugiej strony, operowanie w 2n wymiarowej przestrzeni Hilberta,  dysponując n kubitami umożliwia wykonywanie wykładniczo rosnącej z n liczby operacji. Na własności tej opiera się tzw. paralelizm kwantowy, mogący w pewnych przypadkach doprowadzić do kwantowego przyśpieszenia wykładniczego (ang. exponential speed-up) w rozwiązaniu pewnych problemów. Z sytuacją taką spotykamy się, w szczególności, w przypadku algorytmu faktoryzacji Shora, znajdującym zastosowanie w kryptoanalizie kwantowej.

Dodatek B – Złożoność obliczeniowa 

Złożoność obliczeniowa, w uproszczeniu określa poziom trudności rozwiązania danego problemu.  Dla przykładu, rozważmy problem znalezienia konkretnego elementu w nieuporządkowanym zbiorze N elementowym. Element taki znajdziemy w średnio N/2 próbach. Czas potrzebny na znalezienie elementu będzie więc skalował się liniowo wraz z liczebnością (mocą) zbioru. Jest to przykład problemu należącego do wielomianowej klasy złożoności – P (ang. Polynomial). Innym  przykładem problemu należącego do klasy P jest mnożenie liczb.

Nie wszystkie znane problemy należą jednak do kasy P, a przynajmniej tak się wydaje. Okazuje się mianowicie, że istnieje cały szereg problemów dla których nie udało się, jak dotąd, zaproponować algorytmów ich rozwiązywania które należałyby do klasy P. Problemy takie określamy mianem NP (ang. Nondeterministically Polynomial). Są to takie problemy dla których znając wynik możemy w czasie wielomianowym zweryfikować czy propozycja wyniku jest rozwiązaniem czy też nie. Przykładem takiego problemu, jest rozkład liczby złożonej na czynniki pierwsze (problemu faktoryzacji). Problemy klasy NP znajdują szerokie zastosowanie w kryptologii. Otwartym i jednym z najważniejszych problemów matematycznych jest odpowiedzenie na pytanie czy faktycznie NPP?

Uogólnienie rozważań do obliczeń kwantowych wymaga wprowadzenia nowych klas złożoności. Na potrzeby tego artykułu, wprowadzimy jedynie klasę BQP (ang. bounded-error quantum polynomial time). Do klasy tej należą problemy, dla których istnieje możliwość znalezienia rozwiązania w czasie wielomianowym, z prawdopodobieństwem co najmniej 2/3 (czyli błędem nie większym niż 1/3). Okazuje się, że kwantowy algorytm Shora pozwala zredukować złożoność obliczeniową problemu faktoryzacji, klasycznie klasyfikowanego jaki problem wykładniczy, do takiej właśnie złożoności. Jest to przykład kwantowego przyśpieszenia wykładniczego.

Bibliografia

[1] M. Mosca,  Cybersecurity in an Era with Quantum Computers: Will We Be Ready? IEEE Security & Privacy, September/October 2018, pp. 38-41, vol. 16
[2] D. J. Bernstein, T. Lange,  Post-quantum cryptography, Nature, 549(7671), 188-194.
[3] PQCRYPTO – Post-Quantum Cryptography for Long-Term Security. Initial recommendations of long-term secure post-quantum systems
[4] D. J. Bernstein, T. Lange, R. Niederhagen, Dual EC: A Standardized Back Door. In: Ryan P., Naccache D., Quisquater JJ. (eds) The New Codebreakers. Lecture Notes in Computer Science, vol 9100. Springer, Berlin, Heidelberg
[5] Acín, A., Masanes, L. Certified randomness in quantum physics. Nature 540, 213–219 (2016).
[6] Arute, F., Arya, K., Babbush, R. et al. Quantum supremacy using a programmable superconducting processor. Nature 574, 505–510 (2019)
[7] A. Shenoy-Hejamadi, A. Pathak, S. Radhakrishna, Quantum Cryptography: Key Distribution and Beyond, Quanta 2017; 6: 1–47
[8] Doktryna Cyberbezpieczeństwa Rzeczypospolitej Polskiej, 2015.

                                                                                                                               © Jakub Mielczarek

Artykuł został opublikowany na portalu CyberDefence24.

Dwanaście technologii jutra

Żyjemy w niesamowitych czasach intensywnego rozwoju wspaniałych technologii. Wiele z nich wywodzi się z zaawansowanych i kosztownych badań podstawowych, inne są wynikiem inżynieryjnej wirtuozerii, bazującej na ugruntowanej już wiedzy naukowej. Jedno jest pewne,  technologie te transformują świat w którym żyjemy  i przez to, w pewnym sensie, również nas samych. Żeby ocenić jakie będą skutki tych przemian należy zrozumieć możliwości i ograniczenia wyłaniających się nowych rozwiązań. Ich lista jest długa, a szczegółowa analiza żmudna i wielowymiarowa. Nie jest jednak moim celem by ją tutaj przeprowadzać. Mógłbym Cię po prostu zanudzić. W zamian, chciałbym zwięźle przedstawić 12 wybranych przeze mnie (jednakże stosunkowo reprezentatywnych) kierunków. Celem jaki sobie stawiam jest to byś mogła lub mógł spojrzeć na nie niejako z lotu ptaka, umożliwiając Ci uchwycenie szerszej perspektywy. Mam nadzieję, że mój wysiłek pomoże Ci, choć w pewnym wymiarze, ujrzeć ostrzej świat w niedalekiej przyszłości i dostrzec w nim dla siebie nowe możliwości, które pozwolą Tobie lub też np. Twojej firmie rozwinąć się. Zrozumienie technologii, pozwoli Ci również lepiej przygotować się na nadchodzące zmiany, przez co łatwiej się do nich dostosujesz i szerzej wykorzystasz pojawiające się nowe szanse. Wybrane przeze mnie kierunki są obecnie intensywnie rozwijane i z dużym prawdopodobieństwem będą miały istotne znaczenie w nieodległej przyszłości, przez którą rozumiem najbliższą dekadę (2020-2030). Na konstrukcję tej listy niewątpliwe miały wpływ moje osobiste zainteresowania i obszar posiadanych kompetencji. Z tego powodu, nie jest ona obiektywna, choć starałem się by cechowała się zróżnicowaniem i zawierała rozwiązania nie tylko z obszarów najbliższych mojej ekspertyzie. Ważnym aspektem, który staram się podkreślić, to znaczenie dyskutowanych kierunków w kontekście wyzwań stojących przed światem.

1. Komputery kwantowe

Pozwolę sobie zacząć od najbliższego mi, jako fizykowi teoretykowi, tematu czyli od technologii kwantowych, a mówiąc precyzyjniej skoncentruję się tutaj na kwestii komputerów kwantowych. Do innych przykładów technologii kwantowych powrócę w punktach 26 i 7.  Komputery kwantowe opierają swoje działanie o zasady mechaniki

ibm-q
Komputer kwantowy firmy IBM. Źródło

kwantowej (fizyki mikroświata). Choć teoretyczne podwaliny ich funkcjonowania powstały jeszcze w latach osiemdziesiątych ubiegłego wieku, dopiero ostatnie lata przyniosły intensywne przyśpieszenie w rozwoju kwantowych technologii obliczeniowych. Rozwój ten przebiegał i nadal przebiega w pierwszej fazie charakteryzującej nowe technologie, związanej z szybkim wzrostem zainteresowania. Efekt ten, na zasadzie sprzężenia zwrotnego napędza rozwój technologi, generując rosnący entuzjazm, w szczególności  inwestorów. Pęcznieją również oczekiwania, które niestety często rozbieżne są z faktycznymi możliwościami technologii. Również kwantowy tzw. hype czeka niebawem przejście do fazy ostudzenia emocji. Technologie kwantowe jednak wybronią się, ponieważ dadzą w wielu obszarach przewagę nad komputerami klasycznymi. Wynika to w szczególności z tak zwanego paralelizmu kwantowego, umożliwiającego zrównoleglenie danego problemu i przez to redukcję jego złożoności obliczeniowej. Sztandarowymi przykładami są: algorytm faktoryzacji Shore’a, algorytm przeszukiwania (nieuporządkowanych zbiorów) Grovera lub algorytm kwantowego wyżarzania (ang. quantum annealing). Ograniczenia kwantowych komputerów wiążą się jednak z dużą podatnością stanów kwantowych kubitów na środowisko zewnętrzne. W celu zredukowania  tego efektu (tzw. kwantowej dekoherencji) procesory kwantowe muszą być przeprowadzane w temperaturze bliskiej zera bezwzględnego. Ponadto, w celu redukcji błędów konieczne jest stosowanie tak zwanej kwantowej korekcji błędów, która wykorzystuje znaczną część kubitów procesora. Ogranicza to istotnie liczbę kubitów, które faktycznie możemy przeznaczyć do wykonania interesującego nas algorytmu. W konsekwencji, użytecznych (tzw. fault tolerant) komputerów kwantowych, które będą dawały możliwość wykonania operacji niemożliwych do przeprowadzenia na superkomputerach klasycznych możemy się spodziewać za nie wcześniej niż 5 lat. Komputery posiadające łącznie 100 kubitów powstaną wcześniej, jednakże poziom ich błędów będzie wciąć zbyt wysoki, a struktura sprzężeń pomiędzy kubitami zbyt rzadka by mogły one konkurować z klasycznymi maszynami. W drugiej połowie nadchodzącej dekady możemy jednak oczekiwać rozwoju szerokiego spektrum zastosowań komputerów kwantowych. W szczególności,  w kontekście rozwiązywania problemów o dużej złożoności (optymalizacja, łamanie szyfrów, uczenie sztucznych sieci neuronowych, itp.) oraz symulacji układów kwantowych (np. w ramach chemii kwantowej, fizyki materii skondensowanej lub kwantowej grawitacji). Przeprowadzanie na procesorach kwantowych symulacji np. skomplikowanych molekuł znajdzie zastosowanie m.in. przy opracowywaniu leków.  Jako wprowadzenie do zagadnienia programowania komputerów kwantowych zachęcam do lektury moich wcześniejszych wpisów: Elementary quantum computing oraz Kwantowe cienie.

2. Nowe technologie kosmiczne

Globalna branża kosmiczna znajduje się obecnie w fazie transformacji z obszaru dominacji państwowych agencji kosmicznych do rosnącego znaczenia przedsiębiorstw, które zaczynają realizować swoje własne programy kosmiczne. Zjawisko to jest częścią tak zwanego podejścia New Space.  Najbardziej znanymi przykładami są tu Space X, Blue Origin oraz Virgin Galactic. Wszystkie te trzy firmy rozwijają technologie wynoszenia ładunków i

xinglong
Kwantowa dystrybucja klucza pomiędzy satelitą Micius a stacją naziemną. Źródło

osób w ramach lotów suborbitalnych lub orbitalnych. Loty suborbitalne mają duże znaczenie dla otwarcia kosmosu dla turystyki. Dotychczasowe sukcesy trzech wspomnianych firm, dają spore szanse na intensywny rozwój suborbitalnej turystyki kosmicznej w nadchodzącej dekadzie. Z drugiej strony, rozwój prywatnych inicjatyw związanych z lotami orbitalnymi, korzystnie wypłyną na ceny umieszczania ładunków na niskiej orbicie okołoziemskiej. Do tego dochodzi miniaturyzacja systemów satelitarnych, w szczególności w ramach standardu CubeSat – kostek o wymiarach 10x10x10 cm (1U), z których można budować w pełni funkcjonalne nanosatelity. Zbudowanie i umieszczenie na niskiej orbicie okołoziemskiej prostego nanosatelity o rozmiarze 1U można dzisiaj przeprowadzić w ramach budżetu zamykającego się w kwocie 1 mln złotych.   Otwiera to szerokie perspektywy do przeprowadzenia badań w warunkach mikrograwitacyjnych, jak również nowe pole do prowadzenia działalności biznesowej. Najpopularniejsze  dzisiaj obszary tej aktywności dotyczą systemów obserwacji ziemi, łączności oraz nawigacji.  Najbardziej, w mojej opinii, nowatorskim kierunkiem technologicznym, który będzie się w tym kontekście rozwijał jest tak zwana kwantowa łączność satelitarna. Bazuje ona na przesyłaniu pojedynczych fotonów, w których stanach kwantowych zakodowany jest klucz umożliwiający bezpieczne przesyłanie informacji (już za pośrednictwem kanałów klasycznych). Ta tak zwana kwantowa dystrybucja klucza stanowi zasadniczy element internetu kwantowego, który dyskutuję w punkcie 7. Warto tu podkreślić, że kwantowa dystrybucja klucza została pomyślnie przeprowadzona w 2017-tym roku na odległościach międzykontynentalnych, wykorzystując specjalnie do tego zbudowanego satelitę Micius. Obecnie przygotowywanych jest szereg projektów rozwijających tę technologię, opierających się na nanosatelitach w standardzie CubeSat [Ref].

3. Biologia syntetyczna

Komórki już nie tylko muszą robić to do czego zostały wykształcone w toku ewolucji. Dzisiejsza nauka zaczyna umożliwiać nam ich programowanie, tak by realizowały zaplanowane przez nas zadania. Podobnie jak w przypadku programowania komputerów, możemy, wykorzystując komórkowy język programowania (np. SBOL), stworzyć program, wynikiem kompilacji którego jest konkretna sekwencja DNA. Dzięki

eight_col_synth_meat
Syntetyczne mięso. Źródło

rozwiniętym technikom syntezy DNA, możemy dzisiaj bez trudu stworzyć zaprojektowany przez nas materiał genetyczny, po czym dokonać jego mikroiniekcji do wnętrza komórki, wymieniając tym samy jej oryginalny “software”. Metodę tę obecnie rozwija się w przypadku jednokomórkowych organizmów jakimi są bakterie. Pozwala to programować je tak by realizowały określone funkcje np. w bioreaktorach. Kolejnym ważnym przykładem z obszaru biologi syntetycznej jest mięso in vitro. Warto tu zaznaczyć, że około 15 % gazów cieplarnianych (metan) pochodzi od zwierząt. Produkcja mięsa jest obecnie nieefektywna, a wzrost zamożności społeczeństw napędza popyt na produkty mięsne, przyśpieszając negatywne zmiany klimatyczne. Istotny jest również aspekt humanitarny, związany z masowym chowem i ubojem zwierząt. Wprowadzenie syntetycznego mięsa stanowi obiecujące rozwiązanie tych problemów. Warto zauważyć, że w bioreaktorach do produkcji syntetycznego mięsa zastosowanie mogą znaleźć opisane wcześniej programowalne bakterie. Dalsze informacje na temat biologi syntetycznej i tego jak samemu zacząć przygodę z tą dyscypliną można znaleźć np. w książce BioBuilder, której pierwszy rozdział można bezpłatnie przeczytać pod niniejszym linkiem.  

4. Sekwencjonowanie genomu

Materiał genetyczny potrafimy dzisiaj nie tylko syntezować, ale również sekwencjonować, choć jeszcze na początku tego milenium było to zadanie niezwykle ambitne. Zakończony w 2005-tym roku projekt zsekwencjonowania ludzkiego genomu – Human Genome Project pochłonął około trzech miliardów dolarów. Od tego czasu, koszt zsekwencjonowania ludzkiego genomu spada szybciej niż wykładniczo, co widać na

costpergenome2015_4
Koszty pełnego sekwencjonowania genomu ludzkiego. Źródło

załączonym wykresie.  Obecnie, cena zsekwencjonowania pełnego genomu wynosi poniżej kilkuset dolarów. Natomiast, za kwotę około 1000 USD można zakupić własny miniaturowy sekwencer oparty o technologię sekwencjonowania przez nanopory (rozwijane głownie przez firmę Oxford Nanopore Technologies). W przeciągu najbliższej dekady, możemy spodziewać się dalszej redukcji kosztów sekwencjonowania genomu, aż do wartości zapewniającej wręcz bezpłatną (w ramach opieki zdrowotnej) możliwość przeprowadzenia takiej analizy.  Wyzwaniem jest jednak to, jaką użyteczną informację możemy wydobyć z analizy naszego genomu. Niewątpliwie, genom zawiera całe bogactwo danych, jednoznacznie nas identyfikujących, w związku z czym podlegać będzie musiał specjalnym regułom bezpieczeństwa. Przesyłanie takiej informacji pomiędzy ośrodkami medycznymi będzie w przyszłości zabezpieczone przez wprowadzane obecnie algorytmy kryptografii postkwantowej lub też z wykorzystaniem rozwiązań kryptografii kwantowej (wykorzystujące kwantowy internet, dyskutowany w punkcie 7). Niewątpliwie, metody sztucznej inteligencji (dyskutowane w punkcie 6) istotnie przyczynią się do analizy materiału genetycznego i przygotowywania na jego podstawie rekomendacji oraz indywidualnych (spersonalizowanych) terapii. Możemy oczekiwać, że powszechne sekwencjonowanie genomu znacząco przyśpieszy rozwój medycyny personalizowanej, w ramach której np. różne wersje danego leku będą podawane w zależności od profilu genetycznego pacjenta.

5. Biodruk 3D 

Biodruk 3D jest wyłaniającą się nową technologią stawiającą sobie za jeden z głównych celów stworzenie narzędzia umożliwiającego wytwarzanie w sposób sztuczny w pełni funkcjonalnych narządów, mogących stanowić transplanty do przeszczepów. Jest to cel niezwykle ambitny, niemniej jednak postęp jaki dokonał się w przeciągu ostatnich kilku

produkt_dscf8374-white-bg-lighter-blue-x-square
Przykładowa komercyjnie dostępna biodrukarka 3D. Źródło

lat (w ramach którego biodruk 3D ukształtował się jako niezależna dyscyplina naukowa) daje silne podstawy do stwierdzenia, że nie ma fundamentalnych przeszkód dla których cel powyższy nie mógłby zostać ostatecznie osiągnięty. Warto przytoczyć tu, że na chwilę obecną z wykorzystaniem technologii biodruku 3D wytworzono między innymi modele: skóry, tkanki wątroby  czy też (bijącego) organoidu serca. Wytworzone w technologii biodruku 3D transplanty ucha, kości i mięśni przeszły pomyśle testy na myszach i szczurach. Powyższe obiecujące wyniki dały impuls do opracowania rozwiązań i usług w zakresie biodruku 3D oferowanych przez takie firmy jak Organovo (USA),  Aspect Biosystems (Kanada), 3D Bioprinting Solutions (Rosja)  czy Rokit (Korea Południowa). Ważnym wyzwaniem dla biodruku 3D jest wykorzystanie pluripotentnych komórek macierzystych, tak by uzyskać możliwość przygotowania transplantu 3D w oparciu o pobrany od pacjenta wycinek tkanki. Zanim jednak biodruk 3D znajdzie zastosowanie w praktyce klinicznej, będzie najpierw wykorzystywany do przygotowania trójwymiarowych hodowli przeznaczonych do testowania leków oraz np. tworzenia (dyskutowanego w punkcie 3) syntetycznego mięsa. Na zakończenie, pozwolę sobie dodać, że od kilku lat badania nad biodrukiem 3D prowadzimy w ramach Garażu Złożoności na Uniwersytecie Jagiellońskim [Ref]. 

6. Sztuczna inteligencja 

Sztuczna inteligencja o której tak dużo dzisiaj słyszymy to głównie tak zwana “wąska” sztuczna inteligencja (Artificial Narrow Intelligence – ANI) wyspecjalizowana na rozwiązywaniu konkretnego typu problemów. Na przykład, ANI potrafi rozpoznawać obrazy  lub też wygrywać z mistrzami gry w go. Zastosowań ANI jest obecnie na prawdę dużo. ANI opiera się głównie na tak zwanych głębokich sztucznych sieciach

intel-neuromorphic-chip-loihi-2
Neuromorficzny procesor Loihi firmy Intel. Źródło

neuronowych (ang. deep learning), których struktura inspirowana jest budową kory mózgowej. Warto tu dodać, że złożony proces uczenia sieci neuronowych może zostać wsparty przez komputery kwantowe (dyskutowane w punkcie ). Nadchodząca dekada przyniesie niewątpliwie nie tylko lawinę nowych zastosowań ANI ale również nastąpi znaczący postęp w kierunku stworzenia tak zwanej ogólnej sztucznej inteligencji (Artificial General Intelligence – AGI). AGI definiuje się jako typ sztucznej inteligencji odpowiadającej zdolnościom umysłowym człowieka.  Rozważa się obecnie kilka dróg do utworzenia AGI. Osobiście, za najbardziej obiecującą (i już najbardziej zaawansowaną)  drogę do osiągnięcia AGI uważam symulacje ludzkiego mózgu. Badania zmierzające w tym kierunku prowadzone są m.in. w ramach flagowego projektu Komisji Europejskiej Human Brain Project (HBP).  Symulacje te napotykają na szereg problemów natury technicznej. Jednym z obiecujących możliwości ich przezwyciężenia i  szybszego przybliżenia nas do AGI są  procesory neuromorficzne. Procesory takie już na poziomie swojej architektury odwzorowują strukturę połączeń neuronalnych, co znacznie ułatwia prowadzenie symulacji. Przykładem takiego procesora jest chip Loihi zbudowany przez firmę Intel.  Zawiera on 130 000 sztucznych neuronów oraz 130 milionów synaps. Architekturę neuromorficzną wykorzystuje się również w niedawno uruchomionym superkomputerze SpiNNaker, działającym w ramach projektu HBP. Do przeprowadzenia symulacji systemów neuronalnych nie wystarczy jednak sam software i hardware. Potrzebne są  również dane wejściowe do przeprowadzenia symulacji, lub mówiąc precyzyjniej emulacji mózgu. Należy je pozyskać z inwazyjnego lub bezinwazyjnego obrazowania mózgu. W szczególności, obiecująca jest inwazyjna metoda oparta o tzw. Serial Section Electron Microscopy. Z jej pomocą, uzyskano niedawno kompletny konektom mózgu małej rybki o nazwie Danio pręgowany [Ref]. Zobrazowanie tą metodą i zrekonstruowania konektomu jednego milimetra sześciennego tkanki mózgowej stawia sobie za cel, rozpoczęty w 2016-tym roku,  projekt MICrONS. Patrząc bardziej w przyszłość, osiągnięcie AGI, otworzy drogę do tak zwanej superinteligencji (Artificial Super Intelligence – ASI), przekraczającej ludzkie możliwości umysłowe.

7. Internet kwantowy 

Internet kwantowy to hipotetyczna globalna sieć kwantowa (ang. quantum network), która pozwoli w przyszłości na wymianę informacji kwantowej, w szczególności pomiędzy komputerami kwantowymi (o których pisałem w punkcie 1 ). Czym faktycznie okaże się kwantowy internet i jakie będzie jego znaczenie, tego jeszcze nie wiemy. Pierwszym zaś etapem jego tworzenia, rozwijanym obecnie, jest kwantowa dystrybucja klucza (KDK).  Kwantowa dystrybucja klucza jest,

qkd_product_small
Zestaw do kwantowej dystrybucji klucza. Źródło

rozważaną w ramach kryptografii kwantowej  metodą bezpiecznego przesyłania klucza za pośrednictwem stanów kwantowych pojedynczych fotonów. Metoda ta wykorzystuje własności mechaniki kwantowej (w szczególności tak zwane twierdzenie o zakazie klonowania) do przesyłania klucza, który zostanie później wykorzystany do zaszyfrowania i odszyfrowania przesyłanej już przez kanał klasyczny informacji.  Kwantowa dystrybucja klucza jest rozwiązaniem,  które zostało wdrożone do komercyjnego użytku.  Na zdjęciu powyżej można zobaczyć przykładowy zestaw do KDK. Dostępne jednakże obecnie rozwiązania posiadają jedno kluczowe ograniczenie. Mianowicie, jest to dystans, na który możemy przesłać zabezpieczoną kwantowo informację. Wiąże się to z tłumieniem fotonów w światłowodzie i koniecznością stosowania skomplikowanych tzw. powielaczy kwantowych. Obiecującym rozwiązaniem tego problemu jest przesyłanie fotonów z zakodowaną informacją kwantową poprzez atmosferę oraz przestrzeń kosmiczną. Udane próby interkontynentalnej KDK z wykorzystaniem kwantowych technologii satelitarnych udało się przeprowadzić w 2017-tym roku, co dyskutuję we wpisie Kwantowa łączność satelitarna. Obecnie trwają prace nad kilkoma projektami satelitarnymi które mają na celu rozwój kwantowych technologii związanych z łącznością satelitarną. Stworzenie podwalin dla internetu kwantowego to również jeden z filarów, rozpisanego na okres dziesięciu lat (2018-2028), flagowego programu Komisji Europejskiej Quantum Flagship.

8. Nowa energetyka jądrowa 

Technologiczny rozwój naszej cywilizacji wymaga coraz większej ilości energii. Popyt ten jest dzisiaj wciąż w dużej mierze zaspokajany przez paliwa kopane, spalanie których niesie jednak negatywne skutki dla jakości powietrza oraz prowadzi do zmian klimatycznych. Odnawialne źródła energii takie jak fotowoltaika i farmy wiatrowe dostarczają jedynie częściowego rozwiązania tego problemu. Przeszkodą w ich rozwoju jest problem magazynowania energii, który jednakże może być w dużym stopniu

41809720041_48b2f2d53f_b
Plac budowy reaktora termojądrowego ITER. Źródło

przezwyciężony stosując takie rozwiązania jak systemy power-to-gas czy też poprzez redukcję strat na przesyle energii na duże odległości (np. stosując w przyszłości nadprzewodzące sieci transmisyjne). Duże nadzieje związane z zapewnieniem stabilnego źródła energii (zarówno elektrycznej jak i cieplnej) niosą nowe rozwiązania w obszarze energetyki jądrowej. Wymarzonym źródłem energii jest kontrolowana reakcja syntezy (fuzji) termojądrowej.  Obecnie we francuskiej Prowansji trwa budowa eksperymentalnego reaktora ITER, mającego rozpocząć pierwsze eksperymenty z plazmą w połowie nadchodzącej dekady. Do 2035-tego roku planowane jest natomiast osiągnięcie generacji mocy rzędu 1GW (tyle samo co w typowym bloku elektrowni) i samo-podtrzymywanie plazmy przez nawet 1000 sekund. Jeśli projekt zostanie zwieńczony sukcesem, na jego kanwie ma zostać uruchomiony (prawdopodobnie w latach 2050-2060) pierwszy komercyjny blok termojądrowy o nazwie DEMO. Są to jednak odległe perspektywy. Dużo realniejsze w nadchodzącej dekadzie może natomiast stać się wykorzystanie nowych typów reaktorów bazujących nie na syntezie lecz na, stosowanym obecnie w elektrowniach atomowych, rozpadzie jądrowym.  Chodzi mianowicie o tak zwane reaktory jądrowe IV generacji, których bardzo obiecującym  przykładem (w perspektywie najbliższej dekady) jest reaktor wysokotemperaturowy chłodzony gazem (HTRG – High Temperature Gas-cooled Reactor).   Reaktory HTRG pozwalają na bezpieczną i bezemisyjną generację dużych ilości ciepła, znajdującego zastosowanie w przemyśle ciężkim, np. do wytopu żelaza. Ponadto, odbiorcą ciepła może być proces wytwarzania wodoru do zasilania ogniw paliwowych znajdujących zastosowanie w elektromobilności, dyskutowanej w punkcie 9. W przeciwieństwie do standardowych elektrowni jądrowych, reaktory HTRG o mocy rzędu 200 MW mają konstrukcję modułową i można je w znacznym stopniu budować w fabryce po czym integrować w miejscu przeznaczenia (np. na terenie huty).

9. Elektromobilność 

Samochody elektryczne przez wiele lat wydawały się mrzonką. Powstające prototypy były raczej ciekawostką i mało kto na poważnie brał pod uwagę możliwość tego, że za jego życia elektrycznie napędzane samochody zaczną królować na drogach i sama/sam zasiądzie za kierownicą jednego z nich. Wszystko jednak zmieniło się w przeciągu  kilku ostatnich lat,

www.helgilibrary
Prognoza rocznej sprzedaży aut elektrycznych. Źródło

głównie za sprawą pojazdów firmy Tesla.  W samym 2018-tym sprzedaż samochodów elektrycznych w USA zanotowała wzrost na poziomie 81 %, osiągając 2.1 % procent rynku samochodów w tym kraju. Globalny udział samochodów elektrycznych na koniec 2018-tego roku to zaś już 4.6%. Najwięcej z nich sprzedaje się w Chinach, gdzie liczba ta przekroczyła już roczną sprzedaż miliona sztuk. Jak wskazuje raport z 2016-tego roku, przygotowany przez Helgi Library, do końca 2030-tego roku około 20% sprzedawanych samochodów będą stanowiły samochody elektryczne. Będzie się to przekładało na sprzedaż około 20 milionów sztuk rocznie.  Otrzymane jednak w latach 2017-2018 wzrosty przewyższają prognozy na te lata. W konsekwencji, jak wskazują aktualniejsze analizy, poziom 20% w USA może zostać osiągnięty już w 2025-tym roku. Kluczowym czynnikiem który zadecyduje o adaptacji samochodów elektrycznych będzie ich cena. Od strony osiągów, samochody te już nie tylko dorównują tym konwencjonalnym, a wręcz w wielu aspektach są od nich lepsze (np. przyśpieszenie). Cena  w dużym stopniu uzależniona jest od kosztów baterii. Technologa która jest tu głównie stosowana to akumulatory litowo-jonowe (Li-Ion). Sztandarowy produkt Tesli Model S w wersji o pojemności 85kWh posiada matrycę 7104 akumulatorów o rozmiarach nieco większych od bateria AA każdy.  Rosnący popyt na akumulatory litowo-jonowe mają zaspokoić, między innymi, powstające giga fabryki (Gigafacory).  Ich pracę mogą jednak zakłócić ceny kluczowych do wytworzenie akumulatorów Li-Ion pierwiastków – litu i kobaltu. Notowania tych surowców odnotowały w ostatnich latach bardzo dynamiczny wzrost. Jednak baterie do samochodów to nie tylko problem kosztów ich wytworzenia, ale również ich recyklingu. Alternatywą dla akumulatorów mogą zaś okazać się ogniwa wodorowe. Z pewnością, rozwój elektromobilności dokona rewolucji rynku samochodowego oraz takich obszarów jak serwisowanie pojazdów. Warte podkreślenia jest to, że równolegle do rozwoju elektromobilności opracowywane i wdrażane są rozwiązania związane z autonomicznością pojazdów (oparte m.in. o wąską sztuczną inteligencję, dyskutowaną w punkcie 6 oraz nawigację satelitarną – punkt 2).   Połączenie tych dwóch elementów dokona w nadchodzącej dekadzie transformacji motoryzacji, a nazwa “samochód” nabierze nowego znaczenia.  Rosnąca rola bezemisyjnych samochodów elektrycznych będzie miała istotne znaczenie dla ograniczenia emisji gazów cieplarnianych i zanieczyszczeń do atmosfery.

10. Kolej próżniowa 

W sierpniu 2013-tego roku grupa inżynierów z firm Tesla i SpaceX, pod kierownictwem Elona Muska, przedstawiła koncepcję nowego środka transportu, określonego mianem hyperloop.  Założenia stojące za tym rozwiązaniem oraz  wstępne studium wykonalności  zawarto w raporcie Hyperloop Alpha.   Idea hyperloop polega na transporcie kapsuły (z pasażerami lub towarami) w rurze z obniżonym ciśnieniem, co ma na celu

image_04
Testowa linia kolei próżniowej firmy Hyperloop One. Źródło

zredukowanie oporu aerodynamicznego. Zakłada się, że kapsuła mogłaby poruszać się z prędkościami osiągającymi prędkości dźwięku, co stanowiłoby realną konkurencję dla komunikacji lotniczej na odległościach subkontynentalnych. Niezwykle ważne jest również to, że hyperloop wykorzystując jedynie energię elektryczną jest rozwiązaniem bezemisyjnym. Jego rozwój, jako alternatywy dla nieekologicznego ruchu lotniczego, jest więc ważny z punktu widzenia ograniczania emisji dwutlenku węgla do atmosfery.  Nad wdrożeniem technologii hyperloop pracuje obecnie kilka firm, wśród których wiodącą rolę odgrywają Hyperloop One i Hyperloop Transportation Technologies. W Polsce ideę hyperloop rozwija startup Hyperloop Poland. Wdrożenie hyperloop jako środka transportu stawia szereg wyzwań zarówno natury inżynieryjnej jak i ekonomicznej. Problemem technicznym jest, w szczególności, kwestia kompresji powietrza w przedniej części kapsuły i związany z tym wzrost ciśnienia, hamujący ruch samej kapsuły. Efekt ten zaczyna być szczególnie dokuczliwy gdy prędkość kapsuły osiąga prędkość dźwięku, uniemożliwiając cząsteczkom powietrza opływ kapsuły poprzez obszar pomiędzy wewnętrzną powierzchnią rury, a powierzchnią kapsuły.  Zjawisko to wiąże się z istnieniem tak zwanej granica Kantrowitza (ang. Kantrowitz limit), która zadaje maksymalną prędkość z jaką może poruszać się obiekt dla określonego stosunku przekroju tego obiektu względem przekroju poprzecznego rury.  Rozwiązaniem problemu wzrostu ciśnienia powietrza w przedniej części kapsuły jest zastosowania kompresora, który odpompowuje nadmiar powietrza do tylnej części kapsuły. Rozwiązanie takie ma jeszcze jedną zaletę; mianowicie, odprowadzane powietrze może zostać użyte do utrzymania kapsuły na wytworzonej poduszce powietrznej, jak w przypadku poduszkowca. Zastosowanie lewitacji (w tym przypadku ciśnieniowej) jest kluczowe do zredukowania tarcia pomiędzy kapsułą, a tubą. Alternatywnie, rozważane jest zastosowanie lewitacji magnetycznej, jak np. w szanghajskim Maglevie. Wykorzystanie takiego rozwiązania jest jednak dużo kosztowniejsze i wymaga większego zasilania (chyba, że zastosowane zostaną magnesy stałe).  Budowa od podstaw infrastruktury Hyperloop to ogromne wyzwanie ekonomiczne i planistyczne, jednakże już dzisiaj zapadają pierwsze decyzje dotyczące planów budowy instalacji kolei próżniowej.

11. Lab-on-a-chip

Wykonując ilościowe badania mikrobiologiczne standardowymi metodami musimy liczyć się z tym że, na ich wyniki będziemy musieli czekać przynajmniej 24 godziny, a w przypadku niektórych patogenów (np. grzyby) nawet kilka-kilkanaście dni. Wynika to z faktu, iż dla klasycznych posiewów na szalce Petriego należy inkubować kolonie komórkowe do czasu aż osiągną one makroskopowe rozmiary, pozwalające na zliczenie ich liczby gołym okiem. Ta skrajnie archaiczna metoda, nie przystająca do współczesnych realiów, jest jednak wciąż najpowszechniejszym sposobem analizy mikrobiologicznej zarówno w  diagnostyce medycznej jaki i w przemyśle spożywczym, farmaceutycznym i kosmetycznym. Sytuacja ta ma jednak szansę ulec zmianie za sprawą rozwiązań typu lab-on-a-chip, czyli miniaturowych systemów analitycznych. Układy tego typu mogą np. wykrywać i zliczać pojedyncze bakterie, eliminując konieczność długotrwałego oczekiwania na wyniki

shutterstock_311155133-1068x601
Przykład mikrofluidycznego układu lab-on-a-chip. Źródło

badań mikrobiologicznych (wymagających odczekania kilkunastu/kilkudziesięciu cykli podziałów komórek).  Układy lab-on-a-chip zazwyczaj wykorzystują rozwiązania mikroprzepływowe (tzw. układy mikrofluidyczne) pozwalające na przeprowadzanie reakcji chemicznych czy też biochemicznych, operując na objętościach płynów rzędu mikro litrów lub mniejszych. Układy tego typu wykonuje się zazwyczaj metodami litograficznymi w płytce ze szkła akrylowego (zdjęcie powyżej). Szczególną klasą systemów mikroprzepływowych są modele organów tzw. organ-on-a-chip. Przykładu rozwiązania lab-on-a-chip dostarczają również miniaturowe układy do sekwencjonowania DNA, wspomniane w punkcie 4. Miniaturyzacja i obniżenie kosztu układów diagnostycznych doprowadzi do ich szerokiego rozpowszechnienia. Będzie to miało duże znaczenie dla podniesienia poziomu diagnostyki medycznej w rozwijających się rejonach świata. Układy lab-on-a-chip  nie tylko (jako np. przystawki do smartfonów) trafią do naszych domów ale również umożliwią prowadzenie badań biomedycznych w warunkach kosmicznych, co już ma miejsce. Połączenie rozwiązań nanosatelitarnych (dyskutowanych w punkcie 2) z układami  lab-on-a-chip  może, w szczególności, dostarczyć metody opracowywania leków dedykowanych dla przyszłych kosmicznych eksploratorów [Ref].

12. Blockchain 

Blockchain to rozproszona baza danych (księga rachunkowa) nie posiadająca centralnej jednostki autoryzującej. Pomimo, że koncepcja ta była znana już wcześniej, szerokie zastosowanie znalazła dzięki kryptowalucie Bitcoin, której założenia zostały przedstawione w 2009-tym roku w pracy Bitcoin: A Peer-to-Peer Electronic Cash System. Wprowadzenie Bitcoina pociągnęło za sobą utworzenie wielu konkurencyjnych kryptowalut, których (na giełdach kryptowalut) notowanych jest już kilka tysięcy.  Funkcjonowanie Blockchainu wymaga zastosowania szeregu rozwiązań kryptograficznych, zapewniających poprawne funkcjonowanie systemu. Są to zarówno

untitled-design
Popularne kryptowaluty oparte o technologię Blockchain. Źródło

podpis elektroniczny, wykorzystywany do uwierzytelniania transakcji,  jak i funkcje haszujące mające zastosowanie do tworzenia adresów bloków oraz w procesie tzw. kopania (mining). Kopanie jest związane z metodą nagradzania osób, które angażują się w podtrzymywanie Blockchainu, co jest niezbędne do jego funkcjonowania. W przypadku Bitcoina,  stosowana jest funkcja haszująca SHA-256, która jest bardzo powszechnie wykorzystywana w zabezpieczaniu np. wymiany informacji w internecie (kliknij na kłódkę w przeglądarce w pasku adresu tej strony i zwróć uwagę na szczegóły certyfikatu TLS). Proces kopania, czyli poszukiwania rozwiązania zadania opartego o przeszukiwanie dziedziny funkcji haszującej, jest jednak zadaniem bardzo żmudnym i wymagającym ogromnych mocy obliczeniowych. Tylko w przypadku Bitcoina (jak wskazuje Bitcoin Energy Consumption Index) roczna konsumpcja energii elektrycznej wynosi około 50 TWh, co przekłada się na średnią pobieraną moc 5,7 GW. Jest to porównywalne z mocą pięciu elektrowni atomowych lub całkowitym zapotrzebowaniem na energię elektryczną Singapuru. Ponieważ energia ta pochodzi jednak w głównej mierze z elektrowni węglowych, tak duża konsumpcja energii rodzi obawy związane z emisją dwutlenku węgla i jego negatywnego wpływu na klimat [Ref].  Problem ten będzie musiał znaleźć rozwiązanie w przyszłych implementacjach technologii Blockchain. Kolejnym problemem, jaki stoi przed stabilnością rozwiązań opartych o Blockchain jest kwestia podatności na ataki na wykorzystane rozwiązania kryptograficzne. Kwestię tę dyskutuję dokładniej we wpisie Kryptowaluty-Kwanty-Kosmos. Rzecz mianowicie dotyczy nowych możliwości zarówno rekonstrukcji kluczy prywatnych (w tzw. kryptografii asymetrycznej) jak i przeszukiwania dziedzin funkcji haszujących, jakich dostarczą komputery kwantowe, dyskutowane w punkcie 1.  Przyszłe implementacje Blockchainu będą wymagały zastosowania klasycznych algorytmów kryptograficznych nie podatnych na ataki kwantowe. Algorytmy takie są dzisiaj opracowywane w ramach tak zwanej kryptografii postkwantowej.  Ponadto, rozwój internetu kwantowego (dyskutowanego w punkcie 7) pozwoli na wprowadzenie Blockchainu opartego o kwantową dystrybucję klucza. Prace nad kwantowo zabezpieczoną wersją Blockchainu są już obecnie prowadzone [Ref]. Warto na koniec podkreślić, że Blockchain ma zastosowanie nie tylko w obszarze finansowym. Do przyszłych pól implementacji tej technologii możemy zaliczyć m.in.: przechowywanie danych medycznych, ubezpieczenia, zarządzanie infrastrukturą IoT, elektroniczne zawieranie umów, księgi wieczyste, kontrola nad prawami do utworów artystycznych oraz zarządzanie łańcuchami dostaw.

© Jakub Mielczarek

Kwantowe cienie

Rzucany przez przedmiot cień nie zawsze daje nam właściwe wyobrażenie o naturze oświetlanego obiektu. Dowodzi tego chociażby twórczość duetu artystycznego Tim Noble i Sue Webster, której przykład pozwoliłem sobie zamieścić poniżej.

Real Life Is Rubbish
Tim Noble i Sue Webster Real Life Is Rubbish (2002). Źródło

Przyjrzymy się powyższemu zdjęciu trochę bliżej. Widzimy na nim stertę śmieci które, pod określonym kątem, rzucają cień dwojga ludzi – Twórców instalacji. Jednym z zamysłów Artystów było niewątpliwie to by wprowadzić nasz mózg w zakłopotanie, poprzez dwoistość interpretacji tego co widzimy. Co mianowicie jest pierwotne, czy są to sylwetki ludzi czy też oświetlane przedmioty? Oczywiście, z punktu widzenia fizyki , sprawa jest prosta, pierwotna jest sterta rupieci, natomiast cień jest wtórny, a ponadto nie jest on obiektem fizycznym. Wchodząc na warstwę czysto artystyczną, Twórcy skłaniają nas więc do interpretowania prawdziwego (fizycznego) życia jako nie wartego więcej niż to co zdołaliśmy wyrzucić. Świat alegorii nie rządzi się jednak prawami fizyki, przez co nieskrępowanie moglibyśmy kontynuować dalej nasze wywody na temat interpretacji i znaczeń. Jest to niewątpliwe zarówno przyjemne ćwiczenie naszej kreatywności oraz intelektualne wyzwanie. Chciałbym jednak żebyśmy, po tej małej rozgrzewce, wykorzystali nasze umysły do zastanowienia się nad tym czy skoro nie jeden cień to może większa ich ilość może nam pozwolić odsłonić naturę obiektu  który te cienie rzuca. Wyobraźmy sobie na przykład, że instalację Real Life Is Rubbish zaczynamy oświetlać pod innymi kątami. Otrzymane cienie nie będą miały już nic wspólnego z sylwetkami ludzi, mogą nie przypominać zupełnie niczego.  Czy istnieje jednak metoda na to by wykorzystując te dwuwymiarowe rzuty zrekonstruować trójwymiarowy kształt sterty śmieci? Okazuje się, że jest to możliwe, chociaż w przypadku nietransparentnych obiektów taka procedura ma swoje istotne ograniczenia. Transparentność przedmiotów zależy jednak w dużym stopniu od długości fali którymi je oświetlimy. Jeśli zamiast światła widzialnego użylibyśmy rentgenowskiego zakresu promieniowania elektromagnetycznego, na podstawie rzucanych przez przedmiot cienieni moglibyśmy zrekonstruować jego trójwymiarowy kształt. Metoda ta nazywa się tomografią i jest powszechnie stosowana w obrazowaniu medycznym.  Bodajże najpopularniejszym jej przykładem jest tomografia komputerowa (CT), pozwalająca dzięki obrazom (cieniom) rentgenowskim, otrzymanym pod różnym kątem, stworzyć trójwymiarowy obraz, na przykład mózgu (film poniżej).

Od strony matematycznej, zasada działania tomografii opiera się na tak zwanej transformacie Radona. Jest to operacja  która na podstawie dwuwymiarowych projekcji (cieni) pozwala odzyskać trójwymiarowy rozkład gęstości obiektu.

Podobną do tomografii komputerowej procedurę rekonstrukcji trójwymiarowego obrazu możemy przeprowadzić również w mikroskali – w świecie kwantowym. Nosi ona nazwę tomografii kwantowej.  Odpowiednikiem rozkładu gęstości jest tu tak zwana funkcja Wignera, którą otrzymujemy ze stanu  kwantowego | \Psi \rangle, lub ogólniej tak zwanej macierzy gęstości, która w przypadku stanów czystych (ang. pure states) może być wyrażona w następujący sposób: \hat{\rho} = | \Psi \rangle \langle \Psi |.  Na przykład, dla cząstki w jednym wymiarze funkcję Wignera W(x,p), gdzie x to położenie a p to pęd możemy zapisać jako

W(x,p) = \frac{1}{\pi \hslash} \int_{-\infty}^{+\infty} \langle x+y | \hat{\rho} | x-y \rangle e^{-2i py/\hslash} dy.

Z uwagi na ścisłą relację pomiędzy funkcją Wignera a macierzą gęstości, poprzez tomografię kwantową rozumiemy zrekonstruowanie, poprzez dokonanie odpowiednich pomiarów “kwantowych cieni” stanu układu kwantowego, jednego z tych dwóch obiektów.  Chciałbym Ci teraz drogi Czytelniku pokazać jak to wygląd w praktyce i w jaki sposób tomografię stanu kwantowego będziesz mogła lub mógł przeprowadzić samodzielnie, nie odchodząc nawet od komputera.  Choć świat kwantowy może Ci się jawić jako zupełnie niedostępny a wykonywanie w nim pomiarów jako coś mało realnego, dzięki rozwojowi technologii kwantowych możemy się dzisiaj do niego całkiem łatwo dostać.  Wszystko za sprawą dostępnego publicznie pięciokubitowego komputera kwantowego firmy IBM, do którego możesz uzyskać dostęp poprzez tę stronę internetową. Jako wstęp do zagadnienia komputerów kwantowych zachęcam Cię do zapoznania się z moim wcześniejszym wpisem Elementary quantum computing.  Zakładając, że jesteś uzbrojona/ny w podstawowe wiadomości dotyczące mechaniki kwantowej, chciałbym przejść do pokazania Ci jak przeprowadzić tomografię stanu kwantowego pojedynczego kubitu, czyli stanu

|\Psi \rangle = \alpha|0\rangle +\beta |1\rangle,

gdzie, \alpha, \beta \in \mathbb{C} (liczby zespolone), a warunek normalizacji stanu kwantowego \langle \Psi | \Psi \rangle = 1 implikuje, że |\alpha|^2+|\beta|^2=1. Kubit jest nośnikiem najmniejszej porcji informacji kwantowej (odpowiednik klasycznego bitu) i od strony matematycznej jest elementem dwuwymiarowej przestrzeni wektorowej nad ciałem liczb zespolonych, czyli tak zwanej przestrzeni Hilberta.

Zanim przejdziemy do przeprowadzenia pomiarów na kubicie wykorzystując komputer kwantowy IBM Q, wprowadźmy najpierw niezbędne podstawy teoretyczne. Po pierwsze, będziemy chcieli zrekonstruować macierz gęstości \hat{\rho}, która w przypadku kubitu jest macierzą 2\times2 i można ją wyrazić jako:

\hat{\rho} = \frac{1}{2} \left( \hat{\mathbb{I}}+ \langle \hat{X}\rangle \hat{X}+ \langle \hat{Y}\rangle \hat{Y}+ \langle \hat{Z}\rangle \hat{Z}    \right) = \frac{1}{2}\left( \hat{\mathbb{I}}+\vec{S}\cdot \vec{\sigma}  \right) =\frac{1}{2} \left( \begin{array}{cc} 1+\langle \hat{Z}\rangle & \langle \hat{X}\rangle-i\langle \hat{Y}\rangle \\ \langle \hat{X}\rangle+i\langle \hat{Y}\rangle   & 1-\langle \hat{Z}\rangle \end{array} \right) .

Powyżej, wprowadziłem operatory \hat{X}, \hat{Y}, \hat{Z}, którym w reprezentacji macierzowej odpowiadają tak zwane macierze Pauliego:

\hat{X} := \sigma_x = \left( \begin{array}{cc} 0 & 1  \\ 1  & 0 \end{array} \right),  \ \  \hat{Y} := \sigma_y = \left( \begin{array}{cc} 0 & -i  \\ i  & 0 \end{array} \right),  \ \ \hat{Z} := \sigma_z = \left( \begin{array}{cc} 1 & 0  \\ 0  & -1 \end{array} \right) ,

składające się na wektor \vec{\sigma} = (\sigma_x,\sigma_y,\sigma_z).  Natomiast,  wektor \vec{S} = (\langle \hat{X}\rangle,\langle \hat{Y}\rangle,\langle \hat{Z}\rangle) złożony jest z wartości średnich które można obliczyć w oparciu o ogólne wyrażenie: \langle \hat{A}\rangle := \text{tr} (\hat{\rho} \hat{A}).

Po drugie, warto w tym momencie wprowadzić użyteczne pojęcie sfery Blocha. Mianowicie, jest to sfera jednostkowa która reprezentuje wszystkie możliwe stany kwantowe kubitu. Każdy punkt na tej sferze to inny stan kwantowy i wskazuje na niego wprowadzony powyżej wektor \vec{S}. Równanie sfery Blocha to więc \vec{S}\cdot \vec{S} = \langle \hat{X}\rangle^2+\langle\hat{Y}\rangle^2+\langle \hat{Z}\rangle^2=1. Warto zaznaczyć, że powyższe równanie sfery jest konsekwencją tego, iż \hat{\rho}=\hat{\rho}^2, co wynika z założenia dotyczącego czystości stanu kwantowego.

Bloch

Sferę Blocha wygodnie sparametryzować poprzez poprzez kąty \phi \in [0, 2 \pi) oraz \theta \in [0, \pi] tak, że stan kwantowy kubitu możemy z ich pomocą zapisać jako

| \Psi \rangle = \cos(\theta/2) |0 \rangle + e^{i \phi} \sin (\theta/2)| 1 \rangle,

gdzie pominięty został nieistotny globalny czynnik fazowy. Tomografia stanu kwantowego kubitu równoważna jest ze znalezieniem składowych wektora \vec{S},  wskazującego na konkretny punk na sferze Blocha. Wektor ten jest obiektem który chcemy zrekonstruować, podobnie jak rozważany wcześniej oświetlany przedmiot. Korzystając z tej analogii, możemy obrazowo powiedzieć, że wektor Blocha \vec{S} “rzuca trzy cienie” będące jego składowymi (rzutami).  Tomografia stanu kwantowego wymaga określenia tych trzech składowych. Jednakże, w przypadku stanów czystych, długość wektora  \vec{S} jest równa jeden (spełnione jest równanie sfery \vec{S}\cdot \vec{S} = \langle \hat{X}\rangle^2+\langle\hat{Y}\rangle^2+\langle \hat{Z}\rangle^2=1) co wprowadza relację pomiędzy “cieniami”. W takim przypadku, wystarczy zmierzyć jedynie dwie spośród wszystkich trzech składowych. Trzeci rzut możemy zaś wyznaczyć z równania sfery Blocha.  Z uwagi na to, że w przypadku ogólnym, stan kwantowy poprzez jego oddziaływanie ze środowiskiem może nie być do końca czysty (staje się tak zwanym stanem mieszanym) zasadne jest by z góry nie dokonywać założenia o czystości stanu kwantowego.

Komputer kwantowy IBM, pracujący w oparciu  o tak zwane kubity nadprzewodzące, pozwala nam wykonać pomiary w bazie własnej operatora \hat{Z}.  Wielokrotne powtórzenie pomiarów w takiej bazie, dla każdorazowo przygotowanego na nowo takiego samego stanu kwantowego, pozwala wyznaczyć wartość średnią operatora \hat{Z} w tym stanie. Mianowicie, ponieważ \hat{Z}|0\rangle = |0\rangle oraz  \hat{Z} |1\rangle = -|1\rangle, otrzymujemy

\langle \hat{Z} \rangle = (\alpha^* \langle 0| +\beta^* \langle 1|)(\alpha|0\rangle -\beta |1\rangle) = |\alpha|^2-|\beta|^2 = P(0)-P(1),

gdzie wykorzystaliśmy ortonormalność stanów bazowych |0\rangle i |1\rangle. Poszukiwana średnia jest więc różnicą pomiędzy prawdopodobieństwami znalezienia układu w stanie |0\rangle a w stanie  |1\rangle. Wyznaczenie średnich \langle \hat{X} \rangle  oraz \langle \hat{Y} \rangle, niezbędnych do przeprowadzenia tomografii, nie jest już takie bezpośrednie. Należy mianowicie dokonać pomiarów w bazach własnych operatorów \hat{X}   oraz \hat{Y}. Jak pokażemy poniżej, można tego dokonać dokonując odpowiednich transformacji badanego stanu kwantowego.  Do tego celu będą nam pomocne dodatkowe operatory:

\hat{H} = \frac{1}{\sqrt{2}} \left( \begin{array}{cc} 1 & 1  \\ 1  & -1 \end{array} \right), \ \ \  \hat{S} = \left( \begin{array}{cc} 1 & 0  \\ 0  & i \end{array} \right), \ \ \  \hat{S}^{\dagger} = \left( \begin{array}{cc} 1 & 0  \\ 0  & -i \end{array} \right) ,

pierwszy z nich to tak zwany operator Hadamarda, stowarzyszona z nim tak zwana bramka Hadamarda jest ważnym elementem w konstrukcji obwodów kwantowych. Operator \hat{S} to natomiast operator obrotu fazy o 90 stopni, natomiast \hat{S}^{\dagger} to jego sprzężenie hermitowskie.

Ponieważ jesteśmy już blisko momentu w którym zaczniemy dokonywać konkretnych pomiarów, zdecydujmy się na wybór stanu kwantowego który będziemy chcieli poddać tomografii. Mój wybór padł na stan:

| \Psi \rangle = \hat{T} \hat{H} | 0 \rangle = \frac{1}{\sqrt{2}} \left( | 0 \rangle + e^{i \frac{\pi}{4}} | 1 \rangle  \right),

dla którego wektor Blocha wskazuje, pod kątem \phi = 45^{\circ}, na punkt na  równiku na sferze Blocha. Natomiast, Ciebie drogi Czytelniku, po przeanalizowaniu poniższego przykładu,  zachęcam do eksperymentowania z wybranymi przez Ciebie stanami kwantowymi. Dodam jeszcze, że powyżej wykorzystałem operator \hat{T} zdefiniowany jest w następujący sposób:

\hat{T} := \sqrt{\hat{S}}=\left( \begin{array}{cc} 1 & 0  \\ 0  & e^{i \frac{\pi}{4}} \end{array} \right).

Dla wybranego przeze mnie stanu kwantowego, macierz gęstości przybiera postać:

\hat{\rho}_1 = \frac{1}{2} \left( \begin{array}{cc} 1 & \frac{1}{\sqrt{2}}-\frac{i}{\sqrt{2}}  \\  \frac{1}{\sqrt{2}}+ \frac{i}{\sqrt{2}}   & 1 \end{array} \right) .

Sprawdzenie tego pozostawiam jako zadanie dla Ciebie. Porównują elementy tej macierzy z wprowadzoną na wstępie ogólną postacią macierzy gęstości dla kubitu możemy odczytać, że wartości operatorów \hat{X}, \hat{Y}, \hat{Y} mają w tym stanie następujące wartości:

\langle \hat{X} \rangle = \frac{1}{\sqrt{2}},  \ \ \langle \hat{Y} \rangle = \frac{1}{\sqrt{2}}, \ \  \langle \hat{Z} \rangle = 0.

Przekonajmy się teraz na ile te przewidywania teoretyczne zgadzają się z pomiarami otrzymanymi w komputerze kwantowym charakteryzującym się błędami zarówno bramek kwantowych oraz odczytu jaki i wynikającymi z tak zwanej dekoherencji kwantowej, wprowadzającej mieszanie stanu kwantowego.

Pomiar \langle \hat{Z} \rangle

Poniżej, przedstawiono obwód kwantowy umożliwiający wytworzenie stanu | \Psi \rangle = \hat{T} \hat{H} | 0 \rangle = \frac{1}{\sqrt{2}} \left( | 0 \rangle + e^{i \frac{\pi}{4}} | 1 \rangle  \right), oraz wykonanie na nim pomiarów w bazie \{|0\rangle, |1 \rangle \}. Obwód taki możemy łatwo zbudować korzystając z kreatora dostępnego na stronie IBM Experience.

Tom-ZPowtarzając powyższy algorytm 1024 razy otrzymaliśmy  P(0)=0.567 oraz  P(1)=0.433, co pozwala wyznaczyć \langle \hat{Z} \rangle = P(0)-P(1)=0.134. Niepewność tego wyniku ma dwa źródła. Pierwsze jest związane z błędami instrumentalnymi pochodzącymi od błędów bramek, będącymi na poziomie 0.001 na bramkę jedno-kubitową, oraz błędami odczytu, który jest na poziomie 0.08. Drugie źródło niepewności jest związane ze statystyczną naturą mechaniki kwantowej. W  rozważanej sytuacji spodziewamy się, że z jednakowym prawdopodobieństwem będziemy otrzymywać jako wynik pomiaru stany |0\rangle oraz  |1\rangle. Zagadnienie oszacowania odpowiednich niepewności jest matematycznie równoważne do przypadku błądzenia przypadkowego w jednym wymiarze. Jeśli przez N_0 oznaczymy ilość wyników  |0\rangle a przez N_1 ilość wyników dla |1\rangle, tak, że N_0+N_1=N=1024, to odchylenie standardowe N_0 i N_1 wyniesie s=\sqrt{N/4}=16. Stąd, możemy wyznaczyć niepewność estymacji prawdopodobieństwa, wynikającą ze statystycznej natury mechaniki kwantowej na s/N = 1/\sqrt{4N} \approx 0.016. Sumaryczną niepewność pomiaru możemy więc określić na około 0.1, czyli około 10 \%.  Otrzymane wyniki, dla P(0) oraz P(1), są w granicach tej niepewności zgodne z teoretycznie przewidywanymi  wartościami.

Pomiar \langle \hat{X} \rangle

Wykonanie pomiaru wartości średniej \langle \hat{X} \rangle wymaga obrócenia układu tak żeby ustawić kierunek X wzdłuż osi Z. Można tego dokonać dzięki poniższej relacji operatorowej

\hat{X} = \hat{H} \hat{Z} \hat{H},

którą łatwo dowieść wykorzystując reprezentację macierzową zaangażowanych tu operatorów. Na tej podstawie, wartość średnią operatora \hat{X} w  stanie  |\Psi \rangle możemy wyrazić jako

\langle \hat{X} \rangle = \langle \Psi | \hat{X} |\Psi \rangle = (\langle \Psi | \hat{H}) \hat{Z} (\hat{H}|\Psi \rangle) .

Żeby więc obliczyć wartość  \langle \hat{X} \rangle należy na stan  |\Psi \rangle zadziałać operatorem \hat{H}, po czym wystarczy dokonać pomiarów w bazie operatora \hat{Z}. Ilustruje to poniższy obwód kwantowy:

Tom-XWykonując 1024 pomiary, zupełnie tak samo jak w przypadku \langle \hat{Z} \rangle, otrzymujemy  P(0)=0.870, P(1)=0.130, co pozwala nam wyznaczyć \langle \hat{X} \rangle = P(0)-P(1)=0.740. Rozważania dotyczące niepewności pomiaru są analogiczne jak w przypadku wyznaczania  \langle \hat{Z} \rangle.

Pomiar \langle \hat{Y} \rangle

Podobnie jak w przypadku pomiaru \langle \hat{X} \rangle, również wyznaczenie wartości średniej operatora \hat{Y} może zostać wykonana poprzez odpowiednią transformację stanu kwantowego. W tym przypadku, należy wykorzystać transformację:

\hat{Y} = (\hat{S} \hat{H}) \hat{Z}(\hat{S} \hat{H})^{\dagger} = (\hat{S} \hat{H}) \hat{Z}(\hat{H} \hat{S}^{\dagger}),

(udowodnij tę relację) na której podstawie:

\langle \hat{Y} \rangle = \langle \Psi | \hat{Y} |\Psi \rangle = (\langle \Psi | \hat{S} \hat{H}) \hat{Z} (\hat{H} \hat{S}^{\dagger}|\Psi \rangle).

W celu wyznaczenia wartość średniej \langle \hat{Y} \rangle musimy więc na otrzymany stan zadziałań najpierw operatorem \hat{S}^{\dagger}, następnie operatorem \hat{H}, po czym dokonać pomiarów w bazie operatora \hat{Z}, jak to przedstawiono na obwodzie poniżej:

Tom-Y

Stąd, postępując analogicznie jak w poprzednich przypadkach, otrzymujemy P(0)=0.837, P(1)=0.163, a to pozwala nam wyznaczyć  \langle \hat{Y} \rangle = P(0)-P(1)=0.674. Czym kończymy nasze pomiary. Pozostaje nam pozbierać otrzymane wyniki.

Zbierając wszystko razem  

Zbierając powyższe wyniki, otrzymujemy następujący wektor Blocha:

\vec{S} = (\langle \hat{X}\rangle,\langle \hat{Y}\rangle,\langle \hat{Z}\rangle) =  (0.740,0.674,0.134),

którego kwadrat modułu \vec{S}\cdot \vec{S} \approx 1.02 co jest, w granicach błędu, zgodne z przypadkiem stanu czystego. Natomiast, otrzymana w wyniku przeprowadzonej tomografii macierz gęstości to

\hat{\rho}_2 = \frac{1}{2} \left(\begin{array}{cc} 1.134  & 0.740-i 0.674 \\ 0.740+i 0.674  & 0.866 \end{array} \right) .

Powszechnie stosowaną metodą ilościowego określenia zgodności dokonanej tomografii z wartością teoretyczną jest wyznaczenie tak zwanej wierności (ang. fidelity) zdefiniowanej w następujący sposób:

F(\hat{\rho}_1,\hat{\rho}_2):= \text{tr}\sqrt{\sqrt{\hat{\rho}_1}\hat{\rho}_2 \sqrt{\hat{\rho}_1}} .

Stosując powyższe wyrażenia do teoretycznie przewidzianej macierzy gęstości \rho_1 oraz macierzy gęstości otrzymanej w wyniku procedury tomografii \rho_2, otrzymujemy wartość F(\hat{\rho}_1,\hat{\rho}_2) \approx 99.996 \%. Wierność zrekonstruowanego kwantowego tomogramu jest więc bardzo wysoka, co jest jednak zgodne z oczekiwaniami dla pojedynczego kubitu. W przypadku tomografii przeprowadzonej dla większej ilości kubitów, wierność odwzorowania będzie odpowiednio niższa. O ile niższa? To już zależy od konkretnego stanu kwantowego. Jeśli masz ochotę na dalsze ambitniejsze wyzwanie, zachęcam Cię do przeprowadzenia tomografii jednego ze splątanych stanów Bella. Stany te odgrywają dużą rolę zarówno w obliczeniach kwantowych jak i w teleportacji kwantowej oraz kwantowej kryptografii (np. protokół Ekerta). W zastosowaniach tych, przygotowanie stanu kwantowego o odpowiednio wysokiej wierności ma znaczenie praktyczne i uzależnione jest od tego na przykład bezpieczeństwo zaszyfrowanej kwantowo informacji. Przyglądając się uważnie “kwantowym cieniom” stanu Bella możemy zdiagnozować czy jest on wystarczajaco “zdrowy” do wykonania powierzonego mu zadania.

© Jakub Mielczarek

Kryptowaluty-Kwanty-Kosmos

Świat zachłysnął się cyfrowym złotem – kryptowalutami. Bitcoin i technologia Blockchain stały się, w mgnieniu oka, częścią naszej codzienności. Choć jeszcze dosłownie kilka lat temu były to nazwy znane głównie entuzjastom nowych technologii oraz postępowym inwestorom. Obecnie, zainteresowanie rynkiem kryptowalut jest ogromne,   a sięgające nawet kilkuset procent w skali roku wzrosty kursów kryptowalut wabią  okazją zbicia fortuny.

Nie mniej emocji dostarcza nam obecny renesans w eksploracji kosmosu (tzw. NewSpace). Takie momenty jak symultaniczne lądowanie odzyskiwanych po stracie rakiety Falcon Heavy stopni pomocniczych to sceny niczym z filmów science fiction. Spektakularność tych wyczynów pobudza wyobraźnię nie tylko pasjonatów kosmosu, ale i inwestorów, przyśpieszając otwarcie przestrzeni kosmicznej dla coraz ambitniejszych wyzwań. Trochę w cieniu Blockchainu i NewSpace, rozgrywa się obecnie jeszcze jedna niezwykle ważna technologiczna rewolucja, nie robiąca może tyle huku co start rakiety ani nie hipnotyzująca tak jak cyfrowe złoto, ale za to gruntownie transformująca informacyjną tkankę naszego świata. Chodzi mianowicie o przeskok od obecnej fazy przetwarzania informacji klasycznej (bity) do epoki informacji kwantowej (qubity).  Nowe technologie kwantowe, bo za ich sprawą  ma to miejsce, wpłyną na dalszy rozwój zarówno kryptowalut jak i technologii kosmicznych. Możemy sformułować nawet śmielszą tezę: rozwiązania, które zrodzą się na przecięciu tych trzech obszarów (kryptowalut, technologii kwantowych i eksploracji kosmosu), zrewolucjonizują każdy z nich z osobna jak i wygenerują zupełnie nową jakość.

Ale po kolei. Kryptowaluty opierają się na rozproszonym systemie księgowym typu peer-to-peer, zaproponowanym w artykule Bitcoin: A Peer-to-Peer Electronic Cash System. W rozwiązaniu takim, w przeciwieństwie do standardowych systemów finansowych, nie istnieje centralny podmiot autoryzujący, np. bank. Poprawność obrotu kryptowalutą zapewniona jest natomiast poprzez decentralizację oraz szereg zabezpieczeń kryptograficznych. Należy do nich, w szczególności, podpis elektroniczny za pomocą którego składane są dyspozycje transakcji.  Jest to przykład tak zwanej kryptografii asymetrycznej, w której istnieją dwa typy klucza: prywatny oraz publiczny. Wykonanie transakcji wiąże się z podpisaniem, za pomocą klucza prywatnego, dyspozycji transakcji  i następnie jej autoryzowanie przez innych użytkowników sieci, na postawie znajomości klucza publicznego. Dokładnie tak samo jak w przypadku składania podpisu elektronicznego. Siła takiego zabezpieczenia opiera się na dużej złożoności obliczeniowej związanej z odtworzeniem postaci klucza prywatnego na podstawie znajomości klucza publicznego.  W przypadku Bitcoina, wykorzystywany jest w tym celu algorytm ECDSA (Elliptic Curve Digital Signature Algorithm). Jest on odporny na ataki prowadzone przez komputery klasyczne. Natomiast, okazuje się, że dla uniwersalnych komputerów kwantowych problem ten przestaje być aż tak trudny. Mianowicie, do znalezienia klucza prywatnego (w kryptografii bazującej na ECDSA) możliwe jest zastosowanie zmodyfikowanego kwantowego algorytmu faktoryzacji Shora. Niedawna publikacja Quantum attacks on Bitcoin, and how to protect against them sugeruje, że postęp w rozwoju komputerów kwantowych może umożliwić łamanie obecnych zabezpieczeń opartych o ECDSA już za niespełna 10 lat.

Utrzymanie zdecentralizowanej struktury Blockchainu, na której opary jest Bitcoin, wymaga pracy tak zwanych górników (minerów). Zapłatą za wkład ich mocy obliczeniowej w utrzymywanie systemu są Bitcoiny. Żeby jednak je otrzymać, należy rozwiązać zadanie oparte o tak zwaną funkcję haszującą SHA-256, opracowaną przez National Security Agency. W celu rozwiązania zadania, konieczne jest zbadanie wartość funkcji haszujacej dla bardzo dużej ilości różnych wartości jej argumentu. Jest to, dla komputerów klasycznych, niezwykle żmudne zadanie (energia elektryczna przeznaczana obecnie na tę czynność, tylko w przypadku Bitcoinu, wynosi w skali roku ponad 70 TWh, co jest porównywalne z konsumpcją energii elektrycznej Austrii). Okazuje się jednak, że zadanie to jest jednym z tych z którymi doskonale radzą sobie algorytmy kwantowe. Otóż, można w tym przypadku wykorzystać jeden z najbardziej znanych algorytmów kwantowych, tak zwany algorytm Grovera. Pozwala on zredukować złożoność obliczeniową procesu poszukiwania argumentu funkcji haszującej do pierwiastka kwadratowego z liczby dozwolonych argumentów.

Możemy  więc dojść do wniosku, że rozwój technologii kwantowych, w szczególności uniwersalnych komputerów kwantowych (takich jak np. IBM Q), stanowi zagrożenie dla zabezpieczeń na których opierają się obecne kryptowaluty. Z drugiej strony jednak, technologie kwantowe pozwalają również ulepszyć systemy takie jak Blockchain. Miedzy innymi,  klasyczne zabezpieczenia kryptograficzne mogą zostać zastąpione przez odpowiednie rozwiązania kryptografii kwantowej.  Do najważniejszych z nich należą: kwantowe generatory kluczy oraz tak zwana Kwantowa Dystrybucja Klucza (KDK).

KDK opiera się na takich własnościach mechaniki kwantowej jak zaburzenie stanu układu kwantowego poprzez pomiar i tak zwany zakaz klonowania stanów kwantowych.  Na tej podstawie, protokoły kwantowej dystrybucji klucza są w stanie wykryć każdą próbę wykradzenia informacji. Stanowią więc wręcz idealną metodę zabezpieczenia wymiany klucza prywatnego, eliminując tym samym potrzebę stosowania kryptografii asymetrycznej.  Warto podkreślić, że KDK osiągnęła poziom technologii dostępnej komercyjnie. Jednakże, jej stosowanie na dużych odległościach (rzędu kilkuset kilometrów) wciąż stanowi wyzwanie. Wiąże się to z koniecznością przesyłania pojedynczych fotów, w których stanach kwantowych zakodowany jest klucz prywatny. Można w tym celu zastosować światłowód. Nie jest to jednak rozwiązanie optymalne gdyż, z uwagi na zakaz klonowania stanów kwantowych, wzmacnianie sygnału przesyłanego tą drogą jest trudnym zadaniem. Żeby zniwelować straty w przesyłanym sygnale, niezbędne jest zastosowanie tak zwanych kwantowych powielaczy, realizujących protokół teleportacji kwantowej. Z uwagi na złożoność techniczną takiego rozwiązania, dużo łatwiejsze okazuje się przesyłanie pojedynczych fotonów w powietrzu lub w próżni. W konsekwencji, jedyny dostępny dzisiaj sposób przeprowadzania kwantowej dystrybucji klucza na odległościach międzykontynentalnych opiera się na wykorzystaniu przestrzeni kosmicznej.

Prace nad takim rozwiązaniem prowadzono już od dłuższego czasu. Ostatecznie, udało się tego dokonać w ubiegłym roku przez chińsko-austriacki zespół naukowców i inżynierów. Wyniki przeprowadzonej na dystansie 7600 km, pomiędzy stacjami w Chinach i Austrii, kwantowej dystrybucji klucza opublikowano w styczniu bieżącego roku na łamach Physical Review Letters [arXiv:1801.04418]. Do zrealizowania kwantowej transmisji wykorzystano satelitę Micius, stanowiącą jednostkę zaufaną dystrybuującą klucz prywatny w protokole BB84 (Bennett-Brassard 1984).  Szczegóły tego eksperymentu omawiam w artykule Kwantowa łączność satelitarna

Sukces chińskiego projektu dowodzi możliwości globalnego wykorzystania kwantowych protokołów kryptograficznych.  Otwiera on również drogę do dalszego rozwoju tej technologii, zarówno do celów militarnych jak i komercyjnych. Jedną z niewątpliwie najbardziej fascynujących możliwości jest stworzenie tak zwanego kwantowego internetu

Kwantowy internet zapewni bezpieczeństwo pracy systemów finansowych. W szczególności, umożliwi rozszerzenie technologii  Blockchain do przypadku kwantowego (zabezpieczanego przez KDK). Propozycja takiej modyfikacji technologii Blockchain została niedawno opisana w artykule Quantum-secured blockchain. Internet kwantowy umożliwi również wdrożenie pochodnych do dyskutowanych już na początku lat osiemdziesiątych koncepcji kwantowego pieniądza.  W szczególności, takich jak propozycja Weisnera, w której pieniądz jest pewnym stanem kwantowym (np. sekwencją qubitów). Niepodrabialność kwantowego banknotu wynika wprost z zakazu klonowania (nieznanego) stanu kwantowego. Warto zaznaczyć, że realizacja kwantowego pieniądza opartego o propozycję Weisnera została doświadczalnie zademonstrowana w 2016-tym roku przez polsko-czeski zespół fizyków kwantowych i opisana w artykule Experimental quantum forgery of quantum optical moneyopublikowanym w Nature.  Po więcej informacji na temat kwantowych pieniędzy zachęcam sięgnąć do artykułu Quantum Money.

Quantum-banknote
Kwantowy banknot Weisnera zawierający nieznany użytkownikowi stan kwantowy (np. sekwencja qubitów) oraz numer seryjny. Weryfikacja banknotu (zgodność stanu kwantowego z nadanym numerem seryjnym) następuje poprzez jego przesłanie do  instytucji emitującej (mennicy). Źródło

Kwantowo zabezpieczone kryptowaluty czy też kwantowe pieniądze będą mogły, dzięki satelitarnemu internetowi kwantowemu, tworzyć globalny system walutowy. Dzięki wykorzystaniu i tak już stosowanej do tego celu przestrzeni kosmicznej, nie będzie stanowiło żadnego problemu by rozszerzyć obszar obejmowany kwantową siecią poza powierzchnię Ziemi. Nie ma przecież lepszego medium do przesyłania stanów kwantowych niż próżnia.  

Ludzie przebywający w kosmosie, czy to na orbicie okołoziemskiej czy też w planowanych stacjach na Księżycu oraz na Marsie, będą mogli dokonywać płatności korzystając z kwantowo zabezpieczonych kryptowalut. Będą oni mogli korzystać również z pozafinansowych zastosowań kwantowej wersji technologii Blockchain, np. w telemedycynie. 

Od strony możliwości technicznych, takie wizje stają się dzisiaj jak najbardziej wykonalne. Idąc dalej, naturalnym wydaje się wykorzystanie w przyszłości przestrzeni kosmicznej jako miejsca do przechowywania i przetwarzania informacji kwantowej. Stany kwantowe, będące nośnikiem informacji kwantowej ulegają, poprzez oddziaływanie ze środowiskiem, dekoherencji która stanowi jedną z największych przeszkód w rozwoju technologii kwantowych. Warunki wysokiej próżni i niskich temperatur, redukujące proces dekoherencji, powszechnie występują w przestrzeni kosmicznej.  Z tego powodu, możliwe jest więc, że przyszłe centra przetwarzania i magazynowania informacji kwantowej, np. skarbce kwantowych pieniędzy, będą ulokowane nie na Ziemi lecz ukryte zostaną w takich miejscach jak jaskinie lawowe na Księżycu.   

© Jakub Mielczarek

Wszechświat na komputerze kwantowym

Jednym z kierunków jakie rozwijam w prowadzonych przeze mnie aktualnie badaniach jest wykorzystanie komputerów kwantowych do symulowania fizyki na skali Plancka. Dla przypomnienia, długość Plancka, czyli l_{Pl} \approx 1.62 \cdot 10^{-35} m to najmniejsza, znana nam, skala fizyczna w “tkance” Wszechświata, na której istnienie wskazują rozważania teoretyczne. Fizykę opisującą rzeczywistość na skali Plancka nazywamy natomiast Kwantową Grawitacją. Niestety, z uwagi na obecny brak (pomimo wielu starań) możliwości empirycznego badania fizyki na skali Plancka, nie istnieje ugruntowana Kwantowa Teoria Grawitacji. Dysponujemy natomiast szeregiem teorii i modeli starających się uchwycić wiele aspektów kwantowej natury oddziaływań grawitacyjnych (przegląd wielu z nich można znaleźć np. w pracy Towards the map of quantum gravity).

Do kwestii empirycznego badania fizyki na skali Plancka możemy jednak podejść w trochę mniej bezpośredni sposób. Mianowicie, zakładając konkretny teoretyczny opis grawitacyjnych stopni swobody, możemy wykonać symulację rozważanego układu na skali Plancka i przeprowadzić na nim dowolne pomiary. Nie istnieją w takim przypadku ograniczenia  empiryczne wynikające z rozdzielczości urządzeń pomiarowych. Cała fizyka którą symulujemy znajduje się w pamięci superkomputera, do której posiadamy nieograniczony dostęp.  Najbardziej zaawansowane symulacje tego typu wykonuje się  obecnie w ramach podejścia zwanego Kauzalne Dynamiczne Triangulacje (ang. Causal Dynamical Triangulations – CDT).  W ramach CDT, symulowane są takie konfiguracje jak kwantowy Wszechświat zbudowany z nawet setek tysięcy elementarnych czasoprzestrzennych sympleksów.

Fig1
Kolaż obrazyjący symulowanie fizyki na skali Plancka na procesorze kwantowym. Wykorzystano zdjęcie procesora kwantowego firmy D-Wave oraz wizję artystyczną czasoprzestrzeni na skali Plancka

Symulacje o których mowa przeprowadzane są na powszechnie dzisiaj dostępnych superkomputerach klasycznych. Kwantowa natura oddziaływań grawitacyjnych musi być w związku z tym odpowiednio tłumaczona na język algorytmów klasycznych. Wykorzystanie komputerów kwantowych do symulowania kwantowej grawitacji pozwoliłoby proces ten wyeliminować. Mianowicie, symulacje układów kwantowych (takich jak kwantowa przestrzeń/czasoprzestrzeń) z wykorzystaniem komputerów kwantowych zasadniczo różni się od symulacji klasycznych. Komputery kwantowe pozwalają na “mapowanie” danego układu kwantowego na kwantowe stopnie swobony procesora kwantowego. Mówimy tu o tak zwanych dokładnych symulacjach (ang. exact simulations), które pozwalają imitować wyjściowy układ kwantowy. Z punktu widzenia mechaniki kwantowej, imitacja wytworzona na procesorze kwantowym jest równoważna oryginalnemu układowi kwantowemu.

W moim niedawnym artykule Spin networks on adiabatic quantum computer oraz eseju Quantum Gravity on a Quantum Chip,  pokazuję, że wykorzystanie dostępnego komercyjnie  tzw. kwantowego annealer’a (wyżarzacza kwantowego)   firmy D-Wave daje możliwość symulowania fizyki na skali Plancka opisywanej przez sieci spinowe. Sieci spinowe rozpinają przestrzeń Hilberta podejścia do grawitacji kwantowej zwanego Pętlową Grawitacją Kwantową (ang. Loop Quantum Gravity – LQG).  Kwantowe stopnie swobody sieci spinowej są w przypadku procesora kwantowego D-Wave imitowane z wykorzystaniem stanów qubitowych realizowanych przez nadprzewodzące obwody kwantowe (bazujące o tzw. złącza Josephsona). Jak pokazano w ramach rozważanego modelu, adiabatyczne obliczenia kwantowe umożliwiają zidentyfikowanie fizycznych stanów teorii.

Infographic.png
Infografika obrazująca reprezentację sieci spinowych w ramach architektury procesora adiabatycznego komputera kwantowego D-Wave. Szczegóły w pracy Spin networks on adiabatic quantum computer.

Jednym z ważnych zagadnień, którego zbadanie mogą pozwolić symulacje kwantowe, jest tak zwana granica semi-klasyczna, czyli obszar w którym grawitacja kwantowa koresponduje z klasyczną teorią grawitacji, czyli Ogólną Teorią Względności. Wszystko wskazuje na to, że symulacje sieci spinowych na adiabatycznym komputerze kwantowym mogą niebawem umożliwić wykonanie pierwszego kroku w tym kierunku.

Potencjał i możliwe konsekwencje symulowania fizyki na skali Plancka są jednak dużo szersze. Kwantowe symulacje mogą nie tylko okazać się praktycznym narzędziem do badania fizyki na skali Plancka ale mogą również pomóc odsłonić głębszą naturę relacji pomiędzy grawitacją a teorią informacji kwantowej (jak np. kwantowa wersja hipotezy It from bit). Bardzo ciekawa możliwość w kontekście symulacji  kwantowych wiąże się z relacją pomiędzy grawitacją a splątaniem kwantowym. Mianowicie, akumulujące się wyniki rozważań teoretycznych, w szczególności  korespondencja AdS/CFT, zasada holograficzna, entropia splątania sieci tensorowych MERA czy też hipoteza EPR=ER, wskazują na możliwość interpretacji pola grawitacyjnego w zadanej objętości (ang. bulk) jako przejawu splątania kwantowego niżej-wymiarowego układu na brzegu (ang. boundary) tego obszaru. Nie koniecznie więc do symulowania kwantowej grawitacji musimy angażować grawitacyjne stopnie swobody. Możliwe, że wystarczą do tego kwantowe symulacje (konforemnych) teorii pola na brzegu układu. Wykonanie odpowiednich pomiarów splątania kwantowego teorii na brzegu umożliwi zrekonstruowanie konfiguracji pola grawitacyjnego wewnątrz tego obszaru.  

Korzyści płynące z symulacji fizyki na skali Plancka na komputerach kwantowych nie leżą wyłącznie po stronie nauk podstawowych. Nowe typy procesorów kwantowych mogą  okazać się niezbędne do symulowania złożonych systemów kwantowograwitacyjnych, co może okazać się inspiracją  do rozwoju technologicznego. Symbiotyczny rozwój kwantowej grawitacji oraz technologii kwantowych może również doprowadzić do wypracowania nowych rozwiązań w obszarze obliczeń kwantowych. Jako przykład przytoczyć można zastosowanie sieci spinowych jako bazy do przetwarzania informacji kwantowej. 

Pozwolę sobie na koniec wspomnieć, iż umiejętność symulowania kwantowych stopni swobody na skali Plancka może w przyszłości umożliwić badanie od podstaw procesu formowania struktur we Wszechświecie. Idąc dalej, uwzględnienie również innych typów pól pozwoli symulować realistyczne modele Wszechświata. Wraz z upływem czasu i rozwojem technologii obliczeń kwantowych, możliwe będzie uwzględnienie coraz to większej ilości detali. A być może, któregoś dnia będziemy również w stanie symulować zaprojektowane przez nas Superwszechświaty, wykraczające swoją złożonością poza Ten nam znany.

© Jakub Mielczarek