Życie prowadzi tylko w jednym kierunku – od poczęcia do śmierci. I choć dopuszczalny jest proces przeciwny, to jego prawdopodobieństwo jest tak małe, że nawet w czasie liczonym wiekiem Wszechświata, ewenement taki nie wystąpi. Fizyka określa taką sytuację mianem procesu nieodwracalnego. Procesy takie są, z definicji, niesymetryczne ze względu na odwrócenie czasu: t -> -t. Takim też się zdaje być cały otaczający nasz Świat. Jednakże, wbrew temu co mówi nam nasze codzienne doświadczenie, rzeczywistość na najgłębszym znanym nam poziomie nie rozróżnia przeszłości od przyszłości. A mówiąc precyzyjniej, spełnia tak zwaną symetrię CPT (złożenie sprzężenia ładunku (C), parzystości (P) i odwrócenia czasu (T)). O ile więc sam wymiar czasu istnieje również w fizyce mikroświata, to jego kierunkowość, czyli tak zwana strzałka czasu, wyłania się dopiero rozważając obiekty makroskopowe.
Nie trudno jest podać przykład procesu nie posiadającego strzałki czasu. Jest nim chociażby ruch wahadła matematycznego, które jest oczywiście przypadkiem wyidealizowanym, nie uwzględniającym tarcia. Przyglądając się nagraniu oscylacji takiego wahadła nie będziemy w stanie stwierdzić czy odtwarzane jest ono w przód czy też wstecz w czasie. Sytuacja ulegnie jednak zmianie kiedy przeprowadzimy eksperyment z wahadłem rzeczywistym, charakteryzującym się pewnym tarciem. Oscylacje takiego wahadła będą powoli wygasać, aż ostatecznie ustaną. Odtwarzając nagranie naszego eksperymentu będziemy w stanie z całą pewnością stwierdzić czy zostało one puszczone zgodnie z faktycznym biegiem czasu, czy też nie. Bo przecież nikt nigdy nie zaobserwował by wahadło samo się rozhuśtało, chociaż zdarzenie takie fizyka dopuszcza. Podobnie jednak jak w przypadku życia, jego prawdopodobieństwo jest tak znikome, że w praktyce niemożliwe do zaobserwowania. To co odróżnia wahadło matematyczne od przypadku wahadła rzeczywistego to tarcie, które jest przykładem tak zwanej dyssypacji energii.
Ilustracja wahadła rzeczywistego dyssypującego energię poprzez tarcie o ziemię. Obraz Pawła Kuczyńskiego. Źródło
Dyssypacja to nic innego jak rozpraszanie energii mechanicznej do otoczenia. W procesie tym, użyteczna energia (a precyzyjniej, tak zwana energia swobodna), np. związana z ruchem wahadła którą moglibyśmy wykorzystać do wykonania pracy, zamienia się w chaotyczny ruch cząsteczek, który nazywamy ciepłem. Z ciepła nie jesteśmy w stanie odzyskać włożonej pracy, a przynajmniej nie całej. Sposobem na jej częściowe odzyskanie jest wykorzystanie chłodnicy i zbudowanie silnika cieplnego, który zawsze charakteryzuje się jednak pewną sprawnością.
Znaczenie dyssypacji energii jest dużo głębsze niż to może się na pierwszy rzut oka wydawać. Istnieje mianowicie związek pomiędzy dyssypacją, a informacją. Mówiąc obrazowo, dyssypując energię, rozpraszamy informację z układu do jego otoczenia. Natomiast, co może brzmieć początkowo dosyć nieintuicyjnie, im obficiej dyssypujemy energię tym więcej informacji możemy przetworzyć u układzie. Wyższa dyssypacja to więc większy potencjał do wykonywania obliczeń.
To, że przetwarzanie informacji wiąże się z dyssypacją energii nie powinno nas dziwić. Wszak każdy z nas tego doświadcza trzymając przez dłuższy czas smartfon w dłoni. Jednakże, ciepło smartfona, tabletu czy laptopa, które odczuwamy wynika głównie z oporów przepływu prądu elektrycznego w procesorze. Jak jednak teoretycznie pokazał w 1961 roku Rolf Landauer, istnieje pewna minimalna ilość ciepła, która zawsze zostanie oddana do otoczenia w nieodwracalnym układzie obliczeniowym, nawet jeśli zupełnie zaniedbamy opory elektryczne i innego typu tarcie w układzie. Zjawisko to wiąże się z utratą informacji o elementarnej porcji informacji, którą jest bit. Przewidywanie Landauer’a zostało potwierdzone eksperymentalnie w2014 roku.
Aby zilustrować powyższą tzw. zasadę Landauer’a, rozważmy operację logiczną na dwóch bitach. Powiedzmy, niech to będzie operacja alternatywy rozłącznej XOR, zdefiniowanej tak, że 0 XOR 0=0, 0 XOR 1=1, 1 XOR 0=1,1 XOR 1=0. Jak widać, jest to operacja nieodwracalna, ponieważ znając wynik operacji, nie jesteśmy w stanie jednoznacznie stwierdzić, jakie były wartości bitów wejściowych. Np. Jeśli jako wynik otrzymamy „1”, to może to odpowiadać dwóm konfiguracjom bitów początkowych (0,1) i (1,0). Bramka realizująca operację XOR traci więc informację o stanie początkowym. Informacja ta „ukrywana jest” w otoczeniu, co przejawia się jako dyssypacja porcji ciepła. Jeśli natomiast, oprócz stanu końcowego, nasz układ zachowywałby również jeden z bitów wejściowych, z informacji końcowej moglibyśmy odzyskać stan początkowy. Byłby to przykład tzw. obliczeń odwracalnych (bez utraty informacji), które teoretycznie mogą być realizowane przez tzw. komputery kwantowe.
Powyższa dyskusja dotycząca obliczeń i informacji miała na celu podkreślenie silnego związku pomiędzy dyssypacją energii, a tempem przetwarzania informacji. Z drugiej strony, dyssypacja to nieodwracalność a nieodwracalność to, jak sądzimy, strzałka czasu. Pozwala to wywnioskować, że istnieje relacja pomiędzy strzałką czasu a tempem przetwarzania informacji. Czy więc może przepływ informacji jest miarą upływu czasu? Czyż nie stoi to w zgodzie z naszym poczuciem upływu czasu, które zależy od tego jak dużo informacji przetwarzamy? Nie ma przecież lepszej metody na oczekiwanie na spóźniony samolot niż lektura książki. Oraz przeciwnie, wpatrując się w błękitne letnie niebo, możemy wręcz osiągnąć stan „pozaczasowości”.Nie chciałbym tu wchodzić w kwestię percepcji czasu. To odrębne i złożone zagadnienie. Przywołuję jedynie naturalnie nasuwające się skojarzenia.
Prowadzą nas one również z powrotem w stronę życia, w szczególności do Człowieka.Czy więc życie, jako proces nierównowagowy, a więc i dyssypatywny jest pewnym systemem przetwarzającym informacje? Bez wątpienia takim jest, o czym świadczą zarówno zachodzące w nim przetwarzanie informacji na poziomie molekularnym jak i na poziomie komórkowym. Nasze myśli to nic innego jak procesowanie informacji, z którą wiąże się dyssypacja energii.
Skąd jednak w życiu pozorna „chęć” dyssypowania energii? Choć to zupełnie fundamentalne pytanie, które wciąż traktowane jest jako otwarte, postaram się tu jednak nakreślić na nie odpowiedź, bazując na najlepszej dostępnej nam wiedzy.
Po pierwsze, życie jest przykładem układu otwartego, mogącego wymieniać energięi informację z otoczeniem. Jest to, w zasadzie, podstawowy warunek jego istnienia. Dla układów zamkniętych obowiązuje mianowicie druga zasada termodynamiki, która mówi nam, że układy izolowane dążą do stanu tak zwanej równowagi termodynamicznej.W stanie tym maksymalizowana jest tak zwana entropia, którą często utożsamia się z miarą nieuporządkowania systemu. Zamiast mówić o uporządkowaniu, które to może posiadać wiele miar, warto tu jednak podkreślić, że stan równowagi termodynamicznej, jak sama nazwa wskazuje, to stan równowagowy. Jest on więc symetryczny ze względu na odwrócenie czasu. Obserwując stan równowagi termodynamicznej, będziemy mogli zauważyć pewne fluktuacje takich wielkości jak energia czy też entropia układu. Zarówno jednak wielkości średnie jak i fluktuacje nie wyróżnią strzałki czasu. Ponadto, w stanie równowagi termodynamicznej nie dysponujemy energią swobodną (jest ona minimalna), którą można byłoby dyssypować, a tym samym przetwarzać informacje. Życie więc zdecydowanie takim stanem nie jest.
Żeby istnieć, organizmy żywe muszą trzymać się z dala od stanu równowagi termodynamicznej. A to jest możliwe dzięki ciągłemu wymuszonemu odpływowi entropii z układu. Erwin Schrödinger, jeden z ojców mechaniki kwantowej, w swojej książce „What is Life?” z 1944 roku, w której utworzył fizyczne fundamenty fizyki życia, określił ten konieczny do zaistnienia życia ujemy strumień entropii negentropią.Negentropia pojawia się, w szczególności, kiedy układ znajduje się „pomiędzy” grzejnicą (źródłem ciepła) a chłodnicą (odbiornikiem ciepła), podobnie jak w silniku cieplnym.
Spotkało nas to szczęście, że Ziemia jest właśnie takim układem otwartym, przez który nieustannie przepływa strumień negentropii. Dzieję się to dzięki temu, że Ziemia odbiera ze Słońca promieniowanie w zakresie głównie widzialnym a wypromieniowuje je w postaci (podczerwonego) promieniowania termicznego. W sytuacji stacjonarnej, ilość energii absorbowanej i emitowanej przez Ziemię są równe. Różnica polega jednak na formach tych energii. Mówimy mianowicie, że promieniowanie absorbowane jest niskoentropowe, natomiast promieniowanie emitowane jest wysokoentropowe. Bilans entropowy pozostaje więc ujemny.
Ten ujemny rozrachunek entropowy umożliwia intensywne przetwarzanie informacji na powierzchni Ziemi, co skutkuje dyssypacją energii. Co więcej, tworzy się hierarchia podsystemów będących układami otwartymi. W szczególności, takim podsystemem Ziemi jest biosfera, której to podsystemem są zarówno sami ludzie jak i tworzona przez nich cywilizacja technologiczna (choć ta zaczyna już wykraczać poza biosferę). Dostępność niskoentropowego pożywienia, takiego jak powstałych w procesie fotosyntezy cukrów,dzięki któremu życie może funkcjonować jest więc konsekwencją tego, iż Ziemia jako całość jest otwartym, nierównowagowym układem wystawionym na strumień negentropii.
Zagłębienie się w szczegóły działajacych tu mechanizmów jest jednak nie lada wyzwaniem. A to dlatego, że o ile opis stanów równowagowych znany jest doskonale od dziewiętnastego wieku, tak obszar fizyki nierównowagowej to wciąż otwarta karta fizyki. Jednym z prekursorów tej dyscypliny był noblista Ilia Prigogine, który wniósł ogromny wkład zarówno w rozwój, jak i spopularyzowanie fizyki procesów nierównowagowych. To On jako pierwszy zwrócić uwagę na możliwość formowania się złożonych struktur dyssypatywnych. Postęp w tej dziedzinie jest jednak powolny i w dużym stopniu następuje skokowo (dzięki przełomom). Za ostatni z takich milowych kroków można uznaćpokazanie przez amerykańskiego fizykaJeremy’ego Englanda nowego związku pomiędzy nieodwracalnością procesów makroskopowych, a ilością dyssypowanej energii. Ponadto,England wskazał, że przy działaniu periodycznej siły wymuszającej, układ nierównowagowy może dokonywać reorganizacji do postaci zwiększającej dyssypację energii. Co jest zupełnie niesłychane, reorganizacja ta przypomina proces ewolucji darwinowskiej. Wyniki Englanda stanową również wsparcie do tak zwanej zasady maksymalnej produkcji entropii MEP (Maximum Entropy Production), która wyłoniła się w latach osiemdziesiątych ubiegłego wieku zniezależnych rozważań w takich obszarach jak klimatologia, chemia, i biologia. Zasada ta mówi, że układy znajdujące się z dala od stanu równowagi termodynamicznej dążą do maksymalizacji dyssypacji energii.
Powyższe obserwacje skłaniają do przypuszczenia, że proces ewolucji biologicznej jest przejawem „poszukiwania” przez układ, którym jest powierzchnia Ziemi, a dokładniej biosfera, najbardziej optymalnego sposobu dyssypacji energii. Maksymalizacja dyssypacji energii umożliwia zaś przetwarzanie największej ilości informacji. A patrząc na to samo z drugiej strony, do optymalnej dyssypacji potrzebujemy dużej ilości nieodwracalnych obliczeń. Obliczenia te są tym wydajniej przeprowadzane im bardziej wyspecjalizowane są systemy przetwarzające informację. Wszak mózg może dużo lepiej dyssypować energię niż np. 1,5 kilograma wody. Jednak, osiągnięcie takiej perfekcji w obliczeniach a zarazem dyssypowaniu energii zajęło Naturze około 4 miliardy lat.
Opierając się na powyższym rozumowaniu, możemy dojść do konkluzji, że życie jest przejawem nierównowagowego procesu dążącego do maksymalizacji dyssypacji energii. Człowiek jest natomiast jedną z najbardziej złożonych jednostkowych struktur dyssypatywnych jakie są nam znane. Mechanizm ewolucji, który nas ukształtował, możemy zaś postrzegać jako przejaw optymalizacji procesu dyssypacji. Pewnie częściowo z konieczności, w wyniku skończonych zasobów materii w systemie jaki i poprzez akumulację błędów, proces ten „wypracował” rozwiązanie w postaci śmierci wcześniejszych ewolucyjnie wersji „maszyn dyssypatywnych”. Po co wszak utrzymywać przy życiu stare modele, kiedy zużywają one zasoby negentropii którymi można zasilić nowe, bardziej wydajne, dyssypatory?
Kolejną, poza poziomem jednostek, warstwą osiągania maksimum wydajności procesu dyssypacji jest warstwa cywilizacyjna. Tworząc cywilizację techniczną, Natura jeszcze skuteczniej jest w stanie dyssypować energię. Obserwacja ta dostarcza możliwego, wysokopoziomowego, wyjaśnienia naszej ciągłej woli rozwoju i tworzenia. To, że podjąłem wysiłek napisania tego tekstu jest prawdopodobnie również przejawem dążenia do maksymalizacji procesów przetwarzania informacji, chociaż niewątpliwie nie jest się łatwo z taką perspektywą pogodzić.
Warto ostatecznie podkreślić, że dążenia systemów nierównowagowych do konfiguracji o maksymalnej możliwej dyssypacji energii nie należy postrzegać w kategoriach teleologicznych (dążenia do pewnego ustalonego celu). Jest to raczej proces podobny do osiągania przez układy fizyczne stanu podstawowego, np. poprzez wypromieniowywanie energii. Dążenie do stanu o najniższej energii jest konsekwencją niestabilności stanów wzbudzonych. Analogicznie, stan układu nierównowagowego nie dyssypujący maksymalnie energii można postrzegać jako pewien stan niestabilny. Niestabilność ta powoduje przejście do kolejnej, bardziej optymalnej konfiguracji, która to znowu okazuje się niestabilna, itd. Z uwagi na to, że przestrzeń konfiguracji jest niewyobrażalnie ogromna, cały proces będzie bardzo wolny i złożony. Jest to ciągłe poszukiwanie, w którym trudno jest nawet wskazać konfigurację optymalną (prawdopodobnie jedną z wielu). Jednym z możliwych finałów tego procesu jest osiągniecie granicznej wartości dyssypacji lub też wyczerpanie się strumienia negentropii. Wtedy to, naszym odległym potomkom, pozostanie znalezienie nowego źródła nieodwracalności albo skazanie na „bezczasowość” stanu równowagi termodynamicznej.
Większość z nas każdego dnia korzysta z jednej z kwantowych technologii kosmicznych – zegarów atomowych, zainstalowanych na satelitach systemów nawigacyjnych, takich jak GPS i Galileo. Zastosowanie zjawisk kwantowych w branży kosmicznej nie jest więc czymś nowym. Jednakże, ostatnie lata przyniosły szereg obiecujących wyników, które pozwalają spojrzeć na wykorzystanie kwantowej natury światła i materii w warunkach kosmicznych w dużo szerszym kontekście. Niniejsze opracowanie ma na celu dostarczenie zwięzłego przeglądu głównych możliwości jakie rodzą się na styku mechaniki kwantowej i inżynierii kosmicznej.
Zegary, sensory i metrologia kwantowa
Jak już wspomniałem powyżej, zegary atomowe są najpowszechniejszym przykładem technologii kwantowych wykorzystywanych w warunkach kosmicznych. W szczególności, satelity europejskiego systemu Galileo pracują w oparciu o zarówno tradycyjne zegary Rubidowe jak i precyzyjniejsze pasywne masery wodorowe (odpowiedniki laserów działające w zakresie mikrofal). W przypadku zegara wodorowego, wykorzystywane jest doskonale znane wszystkim astronomom przejście kwantowe pomiędzy poziomami w strukturze nadsubtelnej wodoru, czyli osławiona linia neutralnego wodoru 21 cm, której odpowiada częstotliwość około 1,420 GHz (co można wyprowadzić na gruncie mechaniki kwantowej). Okres oscylacji równy jest więc około 0.704 ns a osiągana dokładność pracy takiego zegara to około 0.45 ns na 12h pracy zegara [1]. Niezwykle dokładny pomiar czasu z wykorzystaniem maserów wodorowych przekłada się na większą precyzję pozycjonowania (sięgający 10 cm promień błędu) systemu Galileo, względem konkurencyjnych systemów GPS, Beidou i GLONASS. Warto dodać, że precyzyjne pomiary czasu mają ogromne znaczenie nie tylko dla nawigacji naziemnej, ale również dla nawigacji statków kosmicznych.
Kolejnego, jednak już nieco mniej oczywistego przykładu zastosowania układu kwantowego w warunkach kosmicznych dostarczają kondensaty Bosego-Einsteina. Kondensaty Bosego-Einsteina są konfiguracjami w których bozonowe stopnie swobody (cząstki o spinie całkowitym) makroskopowo obsadzają ten sam stan podstawowy (stan o najniższej energii). W konsekwencji, gęstość prawdopodobieństwa poszczególnych cząstek (związana z ich funkcją falową) nabiera interpretacji koncentracji materii w kondensacie i może być poddawana analizie optycznej. Własność ta znajduje zastosowanie m.in. przy budowie interferometrów atomowych, które okazują się być niezwykle wrażliwe na zmiany natężenia pola grawitacyjnego. Opierające swoje działanie na kondensatach Bosego-Einsteina grawimetry doczekały się już wdrożeń komercyjnych, a ich czułość sięga poniżej [2] ( jest przyśpieszeniem grawitacyjnym na powierzchni Ziemi).
Wysoka wrażliwość interferometrów atomowych na zmiany pola grawitacyjnego wygenerowała zainteresowanie przeprowadzaniem eksperymentów w warunkach swobodnego spadku. Badania takie, motywowane zarówno możliwymi zastosowaniami praktycznymi jaki i chęcią lepszego zrozumienia wpływu pola grawitacyjnego na układy kwantowe, zostały przeprowadzone m.in. we wieży swobodnego spadku w Bremie [3]. W 2017 roku udało się natomiast zrealizować pierwszą kosmiczną misję z wykorzystaniem kondensatu Bosego-Einsteina. Eksperyment ten przeprowadzono z pomocą rakiety MAIUS-1, wykonującej lot paraboliczny i osiągającej pułap około 243 km nad poziomem morza [4].
Schemat rakietowego eksperyment z kondensatem Bosego-Einsteina, przeprowadzonego w 2017 roku . Źródło
Powodzenie misji stanowi ważny krok w stronę grawimetrii satelitarnej opartej na wykorzystaniu kondensatów Bosego-Einsteina. Ma to również znaczenie w kontekście zrozumienia pewnych aspektów oddziaływania (klasycznego) pola grawitacyjnego na układy kwantowe. Watro również podkreślić, że opracowane pod kątem eksperymentu rozwiązania inżynieryjne będą mogły znaleźć szersze zastosowanie w ramach kwantowych technologii kosmicznych. Przeprowadzenie eksperymentu wiązało się bowiem z koniecznością dostosowania skomplikowanego układu doświadczalnego do wymogów stawianych przed technologiami kosmicznymi (m.in. odporność na wibracje i przeciążenia, ograniczenia na rozmiary układu). Warto w tym miejscu zaznaczyć, że wytworzenie kondensatu Bosego-Einsteina wymaga ochłodzenia materii do skrajnie niskich temperaturach, przyjmujących typowo wartości rzędu ułamków mikrokelwinów.
Z punktu widzenia badań podstawowych, interferometry atomowe oparte na kondensatach Bosego-Einsteina rozważane są również w kontekście budowy nowego typu naziemnych i kosmicznych detektorów fal grawitacyjnych [5]. Zanim jednak takie rozwiązania powstaną, własności mechaniki kwantowej zostaną wykorzystane w celu redukcji szumu w obecnie przygotowywanym kosmicznym obserwatorium fal grawitacyjnych LISA. Już teraz, w celu obejścia problemu szumu śrutowego w naziemnych interferometrycznych obserwatoriach fal grawitacyjnych stosuje się tak zwane ściśnięte stany kwantowe światła [6]. Podejście to jest przykładem metrologii kwantowej, wdrożonej już w warunkach ziemskich, a której implementacja w misjach satelitarnych pozostaje jedynie kwestią czasu.
Komunikacja kwantowa
Niewątpliwie, wzbudzającym największe emocje i oczekiwania kierunkiem rodzącym się na styku inżynierii kosmicznej i mechaniki kwantowej jest tak zwana łączność kwantowa (o której pisałem m.in. we wpisie kwantowa łączność satelitarna). W istocie, jest to wykorzystanie stanów kwantowych pojedynczych fotonów do przesyłania informacji. Ponieważ jednak przepustowość, powstałych w ten sposób, kanałów kwantowych nie może konkurować z przepustowością dostępnych łączy klasycznych, kanał kwantowy wykorzystywany jest jedynie do wymiany tak zwanego sekretnego klucza (będącego ciągiem bitów). Klucz ten umożliwia zastosowanie silnych algorytmów klasycznej kryptografii symetrycznej (takich jak AES-256) dla danych przesyłanych drogą konwencjonalną. Podejście takie nosi nazwę kwantowej dystrybucji klucza (ang. quantum key distribution – QKD) i stanowi jeden z filarów kryptografii kwantowej. Zaletą takiego rozwiązania jest, wynikająca z zasad mechaniki kwantowej, teoretyczna niepodatność protokołów na ataki (w praktyce, istnieją jednak możliwości ataków fizycznych na systemy kryptografii kwantowej).
Z uwagi na wykładniczne tłumienie sygnału kwantowego w światłowodach, wykorzystanie przestrzeni kosmicznej daje obecnie jedyną możliwość przeprowadzenia kwantowej dystrybucji klucza na odległościach kilkuset i kliku tysięcy kilometrów. Pierwszej tego typu satelitarnej komunikacji kwantowej dokonano w 2017 roku z wykorzystaniem chińskiego satelity Micius [7].
Zrealizowane, obecne i planowane misje satelitarne przeprowadzające kwantową dystrybucję klucza. Źródło
Rozwiązania satelitarne w skali satelity Micius są niezwykle skomplikowane i kosztowne. Aby więc, przy ograniczonych zasobach, przyśpieszyć prace nad satelitarną komunikacja kwantową, grupy badawcze skłaniają się obecnie do dużo tańszych rozwiązań nanosatelitarnych, w szczególności w standardzie CubeSat. Eksperymenty te mają zarówno na celu przetestowanie pracy systemów optyki kwantowej w warunkach kosmicznych jak również samą łączność kwantową pomiędzy satelitą z stacją naziemną.
Do kategorii misji testujących same układy optyczne (bez łączności) można zaliczyć nanosatelitę Galassia (2U) [8], za pomocą której w 2015 roku przeprowadzono testy systemu Spontaneous Parametric DownConversion (SPDC), wytwarzającego splątane stany kwantowe mające zastosowanie w protokole Ekerta E91. Kierunek ten jest rozwijany obecnie ramach cubesata SpooQySat (3U) [9]. Do misji nanosatelitarnych mających na celu przetestowanie łączności kwantowej możemy natomiast zaliczyć proponowane projekty takie jak Nanobob (12U) [10] i Q3Sat (3U) [11]. Są one zaprojektowane w konfiguracji uplink. Ich konstrukcja nie wymaga więc instalowania systemu do przygotowywania stanów kwantowych a jedynie prostszy układ detekcyjny. Z drugiej strony jednak, rozwiązanie takie jest mniej korzystne z punktu widzenia czynnika atmosferycznego. Mianowicie, w przypadku konfiguracji downlink, turbulencje atmosferyczne wpływają na kierunek propagacji fotonów dopiero na końcowym etapie drogi, powodując jedynie nieznaczne poszerzenie wiązki. Natomiast, w przypadku konfiguracji uplink, kierunek propagacji fotonów jest najpierw zaburzony przez czynnik atmosferyczny, po czym dewiacja od wyjściowej osi optycznej narasta w trakcie jego dalszej propagacji. Dlatego też, zarejestrowanie fotonu wymagać będzie większej średnicy zwierciadła.
Ciekawym wynikiem w kontekście komunikacji kwantowej było niedawne wykorzystanie retroreflektoru zainstalowanego na jednym z satelitów należących do systemu GLONASS do odbicia pojedynczych fotonów [12]. Wyniki tego eksperymentu rodzą nadzieję na przyszłe wykorzystanie pasywnych układów optycznych umieszczonych na satelitach do prowadzenia komunikacji kwantowej. Pozwoliłoby to znacznie uprościć konstrukcję i obniżyć koszty satelitów do kwantowej dystrybucji klucza, przenosząc środek ciężkości złożoności technologicznej takich systemów na powierzchnię Ziemi.
Warto zaznaczyć, że komunikacja kwantowa z uwagi na wykorzystanie światła laserowego wpisuje się również w kierunek komunikacji laserowej, dostarczającej w przypadku łączności klasycznej dużo większych przepustowości niż łączność radiowa (co jest prostą konsekwencją mniejszej długości fali). Obszar ten jest obecnie rozwijany w Europie w ramach projektu ESA ARTES ScyLight. Postęp w technologii kwantowej łączności satelitarnej (szerzej – kwantowego internetu) oraz metrologii kwantowej jest również obecnie wspierany m.in. w ramach programu flagowego Komisji Europejskiej Quantum Flagship.
Teleportacja kwantowa i efekty relatywistyczne
Nie można utworzyć idealnej kopii (klonu) nieznanego stanu kwantowego, co stanowi fundament bezpieczeństwa komunikacji kwantowej. Możliwe jest natomiast dokonanie jego kwantowej teleportacji (przesłania stanu kwantowego z prędkością światła), wykorzystując połączenie kanału kwantowego oraz klasycznego. Teleportacja kwantowa stanowi bardzo ważny element systemów przesyłania i przetwarzania informacji kwantowej. Jej eksperymentalnego potwierdzenia dokonano po raz pierwszy w 1997 roku [13]. Po 20 latach od tego przełomowego momentu, w 2017 roku, przeprowadzono pierwszą teleportację stanu kwantowych fotonu z powierzchni Ziemi na niską orbitę okołoziemską [14]. W ramach tego eksperymentu dokonano teleportacji sześciu różnych typów stanów kwantowych fotonu. W każdym z przypadków zaobserwowano poziom wierności (ang. fidelity) przesłanych stanów przekraczający wartość dla najlepszej strategii klasycznej, co potwierdza realność przeprowadzonego protokołu teleportacji.
Układ eksperymentalny za pomocą którego w 2017 roku przeprowadzono teleportację stanu kwantowego z powierzchni Ziemi na niską orbitę okołoziemską. Źródło
Jak już wcześniej zaznaczono, wykorzystanie zjawisk kwantowych w warunkach kosmicznych dostarcza zarówno narzędzi do badania zjawisk grawitacyjnych (np. detekcja fal grawitacyjnych) jak również pozwala empirycznie eksplorować pewien obszar oddziaływania (klasycznego) pola grawitacyjnego na układy kwantowe. Dotyczy to przede wszystkim wpływu pola grawitacyjnego na ewolucję układu kwantowego. Okazuje się, że efekty związane z geometrią czasoprzestrzeni mogą mieć niezaniedbywalny wpływ na zachowanie układów kwantowych w pobliżu Ziemi. Rozważania te, w szczególności, dotyczą kwantowej teorii pola na przestrzeniach zakrzywionych. Teorię tę stosujemy głównie do opisu promieniowania czarnych dziur oraz pierwotnych zaburzeń kosmologicznych, jednakże kwantową teorię pola na przestrzeniach zakrzywionych możemy wykorzystać również do opisu paczek falowych fotonów wykorzystywanych w komunikacji kwantowej. Co więcej, bardzo dobre przybliżenie geometrii czasoprzestrzennej w pobliżu Ziemi dostarcza metryka Schwarzschilda, opisująca nierotujące czarne dziury (w przypadku Ziemi, promień Schwarzchilad wynosi ok. 9 mm). Wykorzystując tę metrykę można np. przewidzieć poziom szumu w kanale kwantowym wynikający z grawitacyjnego przesunięcia ku czerwieni. Co ciekawe, wartość skumulowanego efektu relatywistycznego (grawitacyjne przesunięcie ku czerwieni + relatywistyczny efekt Dopplera) może prowadzić do błędów w komunikacji kwantowej sięgających ~1% [15]. Taki wkład nie będzie mógł zostać pominięty przy planowaniu przyszłych satelitarnych systemów do kwantowej dystrybucji klucza, podobnie jak uwzględnienie efektów relatywistycznych jest dzisiaj niezbędne do osiągnięcia odpowiednio wysokiej precyzji systemów nawigacji satelitarnej.
Podsumowanie
Kwantowe technologie coraz odważniej wkraczają w świat branży kosmicznej, skutkując kształtowaniem się nowej fascynującej dziedziny – kwantowych technologii kosmicznych. Jako główne praktyczne zastosowania tego kierunku rozwojowego rysują się obecnie: precyzyjne pomiary czasu (nawigacja), pomiary grawimetryczne oraz komunikacja kwantowa. Ponadto, kosmiczne technologie kwantowe dostarczają narzędzi do prowadzenia nowych eksperymentów w zakresie badań podstawowych takich jak: detekcja fal grawitacyjnych i wpływ pola grawitacyjnego na zjawiska kwantowe. Szczególnie interesująca jest możliwość urzeczywistnienia wizji satelitarnego internetu kwantowego, który dostarczyłby niepodatnego na kryptoanalizę sposobu wymiany szczególnie wrażliwych informacji. Wprowadzenie takiego rozwiązania stanowiłoby odpowiedź na obecne i przyszłe zapotrzebowanie zarówno cywilne jak i wojskowe. Na drodze do osiągnięcia tego celu stoi wiele wyzwań, zarówno natury technicznej jak i organizacyjnej (m.in. związanej z finansowaniem tak ambitnych przedsięwzięć). Należy być również świadomym ograniczeń takiego systemu, m.in. wynikających z możliwości zakłócenia jego pracy zarówno poprzez naturalne czynniki atmosferyczne jak i wywołane celowo, sztuczne, zakłócenia.
Pozwolę sobie na koniec dodać, że warunki kosmiczne stanowią całkiem dogodne środowisko dla systemów kwantowych. Próżnia kosmiczna dostarcza mianowicie odpowiednią izolację układów kwantowych przed niepożądanym wpływem środowiska (które prowadzi do dekoherencji układów kwantowych). Wiązki fotonów mogą zaś bez przeszkód propagować informację kwantową poprzez przestrzeń kosmiczną. Stwarza to nadzieję na rozwój kwantowych technologii kosmicznym, nie tylko w najbliższym otoczeniu Ziemi ale również w bardziej odległych obszarach. Z teoretycznego punktu widzenia, dopuszczalne jest “rozpięcie” kanału kwantowego chociażby pomiędzy Ziemią (lub orbitą okołoziemską) a Księżycem. Pozwoliłoby to m.in. na pobieranie informacji kwantowej bezpośrednio ze zlokalizowanych na Księżycu sensorów kwantowych i przetwarzanie informacji kwantowej bez konieczności jej “tłumaczenia” na informację klasyczną. Jednym z zastosowań takiego rozwiązania mogłaby być budowa kosmicznych interferometrycznych teleskopów optycznych, wykorzystujących teleportację stanów kwantowych światła [16]. Otrzymana syntetyczna apertura takich teleskopów byłaby nieporównywalna z jakąkolwiek istniejącą obecnie, dając możliwość prowadzenia obserwacji optycznych z niespotykaną rozdzielczością kątową. To oczywiście wciąż jedynie śmiałe pomysły, dopuszczalne jednak przez fizykę i nie aż tak odległe z technicznego punku widzenia. Od nas zależy to czy kiedykolwiek się urzeczywistnią.
[3] H. Müntinga et al., Interferometry with Bose-Einstein Condensates in Microgravity, Phys. Rev. Lett. 110 (2013) no.9, 093602 [arXiv:1301.5883]
[4] D. Becker et al., Space-borne Bose-Einstein condensation for precision interferometr, Nature 562, 391–395 (2018) [arXiv:1806.06679]
[5] S. Dimopoulos, P. W. Graham, J. M. Hogan, M. A. Kasevich and S. Rajendran, Gravitational Wave Detection with Atom Interferometry, Phys. Lett. B 678 (2009) 37 [arXiv:0712.1250]
[6] LIGO Scientific Collaboration, Enhanced sensitivity of the LIGO gravitational wave detector by using squeezed states of light, Nature Photonics 7, 613–619 (2013) [arXiv:1310.0383]
[7] Sheng-Kai Liao, et al., Satellite-relayed intercontinental quantum network, Phys. Rev. Lett. 120, 030501 (2018) [arXiv:1801.04418]
[8] Z. Tang, et al., Generation and Analysis of Correlated Pairs of Photons aboard a Nanosatellite, Phys. Rev. Applied 5 (2016) no.5, 054022 [arXiv:1603.06659]
[10] E. Kerstel et al., Nanobob: a CubeSat mission concept for quantum communication experiments in an uplink configuration, EPJ Quantum Technology 5, Article number: 6 (2018) [arXiv:1711.01886]
[11] S. P. Neumann et al., Q3Sat: quantum communications uplink to a 3U CubeSat—feasibility & design,EPJ Quantum Technol. (2018) 5: 4 [arXiv:1711.03409]
[12] L. Carderaro et al., Towards Quantum Communication from Global Navigation Satellite System, Quantum Sci. Technol. 4, 015012 (2019) [arXiv:1804.05022].
[13] D. Bouwmeester et al., Exerimental quantum teleportation, Nature 390, 575–579 (1997) [arXiv:1901.11004]
[14] J-G Ren et al., Ground-to-satellite quantum teleportation, Nature 549, 70–73 (07 September 2017) [arXiv:1707.00934]
[15] D. E. Bruschi, T. Ralph, I. Fuentes, T. Jennewein and M. Razavi, Spacetime effects on satellite-based quantum communications, Phys. Rev. D 90 (2014) no.4, 045041. [arXiv:1309.3088]
[16] E. Khabiboulline et al.,Quantum-Assisted Telescope Arrays [arXiv:1809.03396]
W moich wcześniejszych wpisach kilkukrotnie odwoływałem się do kwantowej dystrybucji klucza (KDK), będącej jednym z głównych filarów kryptografii kwantowej. Miało to miejsce w kontekście omawiania takich zagadnień jak: kwantowa łączność satelitarna, internet kwantowy oraz bezpieczeństwo kryptowalut (wpisy: Kwantowa łączność satelitarna, Dwanaście technologii jutra i Kryptowaluty-Kwanty-Kosmos). Niniejszy wpis można potraktować jako uzupełnienie techniczne tych rozważań. Poniżej, przedstawię fizyczne podstawy na których opiera się kwantowa dystrybucja klucza oraz omówię, wprowadzony w 1984 roku, protokół Bennetta-Brassard BB84. Jest to najbardziej znany i historycznie pierwszy przykład protokołu KDK opartego na superpozycji kwantowej. W późniejszych latach, wprowadzono także protokoły oparte na innych własnościach mechaniki kwantowej, m.in. na splątaniu kwantowym (np. protokół E91). Dyskusja szerokiego spektrum rozważanych obecnie protokołów kryptografii kwantowej wykracza poza ramy tego wpisu. Czytelnika zainteresowanego zapoznaniem się z pełniejszym obrazem tematu zachęcam do przestudiowania np. przeglądowego artykułu arXiv:1802.05517. Tytułem wstępu dodam jeszcze, że do zrozumienia niniejszego tekstu przydatna jest znajomość zasad mechaniki kwantowej. Niezapoznanego z nimi Czytelnika zachęcam do przestudiowania mojego wpisu Elementary quantum computing oraz znajdujących się w nim odnośników.
Zacznijmy więc. W największym skrócie, kwantowa dystrybucja klucza pozwala na, jak mówimy, bezwarunkowo bezpieczną wymianę klucza w oparciu o własności mechaniki kwantowej. To w jaki sposób fizyka mikroświata pozwala zapewnić “bezwarunkowe bezpieczeństwo”, postaram się wyjaśnić poniżej. Jak to również zostanie dokładniej omówione w dalszej części tekstu, przepustowość wykorzystywanych do KDK tzw. kanałów kwantowych nie dorównuje tym osiąganym w klasycznych łączach światłowodowych oraz radiowych. Z tego też powodu, łącza kwantowe wykorzystywane są obecnie do przesyłania sekretnych kluczy, pozwalających zaszyfrować (klasyczną) wiadomość, nie zaś do transmisji samej wrażliwej informacji. Udostępniony, za pośrednictwem KDK, klucz może być wykorzystany do zaszyfrowania danych np. z użyciem bardzo silnego symetrycznego szyfru AES 256. Przykładową architekturę systemu do kwantowej dystrybucji klucza, zawierającą zarówno kanał kwantowy (do przesyłania klucza) oraz kanał klasyczny (do przesyłania zaszyfrowanych danych oraz informacji pomocniczych), przedstawia rysunek poniżej:
Przykładowa architektura systemu do kwantowej dystrybucji klucza z kanałem kwantowym oraz kanałem klasycznym. Źródło
W przypadku kanału klasycznego opartego o łącze światłowodowe, zaszyfrowana informacja przesyłana jest za pomocą światła. Do przesłania klucza poprzez kanał kwantowy również wykorzystywane jest pole elektromagnetyczne. Z tą jednak różnicą, że odbywa się to za pośrednictwem nie klasycznych impulsów lecz pojedynczych kwantów światła, czyli fotonów. Do zakodowania informacji kwantowej wykorzystywane są zaś stany polaryzacji światła. Przedyskutujmy to bardziej szczegółowo. Mianowicie, światło docierające do nas, na przykład, ze Słońca lub z żarówki nie jest spolaryzowane. Na poziomie klasycznym, oznacza to, że światło tego typu składa się z fal elektromagnetycznych oscylujących jednakowo we wszystkich kierunkach prostopadłych do osi propagacji światła. Żeby dokonać selekcji fal elektromagnetycznych, których wektor natężenia pola oscyluje w wybranym przez nas kierunku, stosujemy polaryzator. Przepuszczając niespolaryzowane światło przez polaryzator liniowy dokonujemy jego polaryzacji. Jeśli za polaryzatorem liniowym umieścilibyśmy kolejny podobny polaryzator, jednakże z osią polaryzacji ustawioną prostopadle do tej pierwszej, dokonalibyśmy całkowitego wygaszenia światła. Zachęcam do przeprowadzenia tego prostego eksperymentu np. pozyskując dwa polaryzatory liniowe z powierzchni wyświetlaczy ciekłokrystalicznych zepsutego zegarka lub kalkulatorka.
Zgodnie z regułą dodawania wektorów, każdą falę elektromagnetyczną można zapisać jako sumę dwóch fal elektromagnetycznych, prostopadłych do siebie w płaszczyźnie polaryzacji. Czyli inaczej, każdą polaryzację liniową światła można opisać jako superpozycję dwóch normalnych względem siebie polaryzacji, nazwijmy je horyzontalną H (ang. horizontal) oraz wertykalną V (ang. vertical).
Polaryzacja światła niespolaryzowanego z wykorzystaniem polaryzatora liniowego.
Przeprowadźmy teraz następujący eksperyment myślowy. Załóżmy, że dysponujemy źródłem światła niespolaryzowanego oraz zestawem płytek półprzepuszczalnych tłumiących światło. Ustawiające je kolejno na osi optycznej, możemy doprowadzić do sytuacji w której przez zestaw płytek przedostawać się będą jedynie pojedyncze fotony. Możemy w tym miejscu zapytać co się stanie gdy pojedynczy foton napotka polaryzator światła? Okazuje się, że foton taki z pewnym prawdopodobieństwem może przejść przez polaryzator, jak również z pewnym prawdopodobieństwem może zostać przez niego zatrzymany. Jest to konsekwencją kwantowej natury fotonu, co przejawia się istnieniem fotonu w stanie kwantowym , będącym superpozycją kwantową dwóch polaryzacji, co zapisujemy jako:
,
tak, że . Prawdopodobieństwo znalezienia fotonu w stanie równe jest , natomiast prawdopodobieństwo znalezienia fotonu w stanie równe jest . Stany bazowe i odpowiadają dwóm prostopadłym względem siebie polaryzacjom. Tak więc, polaryzacja światła ma swoje źródło na poziomie pojedynczych fotonów i związana jest z tym, że są one bezmasowymi bozonami o spinie 1. Dla cząstek takich istnieją dwa możliwe rzuty wektora momentu pędu na kierunek jego propagacji. Te dwa stany tak zwanej skrętności (ang. helicity) fotonów, na poziomie klasycznym, odpowiadają dwóm możliwym polaryzacjom kołowym światła (lewoskrętnej i prawoskrętnej). Stany o polaryzacji lewoskrętnej i prawoskrętnej są superpozycjami stanów o polaryzacji liniowej:
oraz .
Fakt, że foton jest opisywany przez kwantową superpozycję dwóch stanów bazowych, czyli jego stan należy do dwuwymiarowej przestrzeni Hilberta ma ogromne znaczenie z punktu widzenia kwantowej teorii informacji. A mianowicie, foton może być wykorzystany jako nośnik najmniejszej porcji informacji kwantowej, tak zwanego kubitu. Z tego też powodu możemy utożsamić stany polaryzacji fotonu ze stanami bazowymi kubitu: oraz . Oznaczmy tę bazę jako .
Do przeprowadzenia kwantowej dystrybucji klucza, w ramach protokołu BB84, będziemy potrzebowali wprowadzić jeszcze jedną bazę. Mianowicie, , gdzie stany bazowe wyrażają się jako następujące superpozycje:
oraz .
Jeśli stany bazowe i opisują stany polaryzacji pod kątami odpowiednio i to stany polaryzacji i opisują polaryzacje liniowe odpowiednio pod kątami i . Warto w tym miejscu również zaznaczyć, że stany i są stanami własnymi operatora do wartości własnych i odpowiednio. Natomiast, stany i są stanami własnymi operatora odpowiednio do wartości własnych i (operatory i odpowiadają macierzom Pauliego i ). Wszystkie z wprowadzonych tu stanów bazowych można wytworzyć przepuszczając foton przez polaryzator liniowy ustawiony pod jednym z czterech kątów. Ponadto, powyższy dobór baz nie jest przypadkowy i wynika z faktu, że bazy i są przykładem tak zwanych wzajemnie nieobciążonych baz (ang. mutually unbiased bases), spełniających warunek:
,
gdzie a . Oznacza to, że bazy te wykluczają się w sposób maksymalny, uniemożliwiając jednoczesne wykonywanie pomiarów na kubicie w obydwu bazach. W przypadku fotonu ma to następujące konsekwencje: Jeśli przygotujemy foton np. w stanie bazowym i przepuścimy go przez analizator polaryzacji pod kątami i (odpowiadających stanom polaryzacji bazy ), to po przejściu przez taki analizator nie nastąpi zmiana stanu fotonu. Jednakże, jeśli na drodze tego samego fotony umieścimy analizator polaryzacji pod kątami i (odpowiadających stanom polaryzacji bazy ), to po przejściu przez taki analizator foton z prawdopodobieństwem znajdzie się w stanie o polaryzacji i z takim samym prawdopodobieństwem w stanie o polaryzacji . Jeśli foton ten będziemy chcieli zaś ostatecznie przeanalizować wykorzystując analizator ze stanami polaryzacji odpowiadającymi bazie to z prawdopodobieństwem zaobserwujemy ten foton w stanie i z prawdopodobieństwem w stanie (taki sam wynik uzyskalibyśmy jeśli foton byłbym przygotowany w stanie ). Próba przeanalizowania stanu fotonu we wzajemnie obciążonej bazie wprowadza więc maksymalną niepewność co do stanu początkowego. Własność ta znajduje bezpośrednie zastosowanie w protokole BB84.
Przyjdźmy więc do jego omówienia. Rozważamy nadawcę (A) i odbiorcę (B) których zwyczajowo określamy mianem Alicji i Boba. Alicja ma za zadanie przesłać do Boba klucz (ciąg bitów) wykorzystując stany polaryzacji fotonu. Ma ona do dyspozycji 4 stany polaryzacji fotonu odpowiadające stanom bazowym baz i . Klucz stanowi losowy ciąg binarny i , który można wygenerować np. wykorzystując kwantowy generator liczb losowych (z artykułu arXiv:1405.0453 można dowiedzieć się jak samemu zbudować taki generator w oparciu o smartfon). Alicja wprowadza następujące kodowanie klasycznych bitów klucza za pomocą kwantowych stanów polaryzacji fotonu. Mianowicie, stany polaryzacji i kodują , natomiast stany polaryzacji i kodują . W praktyce, generacja klucza odbywa się przez losowe ustalanie jednej z czterech pozycji polaryzatora Alicji (rysunek poniżej).
Przesyłane od Alicji spolaryzowane fotony Bob będzie rejestrował za pomocą analizatora który może przyjmować takie same orientacje jak polaryzator Alicji. Stany polaryzatora Alicji nie są publiczne, Bob będzie więc dokonywał analizy polaryzacji fotonów w (wybieranych losowo) bazach i . Na podstawie swoich pomiarów, odzyska on pewien ciąg bitów. Następnym krokiem jest publiczne ogłoszenie przez Boba stanów analizatora (baz) w których dokonywał on kolejnych pomiarów. Warto tu podkreślić, że oczywiście nie upublicznia on samych wyników pomiarów. W ramach danej bazy możliwe są wciąż dwie wartości bitu, wartość klucza pozostaje więc ukryta. Następuje teraz tak zwane uzgodnienie baz (ang. basis reconciliation). Mianowicie, Alicja informuje Boba które użyte przez niego bazy są zgodne ze stanami polaryzacji w których przygotowała ona sekretny klucz. Zdekodowane przez Boba, dla uzgodnionych baz, wartości bitów stanowią sekretny klucz. Ostatnim etapem protokołu jest zweryfikowanie czy nie nastąpiła próba “podsłuchania” przesyłanych kanałem kwantowym informacji.
Omówienie tej kwestii zacznijmy od wyartykułowania jednej z fundamentalnych własności mechaniki kwantowej. Mianowicie, nie jest możliwe idealne skopiowanie nieznanego stanu kwantowego. Nie jest więc możliwe “podłączenie się” do kanału kwantowego i skopiowanie przesyłanej informacji. Własność ta jest ucieleśniona w twierdzeniu o zakazie klonowania, którego dowód dla przypadku kubitów przedstawiam poniżej.
Twierdzenie o zakazie klonowania (ang. no-cloning theorem) leży u podstaw bezwarunkowego bezpieczeństwa protokołów kryptografii kwantowej. Mówi ono, że nie jest możliwe wykonanie dokładnej kopii (klonu) nieznanego stanu kwantowego. Sformułowanie tego twierdzenia zawdzięczamy Williamowi Woottersowi oraz Wojciechowi Żurkowi [Ref]. Poniżej przedstawię jego dowód, dla przypadku stanu kubitu.
Rozważmy stan kwantowy . Naszym celem będzie próba skopiowania tego stanu, czyli chcemy aby pewien inny stan, nazwijmy go , przetransformować (“nadpisać”) w stan , nie zmieniając jednocześnie stanu . Rozważamy więc wyjściowo stan będący następujacym iloczynem tensorowym: . Ponadto, wprowadźmy (unitarny) operator kopiujący, nazwijmy go , którego działanie powinno być następujące: , dla dowolnego stanu . Żeby sprawdzić czy jest to możliwe, zadziałajmy najpierw operatorem na stany bazowe i . Działanie operatora powinno dawać oraz . Zakładając, że powyższe jest spełnione, spróbujmy przeprowadzić kopiowanie stanu . Skorzystamy w tym miejscu z własności liniowości operatorów rozważanych w mechanice kwantowej (czyli np. , dla dowolnych stanów i ). W konsekwencji, otrzymujemy:
.
Stan końcowy jakiego jednak oczekiwalibyśmy w wyniku kopiowania (klonowania) to:
,
który jest odzyskiwany tylko w szczególnych przypadkach stanów bazowych, tzn. kiedy i lub i . Powyższa analiza dowodzi tego, że nie jest możliwe skopiowanie nieznanego stanu kubitu. Przeprowadzenie dowodu dla przypadku dowolnego stanu pozostawiam Czytelnikowi jako ćwiczenie.
Pomimo zakazu klonowania stanów kwantowych, istnieją pewne strategie ataków na protokoły kryptografii kwantowej. Np. podsłuchujący (nazwijmy ją Ewa) może ustawić na drodze optycznej fotonu analizator i próbować odczytać pewne bity klucza. Jak to już jednak dyskutowaliśmy powyżej, obecność takiego analizatora w sposób nieodłączny wiąże się z wpłynięciem na stany fotonu. W celu wyeliminowania możliwości podsłuchu, Alicja i Bob porównują publicznie część klucza. Jeśli w wybranym ciągu bitów nie zauważą różnić, mają pewność, że nie nastąpiła próba ataku. Oczywiście, w praktyce mogą występować pewne różnice w ciągu bitów wynikające z występowaniem szumu, generującego pewien poziom błędów. Istnieje jednak metoda dokładnego określenia jaki poziom niezgodności porównywanego ciągu bitów jest dopuszczalny dla zachowania poufności wymiany klucza. Metoda ta opiera się na wykorzystaniu teorii informacji i pozwolę sobie zarysować jej uproszczoną postać. Zacznijmy od odpowiedzi na pytanie jak dużo błędów do odczytywanego przez Boba ciągu bitów będzie wprowadzał ustawiony przez Ewę, na drodze fotonu, analizator. Analizator ten może być dostosowany do bazy lub . Prosta probabilistyka mówi nam, że prawdopodobieństwo nie zaburzenia przez Ewę pojedynczego bitu przesyłanego klucza wynosi:
.
Czyli, starająca się wykraść sekretny klucz Ewa, w 25 % przypadków wprowadzi błąd do przesyłanego ciągu bitów. Ponadto, ponieważ z prawdopodobieństwem analizuje ona foton we właściwej bazie, z takim też prawdopodobieństwem odczyta ona poprawnie wartość przesyłanego bitu. Ponieważ, wyjściowo, nie zna ona ustawień polaryzatora Alicji, nie jest ona jednak w stanie stwierdzić który bit odczytała prawidłowo a który nie. Odkodowania połowy przesyłanych bitów klucza może dokonać jedynie poznawszy (post factum) ustawienia polaryzatora Alicji. Może to więc zrobić dla bitów dla których następuje sprawdzenie klucza przez Alicję i Boba.
Do skwantyfikowania ilości błędów wprowadzanych podczas kwantowej transmisji informacji używa się wielkości zwanej QBER (Quantum Bit Error Rate) – która zdefiniowana jest jako stosunek liczby kubitów z błędem () względem całkowitej liczby przesyłanych kubitów :
.
Jeśli przez oznaczymy część kubitów analizowanych przez Ewę, to wprowadzany przez Nią QBER wynosi , gdzie czynnik wynika z przeprowadzonych powyżej rozważań probabilistycznych. Przywołajmy teraz pojęcie informacji wzajemnej (ang. mutual information), która pozwoli nam skwantyfikować jaka część informacji jest tracona w kanale kwantowym w wyniku ataków Ewy. Jak można pokazać, wzajemna informacja pomiędzy Alicją a Bobem wyraża się jako
co wynika z faktu, iż Ewa (znając położenie polaryzatorów Ewy) jest w stanie teoretycznie odzyskać wartości połowy “podsłuchiwanych” przez Nią bitów. Jeśli informacja w układzie Alicja-Ewa zaczyna być większa niż pomiędzy Alicją i Bobem , przesyłanie klucza przestaje być bezpieczne. Na tej podstawie, rozpatrując warunek graniczny , otrzymujemy, że (przy powyższych założeniach) bezpieczeństwo kwantowej dystrybucji klucza zapewnione jest jeśli poziom błędów jest mniejszy niż około . Jeśli, porównując wybrane bity klucza, Alicja i Bob zanotują różnicę na wyższym poziomie, nie można zaakceptować przesyłanego klucza i należy powtórzyć całą procedurę.
Przeprowadzona powyżej analiza ma znaczenie praktyczne i znajduje zastosowanie w istniejących systemach do kwantowej dystrybucji klucza. Na rynku istnienie obecnie kilka zestawów które pozwalają przeprowadzić KDK wykorzystując protokoły oparte na superpozycji kwantowej. Na rysunku poniżej przedstawiono przykładowy zestaw wykorzystujący zmodyfikowaną wersję protokołu BB84, tzw. protokół T12.
Przykładowy dostępny komercyjnie zestaw do kwantowej dystrybucji klucza. Źródło
Do przesyłania fotonów, dostępne komercyjnie systemy kryptografii kwantowej stosują światłowody. Niepożądaną cechą takiego rozwiązania jest jednak wykładnicze tłumienie natężenia światła w funkcji przebytego przez światło dystansu. Z uwagi na twierdzenie o zakazie klonowania oraz na fakt posługiwania się w kwantowej dystrybucji klucza pojedynczymi fotonami, nie jest możliwe stosowanie klasycznych wzmacniaczy sygnału. Dlatego też, kwantowa dystrybucja klucza za pośrednictwem światłowodów jest dzisiaj ograniczona do odległości poniżej około 400 km.
Wykładniczy zanik przepustowości kwantowej dystrybucji klucza w funkcji odległości. Źródło
Wraz z długością linii transmisyjnej spada jej przepustowość. Na bardzo krótkich dystansach osiągane są obecnie wartości około 10 Mb/s (arXiv:1807.04484). Na odległościach rzędu 50 km wartość ta spada już do około 1 Mb/s. Natomiast, nieubłagana natura zaniku eksponencjalnego sprawia, że na dystansach około 400 km KDK można przeprowadzać w tempie jedynie około 1 bitu na sekundę (co jest wielkością niepraktyczną).
Możliwym rozwiązaniem dla powyższych trudności jest stosowanie powielaczy kwantowych (ang. quantum repeater). Są to jednakże bardzo złożone systemy, będące wciąż w fazie badań. Dużo bardziej obiecującym rozwiązaniem jest wykorzystanie faktu jedynie odwrotnego z kwadratem odległości zaniku natężenia światła w próżni, oraz dużo słabszego niż w ciele stałym tłumienia fotonów w gazach. Rozwiązanie to wiąże się z wykorzystaniem przestrzeni kosmicznej do przeprowadzenia kwantowej dystrybucji klucza. Możliwość taka została pomyślnie potwierdzona eksperymentalnie na skalach międzykontynentalnych w 2017 roku z wykorzystaniem protokołu BB84. Zagadnienie to opisuję bardziej szczegółowo we wpisie Kwantowa łączność satelitarna.
Nie mając jasno wyznaczonego celu skazani jesteśmy na, jak mówią fizycy, błądzenie przypadkowe, przegrywając z tymi którzy takie cele przed sobą postawili i konsekwentnie do nich dążą. Dotyczy to zarówno naszych osobistych dróg życiowych, jaki i tych obranych kolektywnie przez zbiory jednostek, jakimi są społeczeństwa.
Czy społeczeństwo polskie wyznacza sobie takie globalne cele? Więcej, czy stawia przed sobą ambitne wyzwania, które wymagałby determinacji i zaangażowania ponad podziałami? Trudno mi wskazać jednoznacznie na istnienie obecnie w Polsce takich wyzwań. Mamy pewne, rozmyte, wspólne cele jak chociażby to, że chyba Wszyscy chcielibyśmy żeby Polska stała się krajem silniejszym ekonomicznie. Taki cel nie jest jednak dobrze zdefiniowany. Wymaga on skwantyfikowania, na podobnej zasadzie jak przedsiębiorstwa określają roczne (lub bardziej odległe) plany przychodów i zysków, które później uparcie starają się realizować. W przypadku Polski, za ekonomiczne wyzwanie można by uznać wprowadzenie Polski do grupy G20 w przeciągu, powiedzmy, pięciu lat. To jest całkiem dobrze określony cel, którego osiągnięcie wymaga mobilizacji i odpowiedniego zaangażowania w obszarze gospodarki (ale również dyplomacji) w przeciągu najbliższych lat. Można, w dużym stopniu, określić jakie warunki musielibyśmy spełnić żeby dołączyć do tego elitarnego grona.
Nie w mniejszym stopniu, jako naukowca, zastanawia mnie również to czy przed Polską Nauką możemy postawić pewne globalne wyzwania, wyznaczające kurs jej rozwoju, co pozwoliłoby systematycznie odrabiać straty do światowej czołówki. Nie stawiając przed rodzimą Nauką takich ambitnych celów, będziemy niestety skazani na pogodzenie się z pozycją w środku stawki. Ale czy takie dobrze określone wyzwania da się w ogóle zdefiniować i czym by one mogły być? Nasuwać się może na myśl: podniesienie polskich uczelni w rankingu szanghajskim, wzrost liczby międzynarodowych patentów i publikacji w Nature. Wprowadzenie Uniwersytetu Warszawskiego i Uniwersytetu Jagiellońskiego do trzeciej setki rankingu szanghajskiego może wydawać się całkiem dobrze określonym wyzwaniem.Nie o to tu jednak chodzi. Nie uprawiamy Nauki dla pozycji w rankingach. To są kwestie wtórne.Nauka powinna, przede wszystkim, pracować dla dobra społeczeństwa.A jeśli będzie to robione właściwie to i poziom jaki prezentuje będzie rósł. Dlatego też, chciałbym zastanowić się tutaj nad tym jaka Nauka jest Polsce najbardziej potrzebna i jakie w ramach niej wyzwania powinniśmy podejmować wspólnymi siłami, na skali dużo szerszej niż kilkuosobowe zespoły naukowe, na których opiera się obecnie, w głównej mierze, praca badawcza w Polsce.
Nie jest nowym stwierdzenie że, w pierwszej kolejności, rodzima Nauka powinna podejmować kierunki bezpośrednio związane ze strategicznymi obszarami. W artykule tym, chciałbym zaś podkreślić znaczenie, w mojej opinii, najważniejszego z nich, jakim jest bezpieczeństwo, zarówno to militarne jak i energetyczne.Nie trzeba nikomu uzmysławiać sytuacji geopolitycznej Polski i związanych z tym zagrożeń. Istnieje niezliczona liczba opracowań dyskutujących to zagadnienie, pozwolę więc sobie pominąć wchodzenie w szczegóły.Bezpieczeństwo jest kwestią nadrzędną i bez osiągnięcia odpowiedniego jego poziomu, trudno myśleć o stabilnym długofalowym rozwoju Polski.Niestety, obecnie rozwój nowoczesnego zaplecza militarnego w Polsce opiera się głównie na kontraktach z zagranicznymi dostawcami technologii. Jestem realistą, pewnych zaległości nie da się nadrobić nawet w trzydzieści lat. Problem zapóźnienia technicznego Polski jest głęboki i trudny do nadrobienia w krótkim okresie czasu. Jednakże, moje obserwacje nie wskazują na to by w obszarze nowoczesnych technologii wojskowych następowała w Polsce znacząca poprawa.
W krajach wysoko rozwiniętych, takich jak Stany Zjednoczone, rozwój technologii z zakresu bezpieczeństwa jest silnie związany z prowadzeniem innowacyjnych badań naukowych. Jest to z korzyścią zarówno dla podniesienia poziomu bezpieczeństwa jak i dla samej Nauki, nie wspominając o ogromnym znaczeniu transferu opracowanych rozwiązań do przemysłu cywilnego. W Polsce, obszar ten wydaje się być zaś zupełnie niezagospodarowany. A przecież może on stanowić doskonały motor dla rozwoju Polskiej Nauki, dostarczając nam równocześnie tak ważnego poczucia bezpieczeństwa.
Zanim przejdę do podania propozycji konkretnych działań w tym kierunku, pozwolę sobie w tym miejscu zwrócić uwagę na jeszcze jedną kwestię. Temat jest mi dosyć dobrze znany, a mianowicie rzecz dotyczy tego to co kieruje młodymi naukowcami w decyzji o prowadzeniu swoich badań poza granicami Polski. Skłaniam się do stwierdzenia, że w dzisiejszych czasach, czynnikiem decydującym nie są zazwyczaj kwestie finansowe. Prowadząc solidne badania, godziwe zarobki możnaosiągnąć również w Polsce. Chodzi natomiast o to, że wciąż prowadzone w Polsce badania są często po prostu mało interesujące. Włączenie się w nie, nie stanowi dla młodych naukowców wyzwania. Chcą robić coś ciekawszego i ważniejszego, na wyższym niż w Polsce poziomie. Możliwość taką odnajdują w grupach badawczych prowadzących nowatorskie prace naukowe, poza granicami naszego kraju.
Wydaje mi się, że podjęcie w Polsce strategicznych kierunków badawczych mających, jak to już podkreśliłem, znaczenie dla bezpieczeństwa naszego kraju, stanowiłby bardzo atrakcyjną ofertę dla młodych naukowców. Nie chodzi oczywiście o to żeby młodzi naukowcy nie wyjeżdżali. Wyjeżdżać trzeba, rzecz w tym żeby mieć również do czego wracać. Ambitne, zakrojone na dużą skalę programy naukowe o bezpośrednim znaczeniu dla Polski działałyby jak magnes na najzdolniejsze umysły.Kiedy można uczestniczyć w takim przedsięwzięciu, kwestia wynagrodzenia staje się poboczna. Ważne, że można być „u siebie”, blisko rodziny i przyjaciół, realizując swoje pasje i jednocześnie robiąc coś ważnego dla całego społeczeństwa. To są, uważam, kwestie niezwykle istotne. W Polsce, możliwość realizowania się w taki sposób jest jednak ograniczona.
W Stanach Zjednoczonych, innowacyjne projekty naukowe o znaczeniu dla obronności finansowane są, między innymi, przez osławioną Defense Advanced Research Project Agency (DARPA). Trochę w cieniu, działa jeszcze kilka podobnych agencji, jak w szczególności Intelligence Advanced Research Project Agency (IARPA), finansująca zaawansowane badania o znaczeniu dla pracy wywiadu. Próżno szukać w Polsce odpowiedników takich instytucji. W ramach firm wchodzących w skład Polskiej Grupy Zbrojeniowej oraz na Wojskowej Akademii Technicznej prowadzone są oczywiście prace badawczo-rozwojowe na potrzeby Sił Zbrojnych RP. Chodzi jednak o to by wyjść z badaniami mającymi znaczenie dla bezpieczeństwa poza te ramy i zaangażować potencjał naukowy uniwersytetów i cywilnych uczelni technicznych, realizując szeroko zakrojone (często interdyscyplinarne) projekty naukowe o znaczeniu strategicznym.
Żeby wyraźniej nakreślić to o jakiego typu przedsięwzięciach mowa, przytoczę tu kilka przykładów projektów finansowanych przez DARPA i IARPA. W szczególności, w latach 2001-2005 DARPA przeznaczyła 100 mln USD na projekt Quantum Information Science and Technology Program (QuIST), dedykowany przede wszystkim budowie systemów kryptografii kwantowej. Rozwiązania tego typu wykorzystują fizykę mikroświata – mechanikę kwantową – do tego bywymieniać w sposób bezwarunkowo bezpieczny informacje pomiędzy np. jednostkami wojskowym lub ośrodkami decyzyjnymi.Z kolei, jednym z projektów finansowanych obecnie przez IARPA jest Machine Intelligence from Cortical Networks (MICrONS), którego celem jest uzyskanie konektomu jednego milimetra sześciennego kory mózgowej gryzonia, co będzie miało znaczenie dla uczenia sztucznych sieci neuronowych. Takie sieci znajdą później zastosowanie w systemach wykrywania różnego typu zagrożeń. Finansowanieprojektu to również 100 mln USD. Warto podkreślić, że jest to bardzo interdyscyplinarny projekt w który zaangażowani są m.in. neurobiolodzy, chemicy, fizycy, informatycy i inżynierowie. Jest to więc doskonała okazja do rozwijania współpracy pomiędzy różnymi ośrodkami naukowymi. Kolejny aktualny przykład to program Blackjack, konstelacji dwudziestu nanosatelitów o zastosowaniu militarnym. DARPA zarezerwowała w 2018-tym roku na ten cel ponad 100 mln USD. Bez wątpienia, w projektach tego typu chcieliby bez wahania wziąć udział młodzi ale i starsi Polscy naukowcy i inżynierowie. Warto w tym miejscu zaznaczyć, że naukowe projekty na rzecz bezpieczeństwa, jak chociażby te przytoczone powyżej, dotyczą obszarów zarówno badań stosowanych jak i badań podstawowych. Chciałbym tym samym rozwiać mogącą się pojawić wątpliwość o brak podstawowego charakteru tego typu prac badawczych. Jak uczy nas doświadczenie, to właśnie odpowiednio sprofilowane badania podstawowe mogą być źródłem rozwiązań które później zadecydują o przewadze militarnej.
Wracając do Polski, budżet MON na rok 2019 wynosi 44,7 mld PLN (2,0% PKB). A gdyby, na przykład, przeznaczyć z takiej kwoty jeden miliard złotych rocznie na innowacyjne programy badawcze związane z obronnością. Przedsięwzięcie takie mogłoby być również realizowane międzyresortowo. Niewątpliwie, taki program mógłby przynieść ogromne korzyści, zarówno dla bezpieczeństwa jak i dla samej Polskiej Nauki oraz polskiej gospodarki. W kwocie 1 mld PLN (porównywalnej z jednym sporym kontraktem zagranicznym) udałoby się zrealizować powiedzmy 10 dużych projektów o budżecie 100 mln PLN każdy. Z budżetem 100 mln złotych można np. zbudować i umieścić na niskiej orbicie okołoziemskiej mikrosatelitę (ok. 10-20 kg) o przeznaczeniu wojskowym (obrazowanie, łączność lub naprowadzanie pocisków). Za kolejne 100 mln PLN można zrealizować program budowy rakiety suborbitalnej (w przyszłości, elementu systemu Wisła).100 mln PLN to również wystarczające środki do tego by połączyć najważniejsze ośrodki decyzyjne w Polsce systemami do kwantowej dystrybucji klucza (zbudowanymi w Polsce). W kwocie 100 mln PLN można również zaprojektować i zbudować nowoczesny system radarowy (typu AESA), mogący w przyszłości stanowić część tarczy antyrakietowej.Wymieniam tu przykłady co do których wiem, że istnieje zaplecze intelektualne i techniczne do ich realizacji w Polsce.Do tego, w skali roku, pozostaje 5 kolejnych projektów, każdy rozpisany na 4-5 lat realizacji. Projekty takie mogłyby być zarówno w dużym stopniu niezależne jak również kontrybuować jako części większych przedsięwzięć.
Można sobie wyobrazić o ile bezpieczniejsi i rozwinięci technologicznie stalibyśmy się dzięki takim działaniom w perspektywie dekady, mając zrealizowanych chociażby kilkanaście ambitnych szeroko zakrojonych projektów naukowo-technicznych z zakresu bezpieczeństwa. Polska Nauka zyskałaby silny impuls do rozwoju, zwiększając poziom innowacyjności i atrakcyjności na światowej arenie. Niniejszy artykuł prezentuje jedynie zarys ścieżki która mogłaby do tego doprowadzić. Moim zamysłem było tu zaś, przede wszystkim, sprowokowanie do dalszych przemyśleń nad zasadnością zaprezentowanej tu koncepcji i szansą jej zmaterializowania w polskich realiach. Wizja ta wymaga oczywiście zarówno dalszej pogłębionej analizy jak i późniejszych ewentualnych odważnych decyzji politycznych. W moim przekonaniu, jest ona jednak realna i możliwa do wcielenia.
Żyjemy w niesamowitych czasach intensywnego rozwoju wspaniałych technologii. Wiele z nich wywodzi się z zaawansowanych i kosztownych badań podstawowych, inne są wynikiem inżynieryjnej wirtuozerii, bazującej na ugruntowanej już wiedzy naukowej. Jedno jest pewne, technologie te transformują świat w którym żyjemy i przez to, w pewnym sensie, również nas samych. Żeby ocenić jakie będą skutki tych przemian należy zrozumieć możliwości i ograniczenia wyłaniających się nowych rozwiązań. Ich lista jest długa, a szczegółowa analiza żmudna i wielowymiarowa. Nie jest jednak moim celem by ją tutaj przeprowadzać. Mógłbym Cię po prostu zanudzić. W zamian, chciałbym zwięźle przedstawić 12 wybranych przeze mnie (jednakże stosunkowo reprezentatywnych) kierunków. Celem jaki sobie stawiam jest to byś mogła lub mógł spojrzeć na nie niejako z lotu ptaka, umożliwiając Ci uchwycenie szerszej perspektywy. Mam nadzieję, że mój wysiłek pomoże Ci, choć w pewnym wymiarze, ujrzeć ostrzej świat w niedalekiej przyszłości i dostrzec w nim dla siebie nowe możliwości, które pozwolą Tobie lub też np. Twojej firmie rozwinąć się. Zrozumienie technologii, pozwoli Ci również lepiej przygotować się na nadchodzące zmiany, przez co łatwiej się do nich dostosujesz i szerzej wykorzystasz pojawiające się nowe szanse. Wybrane przeze mnie kierunki są obecnie intensywnie rozwijane i z dużym prawdopodobieństwem będą miały istotne znaczenie w nieodległej przyszłości, przez którą rozumiem najbliższą dekadę (2020-2030). Na konstrukcję tej listy niewątpliwe miały wpływ moje osobiste zainteresowania i obszar posiadanych kompetencji. Z tego powodu, nie jest ona obiektywna, choć starałem się by cechowała się zróżnicowaniem i zawierała rozwiązania nie tylko z obszarów najbliższych mojej ekspertyzie. Ważnym aspektem, który staram się podkreślić, to znaczenie dyskutowanych kierunków w kontekście wyzwań stojących przed światem.
1. Komputery kwantowe
Pozwolę sobie zacząć od najbliższego mi, jako fizykowi teoretykowi, tematu czyli od technologii kwantowych, a mówiąc precyzyjniej skoncentruję się tutaj na kwestii komputerów kwantowych. Do innych przykładów technologii kwantowych powrócę w punktach 2, 6 i 7. Komputery kwantowe opierają swoje działanie o zasady mechaniki
kwantowej (fizyki mikroświata). Choć teoretyczne podwaliny ich funkcjonowania powstały jeszcze w latach osiemdziesiątych ubiegłego wieku, dopiero ostatnie lata przyniosły intensywne przyśpieszenie w rozwoju kwantowych technologii obliczeniowych. Rozwój ten przebiegał i nadal przebiega w pierwszej fazie charakteryzującej nowe technologie, związanej z szybkim wzrostem zainteresowania. Efekt ten, na zasadzie sprzężenia zwrotnego napędza rozwój technologi, generując rosnący entuzjazm, w szczególności inwestorów. Pęcznieją również oczekiwania, które niestety często rozbieżne są z faktycznymi możliwościami technologii. Również kwantowy tzw. hype czeka niebawem przejście do fazy ostudzenia emocji. Technologie kwantowe jednak wybronią się, ponieważ dadzą w wielu obszarach przewagę nad komputerami klasycznymi. Wynika to w szczególności z tak zwanego paralelizmu kwantowego, umożliwiającego zrównoleglenie danego problemu i przez to redukcję jego złożoności obliczeniowej. Sztandarowymi przykładami są: algorytm faktoryzacji Shore’a, algorytm przeszukiwania (nieuporządkowanych zbiorów) Grovera lub algorytm kwantowego wyżarzania (ang. quantum annealing). Ograniczenia kwantowych komputerów wiążą się jednak z dużą podatnością stanów kwantowych kubitów na środowisko zewnętrzne. W celu zredukowania tego efektu (tzw. kwantowej dekoherencji) procesory kwantowe muszą być przeprowadzane w temperaturze bliskiej zera bezwzględnego. Ponadto, w celu redukcji błędów konieczne jest stosowanie tak zwanej kwantowej korekcji błędów, która wykorzystuje znaczną część kubitów procesora. Ogranicza to istotnie liczbę kubitów, które faktycznie możemy przeznaczyć do wykonania interesującego nas algorytmu. W konsekwencji, użytecznych (tzw. fault tolerant) komputerów kwantowych, które będą dawały możliwość wykonania operacji niemożliwych do przeprowadzenia na superkomputerach klasycznych możemy się spodziewać za nie wcześniej niż 5 lat. Komputery posiadające łącznie 100 kubitów powstaną wcześniej, jednakże poziom ich błędów będzie wciąć zbyt wysoki, a struktura sprzężeń pomiędzy kubitami zbyt rzadka by mogły one konkurować z klasycznymi maszynami. W drugiej połowie nadchodzącej dekady możemy jednak oczekiwać rozwoju szerokiego spektrum zastosowań komputerów kwantowych. W szczególności, w kontekście rozwiązywania problemów o dużej złożoności (optymalizacja, łamanie szyfrów, uczenie sztucznych sieci neuronowych, itp.) oraz symulacji układów kwantowych (np. w ramach chemii kwantowej, fizyki materii skondensowanej lub kwantowej grawitacji). Przeprowadzanie na procesorach kwantowych symulacji np. skomplikowanych molekuł znajdzie zastosowanie m.in. przy opracowywaniu leków. Jako wprowadzenie do zagadnienia programowania komputerów kwantowych zachęcam do lektury moich wcześniejszych wpisów: Elementary quantum computing oraz Kwantowe cienie.
2. Nowe technologie kosmiczne
Globalna branża kosmiczna znajduje się obecnie w fazie transformacji z obszaru dominacji państwowych agencji kosmicznych do rosnącego znaczenia przedsiębiorstw, które zaczynają realizować swoje własne programy kosmiczne. Zjawisko to jest częścią tak zwanego podejścia New Space. Najbardziej znanymi przykładami są tu Space X, Blue Origin oraz Virgin Galactic. Wszystkie te trzy firmy rozwijają technologie wynoszenia ładunków i
Kwantowa dystrybucja klucza pomiędzy satelitą Micius a stacją naziemną. Źródło
osób w ramach lotów suborbitalnych lub orbitalnych. Loty suborbitalne mają duże znaczenie dla otwarcia kosmosu dla turystyki. Dotychczasowe sukcesy trzech wspomnianych firm, dają spore szanse na intensywny rozwój suborbitalnej turystyki kosmicznej w nadchodzącej dekadzie. Z drugiej strony, rozwój prywatnych inicjatyw związanych z lotami orbitalnymi, korzystnie wypłyną na ceny umieszczania ładunków na niskiej orbicie okołoziemskiej. Do tego dochodzi miniaturyzacja systemów satelitarnych, w szczególności w ramach standardu CubeSat – kostek o wymiarach 10x10x10 cm (1U), z których można budować w pełni funkcjonalne nanosatelity. Zbudowanie i umieszczenie na niskiej orbicie okołoziemskiej prostego nanosatelity o rozmiarze 1U można dzisiaj przeprowadzić w ramach budżetu zamykającego się w kwocie 1 mln złotych. Otwiera to szerokie perspektywy do przeprowadzenia badań w warunkach mikrograwitacyjnych, jak również nowe pole do prowadzenia działalności biznesowej. Najpopularniejsze dzisiaj obszary tej aktywności dotyczą systemów obserwacji ziemi, łączności oraz nawigacji. Najbardziej, w mojej opinii, nowatorskim kierunkiem technologicznym, który będzie się w tym kontekście rozwijał jest tak zwana kwantowa łączność satelitarna. Bazuje ona na przesyłaniu pojedynczych fotonów, w których stanach kwantowych zakodowany jest klucz umożliwiający bezpieczne przesyłanie informacji (już za pośrednictwem kanałów klasycznych). Ta tak zwana kwantowa dystrybucja klucza stanowi zasadniczy element internetu kwantowego, który dyskutuję w punkcie 7. Warto tu podkreślić, że kwantowa dystrybucja klucza została pomyślnie przeprowadzona w 2017-tym roku na odległościach międzykontynentalnych, wykorzystując specjalnie do tego zbudowanego satelitę Micius. Obecnie przygotowywanych jest szereg projektów rozwijających tę technologię, opierających się na nanosatelitach w standardzie CubeSat [Ref].
3. Biologia syntetyczna
Komórki już nie tylko muszą robić to do czego zostały wykształcone w toku ewolucji. Dzisiejsza nauka zaczyna umożliwiać nam ich programowanie, tak by realizowały zaplanowane przez nas zadania. Podobnie jak w przypadku programowania komputerów, możemy, wykorzystując komórkowy język programowania (np. SBOL), stworzyć program, wynikiem kompilacji którego jest konkretna sekwencja DNA. Dzięki
rozwiniętym technikom syntezy DNA, możemy dzisiaj bez trudu stworzyć zaprojektowany przez nas materiał genetyczny, po czym dokonać jego mikroiniekcji do wnętrza komórki, wymieniając tym samy jej oryginalny “software”. Metodę tę obecnie rozwija się w przypadku jednokomórkowych organizmów jakimi są bakterie. Pozwala to programować je tak by realizowały określone funkcje np. w bioreaktorach. Kolejnym ważnym przykładem z obszaru biologi syntetycznej jest mięso in vitro. Warto tu zaznaczyć, że około 15 % gazów cieplarnianych (metan) pochodzi od zwierząt. Produkcja mięsa jest obecnie nieefektywna, a wzrost zamożności społeczeństw napędza popyt na produkty mięsne, przyśpieszając negatywne zmiany klimatyczne. Istotny jest również aspekt humanitarny, związany z masowym chowem i ubojem zwierząt. Wprowadzenie syntetycznego mięsa stanowi obiecujące rozwiązanie tych problemów. Warto zauważyć, że w bioreaktorach do produkcji syntetycznego mięsa zastosowanie mogą znaleźć opisane wcześniej programowalne bakterie. Dalsze informacje na temat biologi syntetycznej i tego jak samemu zacząć przygodę z tą dyscypliną można znaleźć np. w książce BioBuilder, której pierwszy rozdział można bezpłatnie przeczytać pod niniejszym linkiem.
4. Sekwencjonowanie genomu
Materiał genetyczny potrafimy dzisiaj nie tylko syntezować, ale również sekwencjonować, choć jeszcze na początku tego milenium było to zadanie niezwykle ambitne. Zakończony w 2005-tym roku projekt zsekwencjonowania ludzkiego genomu – Human Genome Project pochłonął około trzech miliardów dolarów. Od tego czasu, koszt zsekwencjonowania ludzkiego genomu spada szybciej niż wykładniczo, co widać na
Koszty pełnego sekwencjonowania genomu ludzkiego. Źródło
załączonym wykresie. Obecnie, cena zsekwencjonowania pełnego genomu wynosi poniżej kilkuset dolarów. Natomiast, za kwotę około 1000 USD można zakupić własny miniaturowy sekwencer oparty o technologię sekwencjonowania przez nanopory (rozwijane głownie przez firmę Oxford Nanopore Technologies). W przeciągu najbliższej dekady, możemy spodziewać się dalszej redukcji kosztów sekwencjonowania genomu, aż do wartości zapewniającej wręcz bezpłatną (w ramach opieki zdrowotnej) możliwość przeprowadzenia takiej analizy. Wyzwaniem jest jednak to, jaką użyteczną informację możemy wydobyć z analizy naszego genomu. Niewątpliwie, genom zawiera całe bogactwo danych, jednoznacznie nas identyfikujących, w związku z czym podlegać będzie musiał specjalnym regułom bezpieczeństwa. Przesyłanie takiej informacji pomiędzy ośrodkami medycznymi będzie w przyszłości zabezpieczone przez wprowadzane obecnie algorytmy kryptografii postkwantowej lub też z wykorzystaniem rozwiązań kryptografii kwantowej (wykorzystujące kwantowy internet, dyskutowany w punkcie 7). Niewątpliwie, metody sztucznej inteligencji (dyskutowane w punkcie 6) istotnie przyczynią się do analizy materiału genetycznego i przygotowywania na jego podstawie rekomendacji oraz indywidualnych (spersonalizowanych) terapii. Możemy oczekiwać, że powszechne sekwencjonowanie genomu znacząco przyśpieszy rozwój medycyny personalizowanej, w ramach której np. różne wersje danego leku będą podawane w zależności od profilu genetycznego pacjenta.
5. Biodruk 3D
Biodruk 3D jest wyłaniającą się nową technologią stawiającą sobie za jeden z głównych celów stworzenie narzędzia umożliwiającego wytwarzanie w sposób sztuczny w pełni funkcjonalnych narządów, mogących stanowić transplanty do przeszczepów. Jest to cel niezwykle ambitny, niemniej jednak postęp jaki dokonał się w przeciągu ostatnich kilku
Przykładowa komercyjnie dostępna biodrukarka 3D. Źródło
lat (w ramach którego biodruk 3D ukształtował się jako niezależna dyscyplina naukowa) daje silne podstawy do stwierdzenia, że nie ma fundamentalnych przeszkód dla których cel powyższy nie mógłby zostać ostatecznie osiągnięty. Warto przytoczyć tu, że na chwilę obecną z wykorzystaniem technologii biodruku 3D wytworzono między innymi modele: skóry, tkanki wątroby czy też (bijącego) organoidu serca. Wytworzone w technologii biodruku 3D transplanty ucha, kości i mięśni przeszły pomyśle testy na myszach i szczurach. Powyższe obiecujące wyniki dały impuls do opracowania rozwiązań i usług w zakresie biodruku 3D oferowanych przez takie firmy jak Organovo (USA),Aspect Biosystems (Kanada), 3D Bioprinting Solutions (Rosja)czy Rokit (Korea Południowa). Ważnym wyzwaniem dla biodruku 3D jest wykorzystanie pluripotentnych komórek macierzystych, tak by uzyskać możliwość przygotowania transplantu 3D w oparciu o pobrany od pacjenta wycinek tkanki. Zanim jednak biodruk 3D znajdzie zastosowanie w praktyce klinicznej, będzie najpierw wykorzystywany do przygotowania trójwymiarowych hodowli przeznaczonych do testowania leków oraz np. tworzenia (dyskutowanego w punkcie 3) syntetycznego mięsa. Na zakończenie, pozwolę sobie dodać, że od kilku lat badania nad biodrukiem 3D prowadzimy w ramach Garażu Złożoności na Uniwersytecie Jagiellońskim [Ref].
6. Sztuczna inteligencja
Sztuczna inteligencja o której tak dużo dzisiaj słyszymy to głównie tak zwana “wąska” sztuczna inteligencja (Artificial Narrow Intelligence – ANI) wyspecjalizowana na rozwiązywaniu konkretnego typu problemów. Na przykład, ANI potrafi rozpoznawać obrazy lub też wygrywać z mistrzami gry w go. Zastosowań ANI jest obecnie na prawdę dużo. ANI opiera się głównie na tak zwanych głębokich sztucznych sieciach
neuronowych (ang. deep learning), których struktura inspirowana jest budową kory mózgowej. Warto tu dodać, że złożony proces uczenia sieci neuronowych może zostać wsparty przez komputery kwantowe (dyskutowane w punkcie 1 ). Nadchodząca dekada przyniesie niewątpliwie nie tylko lawinę nowych zastosowań ANI ale również nastąpi znaczący postęp w kierunku stworzenia tak zwanej ogólnej sztucznej inteligencji (Artificial General Intelligence – AGI). AGI definiuje się jako typ sztucznej inteligencji odpowiadającej zdolnościom umysłowym człowieka. Rozważa się obecnie kilka dróg do utworzenia AGI. Osobiście, za najbardziej obiecującą (i już najbardziej zaawansowaną) drogę do osiągnięcia AGI uważam symulacje ludzkiego mózgu. Badania zmierzające w tym kierunku prowadzone są m.in. w ramach flagowego projektu Komisji Europejskiej Human Brain Project (HBP). Symulacje te napotykają na szereg problemów natury technicznej. Jednym z obiecujących możliwości ich przezwyciężenia i szybszego przybliżenia nas do AGI są procesory neuromorficzne. Procesory takie już na poziomie swojej architektury odwzorowują strukturę połączeń neuronalnych, co znacznie ułatwia prowadzenie symulacji. Przykładem takiego procesora jest chip Loihi zbudowany przez firmę Intel. Zawiera on 130 000 sztucznych neuronów oraz 130 milionów synaps. Architekturę neuromorficzną wykorzystuje się również w niedawno uruchomionym superkomputerze SpiNNaker, działającym w ramach projektu HBP. Do przeprowadzenia symulacji systemów neuronalnych nie wystarczy jednak sam software i hardware. Potrzebne są również dane wejściowe do przeprowadzenia symulacji, lub mówiąc precyzyjniej emulacji mózgu. Należy je pozyskać z inwazyjnego lub bezinwazyjnego obrazowania mózgu. W szczególności, obiecująca jest inwazyjna metoda oparta o tzw. Serial Section Electron Microscopy. Z jej pomocą, uzyskano niedawno kompletny konektom mózgu małej rybki o nazwie Danio pręgowany [Ref]. Zobrazowanie tą metodą i zrekonstruowania konektomu jednego milimetra sześciennego tkanki mózgowej stawia sobie za cel, rozpoczęty w 2016-tym roku, projekt MICrONS. Patrząc bardziej w przyszłość, osiągnięcie AGI, otworzy drogę do tak zwanej superinteligencji (Artificial Super Intelligence – ASI), przekraczającej ludzkie możliwości umysłowe.
7. Internet kwantowy
Internet kwantowy to hipotetyczna globalna sieć kwantowa (ang. quantum network), która pozwoli w przyszłości na wymianę informacji kwantowej, w szczególności pomiędzy komputerami kwantowymi (o których pisałem w punkcie 1 ). Czym faktycznie okaże się kwantowy internet i jakie będzie jego znaczenie, tego jeszcze nie wiemy. Pierwszym zaś etapem jego tworzenia, rozwijanym obecnie, jest kwantowa dystrybucja klucza (KDK). Kwantowa dystrybucja klucza jest,
rozważaną w ramach kryptografii kwantowej metodą bezpiecznego przesyłania klucza za pośrednictwem stanów kwantowych pojedynczych fotonów. Metoda ta wykorzystuje własności mechaniki kwantowej (w szczególności tak zwane twierdzenie o zakazie klonowania) do przesyłania klucza, który zostanie później wykorzystany do zaszyfrowania i odszyfrowania przesyłanej już przez kanał klasyczny informacji. Kwantowa dystrybucja klucza jest rozwiązaniem, które zostało wdrożone do komercyjnego użytku. Na zdjęciu powyżej można zobaczyć przykładowy zestaw do KDK. Dostępne jednakże obecnie rozwiązania posiadają jedno kluczowe ograniczenie. Mianowicie, jest to dystans, na który możemy przesłać zabezpieczoną kwantowo informację. Wiąże się to z tłumieniem fotonów w światłowodzie i koniecznością stosowania skomplikowanych tzw. powielaczy kwantowych. Obiecującym rozwiązaniem tego problemu jest przesyłanie fotonów z zakodowaną informacją kwantową poprzez atmosferę oraz przestrzeń kosmiczną. Udane próby interkontynentalnej KDK z wykorzystaniem kwantowych technologii satelitarnych udało się przeprowadzić w 2017-tym roku, co dyskutuję we wpisie Kwantowa łączność satelitarna. Obecnie trwają prace nad kilkoma projektami satelitarnymi które mają na celu rozwój kwantowych technologii związanych z łącznością satelitarną. Stworzenie podwalin dla internetu kwantowego to również jeden z filarów, rozpisanego na okres dziesięciu lat (2018-2028), flagowego programu Komisji Europejskiej Quantum Flagship.
8. Nowa energetyka jądrowa
Technologiczny rozwój naszej cywilizacji wymaga coraz większej ilości energii. Popyt ten jest dzisiaj wciąż w dużej mierze zaspokajany przez paliwa kopane, spalanie których niesie jednak negatywne skutki dla jakości powietrza oraz prowadzi do zmian klimatycznych. Odnawialne źródła energii takie jak fotowoltaika i farmy wiatrowe dostarczają jedynie częściowego rozwiązania tego problemu. Przeszkodą w ich rozwoju jest problem magazynowania energii, który jednakże może być w dużym stopniu
przezwyciężony stosując takie rozwiązania jak systemy power-to-gas czy też poprzez redukcję strat na przesyle energii na duże odległości (np. stosując w przyszłości nadprzewodzące sieci transmisyjne). Duże nadzieje związane z zapewnieniem stabilnego źródła energii (zarówno elektrycznej jak i cieplnej) niosą nowe rozwiązania w obszarze energetyki jądrowej. Wymarzonym źródłem energii jest kontrolowana reakcja syntezy (fuzji) termojądrowej. Obecnie we francuskiej Prowansji trwa budowa eksperymentalnego reaktora ITER, mającego rozpocząć pierwsze eksperymenty z plazmą w połowie nadchodzącej dekady. Do 2035-tego roku planowane jest natomiast osiągnięcie generacji mocy rzędu 1GW (tyle samo co w typowym bloku elektrowni) i samo-podtrzymywanie plazmy przez nawet 1000 sekund. Jeśli projekt zostanie zwieńczony sukcesem, na jego kanwie ma zostać uruchomiony (prawdopodobnie w latach 2050-2060) pierwszy komercyjny blok termojądrowy o nazwie DEMO. Są to jednak odległe perspektywy. Dużo realniejsze w nadchodzącej dekadzie może natomiast stać się wykorzystanie nowych typów reaktorów bazujących nie na syntezie lecz na, stosowanym obecnie w elektrowniach atomowych, rozpadzie jądrowym. Chodzi mianowicie o tak zwane reaktory jądrowe IV generacji, których bardzo obiecującym przykładem (w perspektywie najbliższej dekady) jest reaktor wysokotemperaturowy chłodzony gazem (HTRG – High Temperature Gas-cooled Reactor). Reaktory HTRG pozwalają na bezpieczną i bezemisyjną generację dużych ilości ciepła, znajdującego zastosowanie w przemyśle ciężkim, np. do wytopu żelaza. Ponadto, odbiorcą ciepła może być proces wytwarzania wodoru do zasilania ogniw paliwowych znajdujących zastosowanie w elektromobilności, dyskutowanej w punkcie 9. W przeciwieństwie do standardowych elektrowni jądrowych, reaktory HTRG o mocy rzędu 200 MW mają konstrukcję modułową i można je w znacznym stopniu budować w fabryce po czym integrować w miejscu przeznaczenia (np. na terenie huty).
9. Elektromobilność
Samochody elektryczne przez wiele lat wydawały się mrzonką. Powstające prototypy były raczej ciekawostką i mało kto na poważnie brał pod uwagę możliwość tego, że za jego życia elektrycznie napędzane samochody zaczną królować na drogach i sama/sam zasiądzie za kierownicą jednego z nich. Wszystko jednak zmieniło się w przeciągu kilku ostatnich lat,
Prognoza rocznej sprzedaży aut elektrycznych. Źródło
głównie za sprawą pojazdów firmy Tesla. W samym 2018-tym sprzedaż samochodów elektrycznych w USA zanotowała wzrost na poziomie 81 %, osiągając 2.1 % procent rynku samochodów w tym kraju. Globalny udział samochodów elektrycznych na koniec 2018-tego roku to zaś już 4.6%. Najwięcej z nich sprzedaje się w Chinach, gdzie liczba ta przekroczyła już roczną sprzedaż miliona sztuk. Jak wskazuje raport z 2016-tego roku, przygotowany przez Helgi Library, do końca 2030-tego roku około 20% sprzedawanych samochodów będą stanowiły samochody elektryczne. Będzie się to przekładało na sprzedaż około 20 milionów sztuk rocznie. Otrzymane jednak w latach 2017-2018 wzrosty przewyższają prognozy na te lata. W konsekwencji, jak wskazują aktualniejsze analizy, poziom 20% w USA może zostać osiągnięty już w 2025-tym roku. Kluczowym czynnikiem który zadecyduje o adaptacji samochodów elektrycznych będzie ich cena. Od strony osiągów, samochody te już nie tylko dorównują tym konwencjonalnym, a wręcz w wielu aspektach są od nich lepsze (np. przyśpieszenie). Cena w dużym stopniu uzależniona jest od kosztów baterii. Technologa która jest tu głównie stosowana to akumulatory litowo-jonowe (Li-Ion). Sztandarowy produkt Tesli Model S w wersji o pojemności 85kWh posiada matrycę 7104 akumulatorów o rozmiarach nieco większych od bateria AA każdy. Rosnący popyt na akumulatory litowo-jonowe mają zaspokoić, między innymi, powstające giga fabryki (Gigafacory). Ich pracę mogą jednak zakłócić ceny kluczowych do wytworzenie akumulatorów Li-Ion pierwiastków – litu i kobaltu. Notowania tych surowców odnotowały w ostatnich latach bardzo dynamiczny wzrost. Jednak baterie do samochodów to nie tylko problem kosztów ich wytworzenia, ale również ich recyklingu. Alternatywą dla akumulatorów mogą zaś okazać się ogniwa wodorowe. Z pewnością, rozwój elektromobilności dokona rewolucji rynku samochodowego oraz takich obszarów jak serwisowanie pojazdów. Warte podkreślenia jest to, że równolegle do rozwoju elektromobilności opracowywane i wdrażane są rozwiązania związane z autonomicznością pojazdów (oparte m.in. o wąską sztuczną inteligencję, dyskutowaną w punkcie 6 oraz nawigację satelitarną – punkt 2). Połączenie tych dwóch elementów dokona w nadchodzącej dekadzie transformacji motoryzacji, a nazwa “samochód” nabierze nowego znaczenia. Rosnąca rola bezemisyjnych samochodów elektrycznych będzie miała istotne znaczenie dla ograniczenia emisji gazów cieplarnianych i zanieczyszczeń do atmosfery.
10. Kolej próżniowa
W sierpniu 2013-tego roku grupa inżynierów z firm Tesla i SpaceX, pod kierownictwem Elona Muska, przedstawiła koncepcję nowego środka transportu, określonego mianem hyperloop. Założenia stojące za tym rozwiązaniem oraz wstępne studium wykonalności zawarto w raporcie Hyperloop Alpha. Idea hyperloop polega na transporcie kapsuły (z pasażerami lub towarami) w rurze z obniżonym ciśnieniem, co ma na celu
Testowa linia kolei próżniowej firmy Hyperloop One. Źródło
zredukowanie oporu aerodynamicznego. Zakłada się, że kapsuła mogłaby poruszać się z prędkościami osiągającymi prędkości dźwięku, co stanowiłoby realną konkurencję dla komunikacji lotniczej na odległościach subkontynentalnych. Niezwykle ważne jest również to, że hyperloop wykorzystując jedynie energię elektryczną jest rozwiązaniem bezemisyjnym. Jego rozwój, jako alternatywy dla nieekologicznego ruchu lotniczego, jest więc ważny z punktu widzenia ograniczania emisji dwutlenku węgla do atmosfery. Nad wdrożeniem technologii hyperloop pracuje obecnie kilka firm, wśród których wiodącą rolę odgrywają Hyperloop One i Hyperloop Transportation Technologies. W Polsce ideę hyperloop rozwija startup Hyperloop Poland. Wdrożenie hyperloop jako środka transportu stawia szereg wyzwań zarówno natury inżynieryjnej jak i ekonomicznej. Problemem technicznym jest, w szczególności, kwestia kompresji powietrza w przedniej części kapsuły i związany z tym wzrost ciśnienia, hamujący ruch samej kapsuły. Efekt ten zaczyna być szczególnie dokuczliwy gdy prędkość kapsuły osiąga prędkość dźwięku, uniemożliwiając cząsteczkom powietrza opływ kapsuły poprzez obszar pomiędzy wewnętrzną powierzchnią rury, a powierzchnią kapsuły. Zjawisko to wiąże się z istnieniem tak zwanej granica Kantrowitza (ang. Kantrowitz limit), która zadaje maksymalną prędkość z jaką może poruszać się obiekt dla określonego stosunku przekroju tego obiektu względem przekroju poprzecznego rury. Rozwiązaniem problemu wzrostu ciśnienia powietrza w przedniej części kapsuły jest zastosowania kompresora, który odpompowuje nadmiar powietrza do tylnej części kapsuły. Rozwiązanie takie ma jeszcze jedną zaletę; mianowicie, odprowadzane powietrze może zostać użyte do utrzymania kapsuły na wytworzonej poduszce powietrznej, jak w przypadku poduszkowca. Zastosowanie lewitacji (w tym przypadku ciśnieniowej) jest kluczowe do zredukowania tarcia pomiędzy kapsułą, a tubą. Alternatywnie, rozważane jest zastosowanie lewitacji magnetycznej, jak np. w szanghajskim Maglevie. Wykorzystanie takiego rozwiązania jest jednak dużo kosztowniejsze i wymaga większego zasilania (chyba, że zastosowane zostaną magnesy stałe). Budowa od podstaw infrastruktury Hyperloop to ogromne wyzwanie ekonomiczne i planistyczne, jednakże już dzisiaj zapadają pierwsze decyzje dotyczące planów budowy instalacji kolei próżniowej.
11. Lab-on-a-chip
Wykonując ilościowe badania mikrobiologiczne standardowymi metodami musimy liczyć się z tym że, na ich wyniki będziemy musieli czekać przynajmniej 24 godziny, a w przypadku niektórych patogenów (np. grzyby) nawet kilka-kilkanaście dni. Wynika to z faktu, iż dla klasycznych posiewów na szalce Petriego należy inkubować kolonie komórkowe do czasu aż osiągną one makroskopowe rozmiary, pozwalające na zliczenie ich liczby gołym okiem. Ta skrajnie archaiczna metoda, nie przystająca do współczesnych realiów, jest jednak wciąż najpowszechniejszym sposobem analizy mikrobiologicznej zarówno w diagnostyce medycznej jaki i w przemyśle spożywczym, farmaceutycznym i kosmetycznym. Sytuacja ta ma jednak szansę ulec zmianie za sprawą rozwiązań typu lab-on-a-chip, czyli miniaturowych systemów analitycznych. Układy tego typu mogą np. wykrywać i zliczać pojedyncze bakterie, eliminując konieczność długotrwałego oczekiwania na wyniki
Przykład mikrofluidycznego układu lab-on-a-chip. Źródło
badań mikrobiologicznych (wymagających odczekania kilkunastu/kilkudziesięciu cykli podziałów komórek). Układy lab-on-a-chip zazwyczaj wykorzystują rozwiązania mikroprzepływowe (tzw. układy mikrofluidyczne) pozwalające na przeprowadzanie reakcji chemicznych czy też biochemicznych, operując na objętościach płynów rzędu mikro litrów lub mniejszych. Układy tego typu wykonuje się zazwyczaj metodami litograficznymi w płytce ze szkła akrylowego (zdjęcie powyżej). Szczególną klasą systemów mikroprzepływowych są modele organów tzw. organ-on-a-chip. Przykładu rozwiązania lab-on-a-chip dostarczają również miniaturowe układy do sekwencjonowania DNA, wspomniane w punkcie 4. Miniaturyzacja i obniżenie kosztu układów diagnostycznych doprowadzi do ich szerokiego rozpowszechnienia. Będzie to miało duże znaczenie dla podniesienia poziomu diagnostyki medycznej w rozwijających się rejonach świata. Układy lab-on-a-chip nie tylko (jako np. przystawki do smartfonów) trafią do naszych domów ale również umożliwią prowadzenie badań biomedycznych w warunkach kosmicznych, co już ma miejsce. Połączenie rozwiązań nanosatelitarnych (dyskutowanych w punkcie 2) z układami lab-on-a-chip może, w szczególności, dostarczyć metody opracowywania leków dedykowanych dla przyszłych kosmicznych eksploratorów [Ref].
12. Blockchain
Blockchain to rozproszona baza danych (księga rachunkowa) nie posiadająca centralnej jednostki autoryzującej. Pomimo, że koncepcja ta była znana już wcześniej, szerokie zastosowanie znalazła dzięki kryptowalucie Bitcoin, której założenia zostały przedstawione w 2009-tym roku w pracy Bitcoin: A Peer-to-Peer Electronic Cash System. Wprowadzenie Bitcoina pociągnęło za sobą utworzenie wielu konkurencyjnych kryptowalut, których (na giełdach kryptowalut) notowanych jest już kilka tysięcy. Funkcjonowanie Blockchainu wymaga zastosowania szeregu rozwiązań kryptograficznych, zapewniających poprawne funkcjonowanie systemu. Są to zarówno
Popularne kryptowaluty oparte o technologię Blockchain. Źródło
podpis elektroniczny, wykorzystywany do uwierzytelniania transakcji, jak i funkcje haszujące mające zastosowanie do tworzenia adresów bloków oraz w procesie tzw. kopania (mining). Kopanie jest związane z metodą nagradzania osób, które angażują się w podtrzymywanie Blockchainu, co jest niezbędne do jego funkcjonowania. W przypadku Bitcoina, stosowana jest funkcja haszująca SHA-256, która jest bardzo powszechnie wykorzystywana w zabezpieczaniu np. wymiany informacji w internecie (kliknij na kłódkę w przeglądarce w pasku adresu tej strony i zwróć uwagę na szczegóły certyfikatu TLS). Proces kopania, czyli poszukiwania rozwiązania zadania opartego o przeszukiwanie dziedziny funkcji haszującej, jest jednak zadaniem bardzo żmudnym i wymagającym ogromnych mocy obliczeniowych. Tylko w przypadku Bitcoina (jak wskazuje Bitcoin Energy Consumption Index) roczna konsumpcja energii elektrycznej wynosi około 50 TWh, co przekłada się na średnią pobieraną moc 5,7 GW. Jest to porównywalne z mocą pięciu elektrowni atomowych lub całkowitym zapotrzebowaniem na energię elektryczną Singapuru. Ponieważ energia ta pochodzi jednak w głównej mierze z elektrowni węglowych, tak duża konsumpcja energii rodzi obawy związane z emisją dwutlenku węgla i jego negatywnego wpływu na klimat [Ref]. Problem ten będzie musiał znaleźć rozwiązanie w przyszłych implementacjach technologii Blockchain. Kolejnym problemem, jaki stoi przed stabilnością rozwiązań opartych o Blockchain jest kwestia podatności na ataki na wykorzystane rozwiązania kryptograficzne. Kwestię tę dyskutuję dokładniej we wpisie Kryptowaluty-Kwanty-Kosmos. Rzecz mianowicie dotyczy nowych możliwości zarówno rekonstrukcji kluczy prywatnych (w tzw. kryptografii asymetrycznej) jak i przeszukiwania dziedzin funkcji haszujących, jakich dostarczą komputery kwantowe, dyskutowane w punkcie 1. Przyszłe implementacje Blockchainu będą wymagały zastosowania klasycznych algorytmów kryptograficznych nie podatnych na ataki kwantowe. Algorytmy takie są dzisiaj opracowywane w ramach tak zwanej kryptografii postkwantowej. Ponadto, rozwój internetu kwantowego (dyskutowanego w punkcie 7) pozwoli na wprowadzenie Blockchainu opartego o kwantową dystrybucję klucza. Prace nad kwantowo zabezpieczoną wersją Blockchainu są już obecnie prowadzone [Ref]. Warto na koniec podkreślić, że Blockchain ma zastosowanie nie tylko w obszarze finansowym. Do przyszłych pól implementacji tej technologii możemy zaliczyć m.in.: przechowywanie danych medycznych, ubezpieczenia, zarządzanie infrastrukturą IoT, elektroniczne zawieranie umów, księgi wieczyste, kontrola nad prawami do utworów artystycznych oraz zarządzanie łańcuchami dostaw.
W 1948-tym roku, w artykule Space-Time Approach to Non-Relativistic Quantum Mechanics, Richard Feynman wprowadził nowatorskie podejście do mechaniki kwantowej, oparte o tak zwane całki po trajektoriach. W jego oryginalnym sformułowaniu, amplituda prawdopodobieństwa przejścia cząstki punktowej z pozycji w chwili do pozycji w chwili wyraża się poprzez następującą całkę:
,
gdzie to tak zwane działanie, będące funkcjonałem trajektorii od punktu do punktu . Działanie wyraża się poprzez funkcję Lagrange’a (lagranżjan) w następujący sposób:
.
Sformułowanie całek po trajektoriach mówi nam, że amplituda prawdopodobieństwa (tzw. propagator) jest całką (sumą) po czynnikach fazowych dla wszystkich możliwych trajektorii biegnących od do . Praktyka wygląda jednak nieco inaczej i w obliczeniach uwzględniane są zazwyczaj jedynie trajektorie które nie łamią przyczynowości (kauzalności). Są to trajektorie które, w swoje drodze od do , nie cofają się nigdy wstecz w czasie. Obrazuje to rysunek poniżej:
Trajektorie kauzalne i akauzalne.
Niebieskie krzywe na powyższym rysunku to trajektorie kauzalne. Dla tych trajektorii, w dowolnej chwili czasu, np. dla , cząstka istnieje tylko w jednym miejscu, oznaczonym jako szary punkt. Dla porównania, czerwona krzywa przedstawia trajektorię akauzalną, dla której, w przedziale od do , następuje cofanie się w czasie. Alternatywnie, możemy tę trajektorię zinterpretować w następujący sposób: Mianowicie, idąc w przód w czasie, od aż do chwili , mamy jedną cząstkę. Natomiast, w chwili następuje kreacja cząstki i antycząstki. Przy czym, antycząstka porusza się wstecz w czasie i anihiluje z wyjściową cząstką w chwili . Natomiast, powstała w chwili cząstka podąża trajektorią kauzalną aż do . Uwzględnienie procesów kreacji i anihilacji cząsteczek wychodzi, jednakże, poza opis cząstkowy i wymaga odwołania się do opisu w języku kwantowej teorii pola. Opis całek po trajektoriach dla cząstek nie jest więc wystarczający do tego by opisać trajektorie akauzalne, dla których możemy w pewnych momentach (np. w chwili ) obserwować więcej niż jedną cząstkę (np. w chwili mamy ich 3). Warto tu wspomnieć, że Richard Feynman jeszcze w czasach przed powstaniem nowoczesnej kwantowej teorii pola (której sam był współtwórcą) zastanawiał się nad znaczeniem akauzalnych trajektorii. Opisuje to James Gleick w książce biograficznej Feynmana pt. “Geniusz”. Feynman miał mianowicie pomysł, iż wszystkie cząstki i antycząstki danego typu (np. elektrony i pozytony) są częścią jednej bardzo długiej pozawijanej w czasoprzestrzeni trajektorii. Przy czym, jej częściom skierowanym w przód w czasie odpowiadają cząstki, natomiast odcinkom skierowanym w tył w czasie odpowiadają antycząstki. Zmiany zwrotu takiej trajektorii w czasie (tak jak w i na rysunku powyżej) interpretujemy zaś jako kreacja lub anihilacja par cząstka-antycząstka. Obraz ten możemy, jedynie do pewnego stopnia, zachować w ramach współczesnej kwantowej teorii pól. W szczególności, antycząstki faktycznie można opisywać jako poruszające się wstecz w czasie cząstki (w sensie zadziałania na stan cząstki operacjami inwersji w czasie oraz parzystości). Nie wchodząc w dalsze szczegóły pomysłu Feynmana, zwróćmy jeszcze jedynie uwagę na kwestię prędkości, czyli pochodnej położenia po czasie, . Na powyższym rysunku, różniczkowalność trajektorii (brak “kolców”) powoduje, że zbliżając się do punktów w i dla (czerwonej) trajektorii akauzalnej, prędkość dąży do plus lub minus nieskończoności (w zależności od której strony dochodzimy do punktu zwrotu). To zaś jest w sprzeczności ze Szczególną Teorią Względności która, poprzez lorentzowską geometrię czasoprzestrzeni Minkowskiego, wprowadza górne ograniczenie na prędkość rozchodzenia się informacji, równe prędkości światła w próżni.
Ograniczenie na prędkość propagacji nie istniałoby, gdyby czasoprzestrzeń posiadała geometrię euklidesową. Choć wiemy, że w rzeczywistości tak nie jest, okazuję się jednak, że przejście z czasoprzestrzeni Minkowkiego do przestrzeni euklidesowej ma znacznie na gruncie rozważań teoretycznych. Mianowicie, rozpatrywanie euklidesowych wersji teorii pozwala na analizę tak zwanych instantonów. Są to, dla cząstek, rozwiązania w odwróconej studni potencjału, czyli w obszarach do których klasyczne cząstki nie mają dostępu. Rozważanie instantonów, w szczególności, pozwala wyznaczać prawdopodobieństwa tunelowania kwantowego.
Obrót Wicka na płaszczyźnie zespolonej.
Technicznie, przejście z czasoprzestrzeni Minkowskiego do przestrzeni euklidesowej możemy przeprowadzić za pomocą obrotu Wicka. Jest to przykład tak zwanego przedłużenia analitycznego, rozszerzającego rzeczywistą zmienną czasową do dziedziny liczb zespolonych. W tym szczególnym przypadku, dokonujemy zamiany , gdzie jest naszą nową (euklidesową) zmienną czasową, zaś to jednostka urojona (). Obrót Wick ma bardzo ważne znacznie w podejściu całek po trajektoriach. Przekształca on mianowicie zespoloną całkę do postaci przypominającej rzeczywistą sumę statystyczną (ang. partition function), rozważaną w fizyce statystycznej. Co więcej, okazuje się, że jeśli rozważymy szczególny typ trajektorii w których wracamy do wyjściowego położenia po czasie , (gdzie to stała Boltzmanna) całka po trajektorii da nam dokładnie funkcję rozdziału dla temperatury :
,
gdzie to tzw. działanie euklidesowe. Natomiast, przy całkowaniu , spełniony jest warunek . Jest to ważny wynik gdyż pozwala rozpatrywać całki po trajektoriach jako pewne układy statystyczne i stosować do ich obliczania metody znane z fizyki statystycznej. W szczególności, chodzi o symulacje komputerowe oparte na metodach Monte Carlo. Stan równowagi termodynamicznej takiego układu można natomiast związać z euklidesową trajektorią klasyczną (minimalizującą działanie). Fluktuacje termiczne dualnego systemu statystycznego odpowiadają zaś fluktuacjom kwantowym wokół rozważanej wyjściowo trajektorii klasycznej.
Powyższe rozważania możemy zastosować nie tylko do cząstek, ale również do pól fizycznych, takich jak pole grawitacyjne. W przypadku grawitacji, całki po trajektoriach pozwalają analizować możliwe efekty kwantowej natury zjawisk grawitacyjnych. Jednym z najlepiej zbadanych podejść do grawitacji kwantowej, bazującym na całkach po trajektoriach, są tak zwane Kauzalne Dynamiczne Triangulacje (ang. Causal Dynamical Triangulations – CDT), wprowadzone przez Jana Ambjørna, Jerzego Jurkiewicza oraz Renate Loll i rozwijane już przez ponad 20 lat. W przypadku tym, zamiast cząstki, rozważamy konfigurację pola grawitacyjnego, której odpowiada geometria przestrzenna. Rozważania w ramach CDT przeprowadzono najpierw dla przypadku modelu przestrzeni jednowymiarowej, po czym uogólniono je do dwóch oraz, finalnie, trzech wymiarów przestrzennych.
Ewolucji geometrii przestrzennej w czasie, odpowiada geometria czasoprzestrzenna. Konfiguracje czasoprzestrzenne, łączące dwa brzegowe (początkowy i końcowy) stany geometrii przestrzennej są zaś naszymi nowymi trajektoriami (analogicznie do przypadku rozważanej wcześniej cząstki punktowej). Działaniem które należy rozważyć w całkach po trajektoriach jest tak zwane działania Hilberta-Einsteina, z którego można wyprowadzić (korzystając z zasady najmniejszego działania) równania ogólnej teorii względności (OTW). Do działania grawitacyjnego, można również dodać wkład odpowiadający polom materii, co jednak wprowadza dodatkowe komplikacje. W związku z tym, w przeprowadzonych dotychczas rozważaniach, koncentrowano się na tzw. przypadku próżniowym, uwzględniającym kontrybucję od (dodatniej) stałej kosmologicznej. Całkowite działanie ma, w tym przypadku, postać:
,
gdzie całkowanie odbywa się po rozmaitości z brzegami czasowymi oraz . Natomiast, to stała Newtona, jest skalarem krzywizny Ricciego, oznacza zaś wyznacznik z metryki czasoprzestrzennej .
W przypadku CDT, powyższe działanie poddawane jest obrotowi Wicka, umożliwiając przejście do geometrii euklidesowej. Z jednej strony, zabieg taki przeprowadza zespolony propagator do postaci rzeczywistej funkcji rozdziału, prowadząc do wspomnianego związku z fizyką statystyczną. Z drugiej jednak strony, geometria czasoprzestrzenna pozbawiana zostaje stożków świetlnych, co pozwala na obecność akauzalnych wkładów do całki po trajektoriach. Idea CDT opiera się na narzuceniu kauzalności trajektorii, pomimo rozważania teorii, wydawałoby się, euklidesowej. Wprowadzenie warunku kauzalności usuwa z całki po trajektoriach “gałęzie” odchodzące z głównego “pnia” czasoprzestrzeni łączącej stan początkowy ze stanem końcowym . Przedstawiono to na poniższym rysunku:
Przykładowa trajektoria geometrii od konfiguracji początkowej do konfiguracji końcowej . W ramach Kauzalnych Dynamicznych Triangulacji, nie są dozwolone akauzalne rozgałęzienia geometrii.
Jedynie w przypadku jednowymiarowej części przestrzennej możliwe okazało się uzyskanie amplitud prawdopodobieństwa w oparciu o obliczenia analityczne. Zbadania przypadków wyżej-wymiarowych, w tym tego odpowiadającego czterowymiarowej czasoprzestrzeni, wymaga zastosowania metod numerycznych. Przeprowadzenie symulacji kwantowych ciągłych geometrii wymaga jednakże ich wcześniejszej dyskretyzacji, w celu zredukowania liczby stopni swobody. W praktyce, stosowana jest tak zwana dyskretyzacja Regge, bazująca na triangulacji ciągłej geometrii czasoprzestrzennej. Przygotowana w ten sposób dyskretna geometria, wraz z dyskretną wersją działania, stanowi punkt wyjścia do przeprowadzenia symulacji komputerowych.
Narzucenie na (dyskretne) trajektorie warunku kauzalności, przekłada się na zachowanie w czasie ich topologii. Na przykład, jeśli wyjściowa geometria przestrzenna posiada topologię okręgu (jak na rysunku powyżej), pozostaje nią w całym toku ewolucji. Złamanie kauzalności, poprzez pojawienie się odnóg, powoduje że topologia przestrzenna ulega zmianie, na przykład poprzez rozszczepienie okręgu na dwa okręgi. Sytuację taką widzimy w dolnej części, umieszczonego powyższej, rysunku.
Najbardziej zaawansowane na świecie symulacje CDT przeprowadzane są od wielu lat w Zakładzie Teorii Układów Złożonych w Instytucie Fizyki na Uniwersytecie Jagiellońskim w Krakowie. W symulacjach tych, przyjmuje się topologię przestrzenną 3-sfery (), bądź też trójwymiarowego torusa (). Przy czym, przypadek topologii 3-sfery został, jak dotąd, najlepiej przebadany i na dyskusji, otrzymanych dla niego, wyników się tutaj skupimy.
Pierwszym ważnym rezultatem przeprowadzonych symulacji jest wykazanie istnienia nietrywialnej struktury fazowej czasoprzestrzeni. Zagadnie to dyskutuję w moim wcześniejszym wpisie “Stany skupienia grawitacji“. Jedna z obserwowanych faz, tak zwana faza C, odpowiada przypadkowi semi-klasycznemu, który koresponduje z rozwiązaniami klasycznej OTW. Ważną własnością fazy C jest to, że jej wymiar, na odpowiednio dużych skalach, równy jest 4, co jest zgodne z przypadkiem czterowymiarowej czasoprzestrzeni w której żyjemy. Jednakże, analiza tak zwanego wymiaru spektralnego (ang. spectral dimension), wskazuje na to że wymiar spada kiedy rozpatrujemy odpowiednio małe skale przestrzenne i czasowe [Ambjorn, Jurkiewicz & Loll (2005)]. Jest to tak zwana redukcja wymiarowa, spotykana również w innych podejściach do kwantowej grawitacji. Redukcja wymiarowa wskazuje na to, że choć na odpowiednio dużych skalach geometria fazy C zgodna jest z euklidesową wersją czasoprzestrzeni de Sittera, to jednak na małych skalach wykazuje ona naturę kwantową. Dlatego też, określamy ją mianem semi-klasycznej, czyli korespondującej z fizyką klasyczną, jednakże wciąż wykazującą pewne własności kwantowe. Poniżej przedstawiono jak wygląda przykładowa semi-klasyczna trajektoria otrzymana w ramach komputerowych symulacji CDT.
Przykładowa trajektoria instantonowa, otrzymana w ramach Kauzalnych Dynamicznych Triangulacji. Źródło
Jak należy rozumieć przedstawiony powyżej kształt? Po pierwsze, uściślijmy, że oś symetrii rotacyjnej powyższej geometrii odpowiada czasowi urojonemu . Po drugie, w czasie tym narzucony jest symetryczny warunek brzegowy , wymagany w przypadku przejścia od całek po trajektoriach do funkcji rozdziału .
Okazuje się, że otrzymany kształt dla trajektorii semi-klasycznej (odpowiadającej stanowi równowagi termodynamicznej w ujęciu fizyki statystycznej) zgodny jest z rozwiązaniem dla klasycznego instantonu de Sittera. Instanton ten jest euklidesową trajektorią (pod barierą potencjału) dla modelu de Sittera w zakresie czynnika skali, gdzie . Aby otrzymać równanie trajektorii instantonowej, rozważmy wszechświat de Sittera (metryka FRW z dodatnią stałą kosmologiczną oraz dodatnią krzywizną przestrzenną), dla którego równanie Friedmanna przyjmuje postać:
.
Rozwiązaniem tego równania jest funkcja hiperboliczna . Jest to przykład nieosobliwej ewolucji, reprezentującego wszechświat ulegający najpierw kontrakcji, aż do minimalnej wartości czynnika skali równej , po czym następuje etap ekspansji. Zarówno kontrakcja jak i ekspansja przebiegają w sposób wykładniczy.
Niedozwolonym obszarem dla wprowadzonego powyżej przypadku lorentzowkiego jest przedział czynnika skali , znajdujący się pod barierą potencjału dla tego modelu. Jednakże, dokonując obrotu Wicka przekształcamy rozwiązanie w postaci funkcji cosinus hiperboliczny do funkcji cosinus:
,
tak, że . Jest to poszukiwane rozwiązanie euklidesowe, dla obszaru pod barierą potencjału modelu lorentzowskiego. Ponieważ czynniki skali jest zdefiniowany jako wartość nieujemna, rozwiązanie instantonowe jest dobrze określone w skończonym przedziale czasu urojonego: . Znając ewolucję czynnika skali możemy wyznaczyć również ewolucję objętości, która wyraża się jako . Okazuje się, że funkcja ta jest zgodna z wynikami symulacji przeprowadzonymi w ramach CDT. Mówiąc ściślej, pokrywa się ona z, otrzymaną z uśrednienia po trajektoriach, zależnością objętości części przestrzennej od czasu [Ambjorn, Jurkiewicz & Loll (2004)].
Pokrywanie się przewidywań CDT z klasyczną geometrią przestrzeni de Sittera to bardzo istotny rezultat. Pokazuje on, że jednorodna i izotropowa klasyczna czasoprzestrzeń może wyłonić się jako wynik uśrednienia kwantowych (często bardzo niejednorodnych) trajektorii. Ponadto, w przeciągu ostatnich lat pokazano, że również przewidywane w ramach CDT fluktuacje kwantowe instantonu są z godne z przewidywaniami analitycznymi bazującymi o model de Sittera [Ambjorn, Gorlich, Jurkiewicz & Loll (2008)]. Wyniki te, jak również rezultaty dotyczące struktury fazowej grawitacji oraz redukcji wymiarowej, dają impuls do tego by zacząć myśleć o weryfikacji empirycznej przewidywań CDT. O ile trudno tu mówić o wykorzystaniu naziemnych eksperymentów, to przewidywania dotyczące kosmologii wczesnego wszechświata rodzą pewne nadzieje na narzucenie więzów obserwacyjnych na przewidywania CDT.
Pierwszy krok w tym kierunku poczyniłem w moim artykule From causal dynamical triangulations to astronomical observations, EPL 119 (2017) no. 6, 60003 [arXiv:1503.08794], w którym rozważałem możliwość wykorzystania obserwacji mikrofalowego promieniowania tła do badania, przewidywanej w ramach CDT, redukcji wymiarowej. Jak pokazały obliczenia, pewne szczególne (mało prawdopodobne) scenariusze ewolucji wczesnego wszechświata, uwzględniające przewidywania CDT, już dzisiaj można wykluczyć na postawie obserwacji astronomicznych. Dokonanie znaczącego postępu w tym kierunku w najbliższych latach, nie będzie jednak zadaniem łatwym.
Niezależnie jednak od możliwości weryfikacji empirycznej, zaawansowane symulacje komputerowe kwantowej czasoprzestrzeni, prowadzone w ramach Kauzalnych Dynamicznych Triangulacji, dają nam unikalną możliwość zrozumienia tego jak klasyczna czasoprzestrzeń może wyłaniać się z dynamiki ogromnej liczby kwantowych “cegiełek” na skali Plancka. Wszak jak pozostawił napisane na swojej tablicy Richard Feynman: “What I cannot create, I do not understand.”
Jednym z zagadnień, nad którym obecnie pracuję, jest konstrukcja teorii pól z tak zwanymi zwartymi przestrzeniami fazowymi. Teorie takie są uogólnieniem powszechnie rozważanych w fizyce teoretycznej teorii z afinicznymi (płaskimi) przestrzeniami fazowymi. Kierunek badawczy związany z uzwarcaniem przestrzeni fazowych pól fizycznych zainicjowaliśmy, wspólnie z dr Tomaszem Trześniewskim, w 2016-tym roku w pracy “The Nonlinear Field Space Theory” Phys. Lett. B 759 (2016) 424 (open access). Badania te kontynuujemy obecnie w ramach grantu Sonata Bis 7 z NCN pt. “Teorie pola ze zwartymi przestrzeniami fazowymi − od grawitacji do układów złożonych”. Jednym z ambitnych celów tego projektu jest zbudowanie (kwantowej) teorii grawitacji, cechującej się zwartą przestrzenią fazową. O wynikach prowadzonych przez nas badań napiszę więcej w jednym z kolejnych wpisów. Tutaj zaś chciałbym przygotować niezbędną podbudowę teoretyczną do dyskusji naszych dotychczasowych rezultatów. Przedstawię mianowicie ideę zwartej przestrzeni fazowej na przykładzie układu fizycznego z jednym stopniem swobody, co można uważać za teorię pola skalarnego w punkcie (w przestrzeni zerowymiarowej).
Rozważmy więc pojedynczy stopień swobody, opisywany zmienną . Wartości należą do, tak zwanej, przestrzeni konfiguracyjnej , którą wyjściowo przyjmijmy za zbiór liczb rzeczywistych, . Zmienna może więc przyjmować dowolną wartość z zakresu liczb rzeczywistych i opisywać stopień swobody wybranego układu fizycznego. Jeśli, na przykład, interpretujemy jako wartość pola skalarnego w punkcie, to wybór oznacza, że pole to może zmieniać swoją wartość w zakresie od do . Jeśli zaś opisuje położenie cząstki, to wybór mówi nam, że mamy do czynienia z ruchem w jednym wymiarze przestrzennym, po całej osi liczb rzeczywistych.
Do pełnego scharakteryzowani stanu cząstki nie wystarczy podanie jej położenia. Tak samo, do określenia stanu pola nie wystarczy znajomość jego wartości. W obydwu przypadkach, konieczne jest określenie również tego jak zmienia się w czasie. Informację tę zawiera, sprzężony z , pęd kanoniczny . Pary wyznaczają zaś punkty należące do, tak zwanej, przestrzeni fazowej. Z geometrycznego punktu widzenia, przestrzeń fazowa jest zazwyczaj tzw. wiązką kostyczną do przestrzeni konfiguracyjnej:
,
gdzie to przestrzeń kostyczna do przestrzeni w punkcie . Dla rozważanego przypadku , otrzymujemy , czyli płaszczyznę rzeczywistą. Dowolny punkt na tej płaszczyźnie reprezentuje stan układu klasycznego. Ewolucji układu w czasie odpowiadają zaś trajektorie (rysunek poniżej).
Przestrzeń fazowa , gdzie . to przestrzeń kostyczna do przestrzeni w punkcie . Wiązka kostyczna jest sumą rozłączną przestrzeni kostycznych dla wszystkich . Czarna trajektoria reprezentuje ewolucję układu w czasie. Niebieski punkt wskazuje na jednen ze stanów układu.
Istnieją jednak przypadki w których przestrzeni fazowej nie możemy wyrazić jako wiązki kostycznej . Przykładem tego jest chociażby (zwarta) przestrzeń fazowa o geometrii sfery, którą przedyskutujemy dokładniej w dalszej części. Przypadek ten wpisuje się natomiast w ogólną definicję przestrzeni fazowych, jako tak zwanych rozmaitości symplektycznych, czyli rozmaitości różniczkowych posiadających zamknięte formy różniczkowe
,
gdzie, dla rozważanej wcześniej przestrzeni fazowej , oraz i a forma różniczkowa przyjmuje postać . Symbol oznacza tak zwany iloczyn zewnętrzny (ang. exterior product) form różniczkowych, w rozważanym przypadku 1-formy oraz 1-formy . Zamkniętość 2-formy oznacza zaś, że . Niniejsza własność gwarantuje spełnienie tzw. tożsamości Jacobiego, która zaś implikuje łączność algebry Poissona. Algebra ta konstruowana jest w oparciu o nawias Poissona , gdzie to tak zwany tensor Poissona, otrzymywany przez odwrócenie formy symplektycznej (co nie zawsze jest możliwe). Dla rozważanego przypadku , nawias ten wyraża się jako , tak że dla pary kanonicznie sprzężonych zmiennych i otrzymujemy . Wykorzystując nawias Poissona, możemy wprowadzić równanie Hamiltona , gdzie jest tak zwaną funkcją Hamiltona (hamiltonianem), zaś jest dowolną funkcją na przestrzeni fazowej. Równanie to opisuje ewolucję w czasie układu fizycznego.
Płaskie (afiniczne) przestrzenie fazowe, tak jak rozważany tu przypadek mają szerokie zastosowanie do opisu świata fizycznego. Jednakże, w wielu przypadkach, nieograniczoność tych przestrzeni prowadzi do trudności. Na przykład, w przypadku teorii pól, afiniczność przestrzeni fazowej przekłada się na nieograniczoność energii (hamiltonianu), będącej funkcją zmiennych fazowych. To zaś skutkuje możliwością pojawienia się niefizycznych nieskończoności. Lista potencjalnych problemów jest dłuższa. Możliwym sposobem na ich rozwiązanie jest uzwarcenie przestrzeni fazowej. Poniżej, przedstawię jak taka procedura wygląda w przypadku (płaszczyzna) uzwarconej do (sfera).
Rozważmy zatem sferyczną przestrzeń fazową, tak by w granicy gdy jej promień dąży do nieskończoności, odzyskiwać przypadek przestrzeni fazowej . Innymi słowy, płaska przestrzeń fazowa będzie lokalnym przybliżeniem dla przestrzeni sferycznej, w podobny sposób jak geometria euklidesowa jest lokalnym przybliżeniem dla (nieeuklidesowej) geometrii sferycznej. Zamiast jednak rozważać kąty i długości, w przypadku przestrzeni fazowej obiektem naszego zainteresowania będzie forma symplektyczna .
Naturalnym wyborem formy symplektycznej dla sfery jest 2-forma powierzchni . Kąty oraz to standardowe kąty w sferycznym układzie współrzędnych. Stała została zaś wprowadzona ze względów wymiarowych, tak by forma symplektyczna miała wymiar powierzchni na płaszczyźnie fazowej 2D, czyli położenie razy pęd (= moment pędu). W celu wyrażenia tej formy poprzez zmienne oraz , wykorzystywane w przypadku , wykonajmy następującą zmianę zmiennych:
oraz ,
gdzie i to parametry wprowadzone ze względów wymiarowych. Stosując to do formy , otrzymujemy:
.
Chcąc by w granicy oraz , powyższa forma redukowała się do przypadku płaskiego, czyli , musimy przyjąć by .
Afiniczna (płaska) przestrzeń fazowa może być rozpatrywana jako lokalne przybliżenie zwartej przestrzeni fazowej, na przykład o geometrii sfery .
Spełnienie warunku poprawnej granicy afinicznej implikuje więc, że 2-forma dla (zwartej) sferycznej przestrzeni fazowej ma postać:
.
Podobnie, jak w rozważanym wcześniej przypadku , w oparciu o formę symplektyczną możemy wyznaczyć postać nawiasu Poissona dla sferycznej przestrzeni fazowej:
.
Różnica z przypadkiem polega na obecności czynnika . W konsekwencji, nawias Poissona pomiędzy zmiennymi kanonicznymi przyjmuje postać . Warto tu podkreślić, że zmienne oraz są dobrze zdefiniowane na sferze jedynie lokalnie. Ich wartości nie zmieniają się na sferze w sposób ciągły. W szczególności, , tak że w puncie następuje nieciągłość. O ile, nie ma to znaczenia w przypadku kiedy rozważamy małe wartości (w otoczeniu granicy afinicznej), tak w przypadku analizy globalnych własności sferycznej przestrzeni fazowej zasadne jest wprowadzenie zmiennych które zdefiniowane są w sposób globalny. Naturalnym wyborem takich zmiennych jest parametryzacja sfery w kartezjańskim układzie współrzędnych. Dowolny punkt na sferze może być więc wskazywany przez wektor o składowych:
Przy czym, spełnione jest równanie sfery . Wykorzystując nawias Poissona dla sferycznej przestrzeni fazowej, możemy teraz pokazać że składowe wektora spełniają następującą relacje:
Jest to tak zwana algebra . Oznacza to, że składowe wektora są generatorami obrotów, co jest konsekwencją symetrii sferycznej przestrzeni fazowej. Zgodnie więc z definicją, wektor , którego składowe spełniają powyższą algebrę, nazywamy momentem pędu (lub spinem). Fakt, iż sferyczna przestrzeń fazowa jest przestrzenią fazową momentu pędu ma daleko idące konsekwencje. W szczególności, obserwacja, że sferyczna przestrzeń fazowa (momentu pędu lub spinu) może być lokalnie opisywana przez płaską przestrzeń fazową z jednym stopniem swobody stała się podstawą do wprowadzenia, przeze mnie w 2017-tym roku, tak zwanej Korespondencji Spin-Pole (Spin-Field Correspondence). Korespondencja ta wiąże, w granicy dużego spinu (), znane afiniczne teorie pola z układami spinowymi. W szczególności, jak pokazaliśmy z moimi współpracownikami z Uniwersytetu Fudan w Szanghaju w pracy “Klein-Gordon field from the XXZ Heisenberg model” (przyjęte do druku w International Journal of Modern Physics D), pole skalarne Kleina-Gordona można otrzymać z łańcucha spinowego XX Heisenberga (model XXZ Heisenberga w granicy parametru anizotropii).
Posłużyłem się powyżej określeniem spin, które zarezerwowane jest do określenia wewnętrznego momentu pędu cząstek, bezpośrednio związanego z jej kwantową naturą i wyrażającego się w ułamkach (, gdzie ) zredukowanej stałej Plancka. Jednakże, jak dotąd, nasze rozważania były skupione na analizie klasycznych przestrzeni fazowych, dla których wartość momentu pędu pozostawała nieokreślona. Dla kompletności naszych rozważań, zakończymy więc naszą dyskusję zarysem analizy przypadku kwantowego. Mianowicie, w ujęciu kwantowym, stan układu nie jest opisywany przez punkt w przestrzeni fazowej lecz przez wektor w przestrzeni Hilberta (warto tu zaznaczyć, że w podejściu zwanym mechaniką kwantową na płaszczyźnie fazowej, stan kwantowy układu można związać z tak zwaną funkcją gęstości kwaziprawdopodbieństwa (funkcja Wignera) określoną na przestrzeni fazowej). Wymiar przestrzeni Hilberta, czyli ilość liniowo niezależnych wektorów bazowych, wiąże się natomiast z powierzchnią przestrzeni fazowej. Mianowicie, zasada nieoznaczoności Heisenberga mówi nam, że iloczyn nieoznaczoności pomiarów i ograniczony jest od dołu w następujący sposób (dla przypadku płaskiej przestrzeni fazowej):
.
Nie możemy dokładniej wyznaczyć więc klasycznego stanu stopnia swobody na płaszczyźnie fazowej niż jako powierzchni . Do opisu układu, którego przestrzeń fazowa ma powierzchnię potrzebujemy więc około niezależnych wektorów w przestrzeni Hilberta. W przypadku płaskiej przestrzeni fazowej, z uwagi na nieskończoność powierzchni, przestrzeń Hilberta musi więc posiadać nieskończony wymiar. Jednakże, dla przypadku sfery , powierzchnia przestrzeni fazowej jest równa:
,
gdzie wykonano całkowani po pełnym kącie bryłowym . Wymiar przestrzeni Hilberta jest więc skończony i proporcjonalny do . Ponieważ wymiar przestrzeni Hilberta jest liczbą naturalną, dozwolone są jedynie pewne wartości , będące wielokrotnością stałej Plancka . Sama zwartość przestrzeni fazowej implikuje więc kwantowanie momentu pędu (spinu). Dokładny rachunek, wykorzystujący kwantowanie algebry lub też stosując tak zwane kwantowanie geometryczne sfery, mówi nam, że wymiar przestrzeni Hilberta dla spinu wyraża się jako , gdzie . Natomiast, powierzchnia przestrzeni fazowej wyraża się jako . Jeśli, na przykład, rozważymy spin elektronu, dla którego , odpowiadająca mu powierzchnia przestrzeni fazowej będzie równa .
Doświadczenie czegoś po raz pierwszy ekscytuje lub też spotyka się z brakiem naszej akceptacji dla rzeczy nowej. Powtarzanie zaś przyzwyczaja, prowadząc ostatecznie do znudzenia i zobojętnienia. Jakże ważne jest więc, by rzecz cenną dla naszego umysłu smakować po trochu, unikając poczucia sytości. Błędem i szkodą jest tym samym uczynienie wyjątkowości rzeczą powszednią. Choć powstrzymanie się przed taką pokusą nie jest sprawą prostą i wymaga nie lada dyscypliny.
Umysł ludzki szybko przyzwyczaja się do otoczenia, w którym przychodzi mu funkcjonować. Musi działać i walczyć o przetrwanie. Otoczenie, które prędzej czy później staje się tylko sceną, jest tłem dla aktywności decydujących o naszym losie.
Momentem, w którym to jednak scenografia, a nie sama życiowa rola, wręcz musi być obiektem naszego zainteresowania jest dzieciństwo. Wtedy też silnie kształtuje się świadomość, która osadza nas w otaczającej rzeczywistości. Tak, byśmy mogli w niej właściwie funkcjonować i odgrywać nasze życiowe role.
Umysł dziecka poznającego scenografię, w której przyjdzie mu kiedyś walczyć o swój los, pełen jest zachwytu i otwartości. Poczucie wstydu przed zadaniem niby zbyt naiwnego pytania jest mu obce. Wszak każda nowa informacja może uczynić przyszłe zmagania lżejszymi. Toteż umysł dziecka pytań zadaje co niemiara, równocześnie będąc uważnym obserwatorem swojego otoczenia.
Z czasem jednak uwaga ta zatraca się. Rytm dnia zarzyna narzucać jedynie podstawowy takt dla naszych działań. Cykliczność pór roku nabiera wymiaru praktycznego, sprowadzając się do tak prozaicznych czynności jak zmiana przyodziewku. Oswojenie się z faktem przemijalności życia narzuca zaś ramy czasowe dla naszej aktywności i wymusza przyjęcie różnych strategii radzenia sobie z tymi, niekoniecznie pożądanymi okolicznościami. O ile od czasu do czasu jakiś silny impuls potrafi ponownie wyrwać umysł ze sfery jego codziennej aktywności, o tyle są to zazwyczaj już jedynie epizody, zakończone szybkim powrotem do pewnego stanu ustalonego.
Jednym z najważniejszych pytań, jakie pojawia się w umyśle dziecka, jest to dotyczące przyczyny istnienia jego i świata, który je otacza. Nie dzieje się to jednak tak szybko. Umysł dziecka stopniowo rozszerza sferę swojej percepcji otoczenia. Jego cały świat to początkowo łóżeczko, w którym sypia. Z dnia na dzień poznaje pokój, a następnie – dom i podwórko. Poznawane jest kolejno miasto, a odleglejsze wyjazdy kształtują pojęcie kraju. Zabawa z globusem stopniowo przyzwyczaja do myślenia o świecie jako kuli, na powierzchni której żyjemy. Odpowiedzi na pytania dotyczące dwóch najbardziej wyraźnych obiektów na naszym niebie: słońca i księżyca pozwalają rozszerzyć percepcję dziecka o kolejny krok. Spektakularne zdjęcia galaktyk wzbudzają ciekawość do jeszcze potężniejszych skal. W małej główce dziecka zaczynają się kłębić myśli o czymś tak ogromnym, że nie jest w stanie nawet tego zobaczyć, a czego częścią przecież samo jest.
Pytanie dotyczące istnienia bierze swoje źródło również w innej obserwacji. Rzeczy z pozoru mogą istnieć, ale również nie istnieć. To samo dotyczy zdarzeń, które zachodzą lub też nie zachodzą. W pudełku dziecko znajduje cukierek lub też tego cukierka tam nie ma. Ludzie rodzą się i umierają. Słońce świeci w dzień i znika w nocy. A noc to ciemność.
Każdy, kto pamięta zabawę w chowanego lub też obserwował bawiące się w chowanego dzieci, mógł zauważyć bardzo charakterystyczne zachowanie. Mianowicie, małym dzieciom do schowania się wystarczy zasłonięcie oczu. Nie potrzebują znaleźć fizycznej kryjówki. W ich kształtującej się jeszcze świadomości doświadczenie ciemności w następstwie zasłonięcia oczu tożsame jest z brakiem ich obecności. Wydaje im się więc, że tym samym nie istnieją dla otoczenia i nie są widoczne dla współtowarzyszy zabawy.
Ciemność jest w umyśle dziecka tożsama z brakiem istnienia. I tak właśnie, jak dobrze pamiętam, wyobrażałem sobie nicość, będąc chłopcem.
Dziecięce wyobrażenie nieistnienia.
Dochodzimy tutaj do kluczowej kwestii. Otóż umysł dziecka w sposób, wydaje się, naturalny dochodzi do koncepcji przejścia pomiędzy nicością a istnieniem, która towarzyszy mu do życia dorosłego. Próba zrozumienia tego zagadnienia stała się źródłem wielu koncepcji metafizycznych, kształtujących świat, w którym żyjemy. Rozważania te przyczyniły się również do rozwoju myśli naukowej, będąc źródłem zarówno idei filozoficznych, jak i inspiracją do badań w obszarze nauk przyrodniczych. Wydaje się, że to właśnie chęć wniknięcia w głębię tego zagadnienia kierowała moimi decyzjami związanymi z podjęciem studiów i później pracą naukową w obszarze fizyki teoretycznej oraz kosmologii.
Trzeba tu podkreślić fakt, że jako ludzie mamy – chociaż bardzo rozwinięte, to jednak ograniczone – możliwości poznawcze. Staramy się zrozumieć przyrodę, wykorzystując pojęcia, które są przyswajalne dla naszej umysłowości. Wynikają one z naszego doświadczenia i ukształtowane zostały w okresie dorastania. W oparciu o nie budowany jest nasz obraz rzeczywistości. Trzeba sobie jednak zdawać sprawę z ich ograniczeń. Próba zrozumienia fundamentalnych warstw rzeczywistości wymaga niejako wyjścia poza granicę możliwości percepcji człowieka i posługiwania się nowymi, nieznanymi z życia codziennego pojęciami. Narzędzi, będących wytworem myśli ludzkiej, umożliwiających wykonanie kroku w przód dostarczają nam matematyka i fizyka.
Przywołane pojęcie „nieistnienia” jest zaś fizyce obce. W świecie fizycznym różne formy materii i energii mogą podlegać przeobrażeniom – tak zwanym procesom. Kiedy umieramy, atomy, z których jesteśmy złożeni, nie znikają. Przyjmują natomiast inną formę organizacji. Ponadto w trakcie naszego życia atomy te podlegają ciągłej wymianie. Jesteśmy więc procesami – nie zaś ustalonymi bytami. Nie zaobserwowano, by kiedykolwiek coś fundamentalnie przepadło, czyli przestało istnieć. Żaden eksperyment nie wykazał również, że cokolwiek pojawiło się w naszym rzeczywistym świecie znikąd, czyli że (z naszej perspektywy) wcześniej nie istniało. Mamy więc dowód na to, że różne formy energii i materii mogą istnieć. Obserwujemy je. Nie dysponujemy natomiast jakąkolwiek ewidencją tego, że cokolwiek może „nie istnieć”.
Czy więc naturalnym stanem rzeczy i w konsekwencji naszego świata, który się z tych rzeczy składa, jest po prostu istnienie? Chodź wciąż można czuć tutaj pewien dyskomfort – bo przecież, jak to wszystko po prostu istnieje? Nie musiało się skądś wziąć? Jednakże – rozumiejąc zarówno głębię świata fizycznego, jak i będąc świadomym granic naszych zdolności poznawczych – nie jest to dla mnie koncepcja na tyle abstrakcyjna, by nie móc jej zaakceptować. Jest, uważam, racjonalna. To znaczy, przy obecnym stanie wiedzy, jest to punk widzenia ze znanych mi najbardziej minimalistyczny. Nie wymagający odnoszenia się do koncepcji dalekich od weryfikowalnych.
Skoro więc pojecie „nieistnienia” nie ma fundamentalnego charakteru i nikt nigdy nie zaobserwował czegoś, co wcześniej nie istniało, w jakim celu posługiwać się takim pojęciem? Z pewnością jest ono wciąż przydatne w codziennej wymianie informacji, gdzie znaczenie tego słowa jest jasne i nie istnieje ryzyko nadużycia. W rozważaniach dotyczących spraw podstawowych należy się jednak wykazać dużą ostrożnością, gdyż istnieje uzasadnione ryzyko ekstrapolacji tego pojęcia poza obszar jego stosowalności – co niestety wciąż ma miejsce. Co więcej, jestem zdania, że posługiwanie się pojęciem „nieistnienia” w kontekście Wszechświata wprowadziło wiele, posługując się eufemizmem, nieporozumień.
Czym więc zatem jest stan „istnienia”? Jest to rzeczywistość, którą uparcie staramy się zrozumieć. Wiemy jednak, że na przykład fizyka mikroświata (mechanika kwantowa) dopuszcza różne interpretacje tego, co możemy nazwać obiektywną rzeczywistością. Szczegółowe omówienie tego zagadnienia wychodzi jednak poza ramy tego eseju. W skali makroskopowej za roboczą definicję naszego istnienia możemy zaś przyjąć chociażby fakt czytania tego zdania.
Rekapitulując, to, że rzeczy istnieją, jest faktem empirycznym. Obserwujemy ich obecność zarówno bezpośrednio, za pomocą posiadanych przez nas zmysłów, jak również pośrednio, wykorzystując różnorakie urządzenia pomiarowe. Energia i materia mogą ulegać przekształceniom, ale nie giną i nie pojawiają się znikąd. Pojawienie się czegoś z niczego nie zostało nigdy zaobserwowane. Daje nam to podstawy do stwierdzenia, że: nieistnienie nie istnieje. Samo pojęcie „nieistnienia” pomimo swojej ograniczonej stosowalności wciąż może być z powodzeniem stosowane w wielu sytuacjach życia codziennego. Rozumiejąc to, nie pozostaje nam nic innego niż zaakceptować fakt istnienia Wszechświata.
Rzucany przez przedmiot cień nie zawsze daje nam właściwe wyobrażenie o naturze oświetlanego obiektu. Dowodzi tego chociażby twórczość duetu artystycznego Tim Noble i Sue Webster, której przykład pozwoliłem sobie zamieścić poniżej.
Tim Noble i Sue Webster Real Life Is Rubbish(2002). Źródło
Przyjrzymy się powyższemu zdjęciu trochę bliżej. Widzimy na nim stertę śmieci które, pod określonym kątem, rzucają cień dwojga ludzi – Twórców instalacji. Jednym z zamysłów Artystów było niewątpliwie to by wprowadzić nasz mózg w zakłopotanie, poprzez dwoistość interpretacji tego co widzimy. Co mianowicie jest pierwotne, czy są to sylwetki ludzi czy też oświetlane przedmioty? Oczywiście, z punktu widzenia fizyki , sprawa jest prosta, pierwotna jest sterta rupieci, natomiast cień jest wtórny, a ponadto nie jest on obiektem fizycznym. Wchodząc na warstwę czysto artystyczną, Twórcy skłaniają nas więc do interpretowania prawdziwego (fizycznego) życia jako nie wartego więcej niż to co zdołaliśmy wyrzucić. Świat alegorii nie rządzi się jednak prawami fizyki, przez co nieskrępowanie moglibyśmy kontynuować dalej nasze wywody na temat interpretacji i znaczeń. Jest to niewątpliwe zarówno przyjemne ćwiczenie naszej kreatywności oraz intelektualne wyzwanie. Chciałbym jednak żebyśmy, po tej małej rozgrzewce, wykorzystali nasze umysły do zastanowienia się nad tym czy skoro nie jeden cień to może większa ich ilość może nam pozwolić odsłonić naturę obiektu który te cienie rzuca. Wyobraźmy sobie na przykład, że instalację Real Life Is Rubbish zaczynamy oświetlać pod innymi kątami. Otrzymane cienie nie będą miały już nic wspólnego z sylwetkami ludzi, mogą nie przypominać zupełnie niczego. Czy istnieje jednak metoda na to by wykorzystując te dwuwymiarowe rzuty zrekonstruować trójwymiarowy kształt sterty śmieci? Okazuje się, że jest to możliwe, chociaż w przypadku nietransparentnych obiektów taka procedura ma swoje istotne ograniczenia. Transparentność przedmiotów zależy jednak w dużym stopniu od długości fali którymi je oświetlimy. Jeśli zamiast światła widzialnego użylibyśmy rentgenowskiego zakresu promieniowania elektromagnetycznego, na podstawie rzucanych przez przedmiot cienieni moglibyśmy zrekonstruować jego trójwymiarowy kształt. Metoda ta nazywa się tomografią i jest powszechnie stosowana w obrazowaniu medycznym. Bodajże najpopularniejszym jej przykładem jest tomografia komputerowa (CT), pozwalająca dzięki obrazom (cieniom) rentgenowskim, otrzymanym pod różnym kątem, stworzyć trójwymiarowy obraz, na przykład mózgu (film poniżej).
Od strony matematycznej, zasada działania tomografii opiera się na tak zwanej transformacie Radona. Jest to operacja która na podstawie dwuwymiarowych projekcji (cieni) pozwala odzyskać trójwymiarowy rozkład gęstości obiektu.
Podobną do tomografii komputerowej procedurę rekonstrukcji trójwymiarowego obrazu możemy przeprowadzić również w mikroskali – w świecie kwantowym. Nosi ona nazwę tomografii kwantowej. Odpowiednikiem rozkładu gęstości jest tu tak zwana funkcja Wignera, którą otrzymujemy ze stanu kwantowego , lub ogólniej tak zwanej macierzy gęstości, która w przypadku stanów czystych (ang. pure states) może być wyrażona w następujący sposób: . Na przykład, dla cząstki w jednym wymiarze funkcję Wignera , gdzie to położenie a to pęd możemy zapisać jako
.
Z uwagi na ścisłą relację pomiędzy funkcją Wignera a macierzą gęstości, poprzez tomografię kwantową rozumiemy zrekonstruowanie, poprzez dokonanie odpowiednich pomiarów “kwantowych cieni” stanu układu kwantowego, jednego z tych dwóch obiektów. Chciałbym Ci teraz drogi Czytelniku pokazać jak to wygląd w praktyce i w jaki sposób tomografię stanu kwantowego będziesz mogła lub mógł przeprowadzić samodzielnie, nie odchodząc nawet od komputera. Choć świat kwantowy może Ci się jawić jako zupełnie niedostępny a wykonywanie w nim pomiarów jako coś mało realnego, dzięki rozwojowi technologii kwantowych możemy się dzisiaj do niego całkiem łatwo dostać. Wszystko za sprawą dostępnego publicznie pięciokubitowego komputera kwantowego firmy IBM, do którego możesz uzyskać dostęp poprzez tę stronę internetową. Jako wstęp do zagadnienia komputerów kwantowych zachęcam Cię do zapoznania się z moim wcześniejszym wpisem Elementary quantum computing. Zakładając, że jesteś uzbrojona/ny w podstawowe wiadomości dotyczące mechaniki kwantowej, chciałbym przejść do pokazania Ci jak przeprowadzić tomografię stanu kwantowego pojedynczego kubitu, czyli stanu
,
gdzie, (liczby zespolone), a warunek normalizacji stanu kwantowego implikuje, że . Kubit jest nośnikiem najmniejszej porcji informacji kwantowej (odpowiednik klasycznego bitu) i od strony matematycznej jest elementem dwuwymiarowej przestrzeni wektorowej nad ciałem liczb zespolonych, czyli tak zwanej przestrzeni Hilberta.
Zanim przejdziemy do przeprowadzenia pomiarów na kubicie wykorzystując komputer kwantowy IBM Q, wprowadźmy najpierw niezbędne podstawy teoretyczne. Po pierwsze, będziemy chcieli zrekonstruować macierz gęstości , która w przypadku kubitu jest macierzą i można ją wyrazić jako:
.
Powyżej, wprowadziłem operatory , którym w reprezentacji macierzowej odpowiadają tak zwane macierze Pauliego:
,
składające się na wektor . Natomiast, wektor złożony jest z wartości średnich które można obliczyć w oparciu o ogólne wyrażenie: .
Po drugie, warto w tym momencie wprowadzić użyteczne pojęcie sfery Blocha. Mianowicie, jest to sfera jednostkowa która reprezentuje wszystkie możliwe stany kwantowe kubitu. Każdy punkt na tej sferze to inny stan kwantowy i wskazuje na niego wprowadzony powyżej wektor . Równanie sfery Blocha to więc . Warto zaznaczyć, że powyższe równanie sfery jest konsekwencją tego, iż , co wynika z założenia dotyczącego czystości stanu kwantowego.
Sferę Blocha wygodnie sparametryzować poprzez poprzez kąty oraz tak, że stan kwantowy kubitu możemy z ich pomocą zapisać jako
,
gdzie pominięty został nieistotny globalny czynnik fazowy. Tomografia stanu kwantowego kubitu równoważna jest ze znalezieniem składowych wektora , wskazującego na konkretny punk na sferze Blocha. Wektor ten jest obiektem który chcemy zrekonstruować, podobnie jak rozważany wcześniej oświetlany przedmiot. Korzystając z tej analogii, możemy obrazowo powiedzieć, że wektor Blocha “rzuca trzy cienie” będące jego składowymi (rzutami). Tomografia stanu kwantowego wymaga określenia tych trzech składowych. Jednakże, w przypadku stanów czystych, długość wektora jest równa jeden (spełnione jest równanie sfery ) co wprowadza relację pomiędzy “cieniami”. W takim przypadku, wystarczy zmierzyć jedynie dwie spośród wszystkich trzech składowych. Trzeci rzut możemy zaś wyznaczyć z równania sfery Blocha. Z uwagi na to, że w przypadku ogólnym, stan kwantowy poprzez jego oddziaływanie ze środowiskiem może nie być do końca czysty (staje się tak zwanym stanem mieszanym) zasadne jest by z góry nie dokonywać założenia o czystości stanu kwantowego.
Komputer kwantowy IBM, pracujący w oparciu o tak zwane kubity nadprzewodzące, pozwala nam wykonać pomiary w bazie własnej operatora . Wielokrotne powtórzenie pomiarów w takiej bazie, dla każdorazowo przygotowanego na nowo takiego samego stanu kwantowego, pozwala wyznaczyć wartość średnią operatora w tym stanie. Mianowicie, ponieważ oraz , otrzymujemy
,
gdzie wykorzystaliśmy ortonormalność stanów bazowych i . Poszukiwana średnia jest więc różnicą pomiędzy prawdopodobieństwami znalezienia układu w stanie a w stanie . Wyznaczenie średnich oraz , niezbędnych do przeprowadzenia tomografii, nie jest już takie bezpośrednie. Należy mianowicie dokonać pomiarów w bazach własnych operatorów oraz . Jak pokażemy poniżej, można tego dokonać dokonując odpowiednich transformacji badanego stanu kwantowego. Do tego celu będą nam pomocne dodatkowe operatory:
,
pierwszy z nich to tak zwany operator Hadamarda, stowarzyszona z nim tak zwana bramka Hadamarda jest ważnym elementem w konstrukcji obwodów kwantowych. Operator to natomiast operator obrotu fazy o 90 stopni, natomiast to jego sprzężenie hermitowskie.
Ponieważ jesteśmy już blisko momentu w którym zaczniemy dokonywać konkretnych pomiarów, zdecydujmy się na wybór stanu kwantowego który będziemy chcieli poddać tomografii. Mój wybór padł na stan:
,
dla którego wektor Blocha wskazuje, pod kątem , na punkt na równiku na sferze Blocha. Natomiast, Ciebie drogi Czytelniku, po przeanalizowaniu poniższego przykładu, zachęcam do eksperymentowania z wybranymi przez Ciebie stanami kwantowymi. Dodam jeszcze, że powyżej wykorzystałem operator zdefiniowany jest w następujący sposób:
.
Dla wybranego przeze mnie stanu kwantowego, macierz gęstości przybiera postać:
.
Sprawdzenie tego pozostawiam jako zadanie dla Ciebie. Porównują elementy tej macierzy z wprowadzoną na wstępie ogólną postacią macierzy gęstości dla kubitu możemy odczytać, że wartości operatorów mają w tym stanie następujące wartości:
.
Przekonajmy się teraz na ile te przewidywania teoretyczne zgadzają się z pomiarami otrzymanymi w komputerze kwantowym charakteryzującym się błędami zarówno bramek kwantowych oraz odczytu jaki i wynikającymi z tak zwanej dekoherencji kwantowej, wprowadzającej mieszanie stanu kwantowego.
Pomiar
Poniżej, przedstawiono obwód kwantowy umożliwiający wytworzenie stanu , oraz wykonanie na nim pomiarów w bazie . Obwód taki możemy łatwo zbudować korzystając z kreatora dostępnego na stronie IBM Experience.
Powtarzając powyższy algorytm 1024 razy otrzymaliśmy oraz , co pozwala wyznaczyć . Niepewność tego wyniku ma dwa źródła. Pierwsze jest związane z błędami instrumentalnymi pochodzącymi od błędów bramek, będącymi na poziomie na bramkę jedno-kubitową, oraz błędami odczytu, który jest na poziomie . Drugie źródło niepewności jest związane ze statystyczną naturą mechaniki kwantowej. W rozważanej sytuacji spodziewamy się, że z jednakowym prawdopodobieństwem będziemy otrzymywać jako wynik pomiaru stany oraz . Zagadnienie oszacowania odpowiednich niepewności jest matematycznie równoważne do przypadku błądzenia przypadkowego w jednym wymiarze. Jeśli przez oznaczymy ilość wyników a przez ilość wyników dla , tak, że , to odchylenie standardowe i wyniesie . Stąd, możemy wyznaczyć niepewność estymacji prawdopodobieństwa, wynikającą ze statystycznej natury mechaniki kwantowej na . Sumaryczną niepewność pomiaru możemy więc określić na około czyli około . Otrzymane wyniki, dla oraz , są w granicach tej niepewności zgodne z teoretycznie przewidywanymi wartościami.
Pomiar
Wykonanie pomiaru wartości średniej wymaga obrócenia układu tak żeby ustawić kierunek wzdłuż osi . Można tego dokonać dzięki poniższej relacji operatorowej
,
którą łatwo dowieść wykorzystując reprezentację macierzową zaangażowanych tu operatorów. Na tej podstawie, wartość średnią operatora w stanie możemy wyrazić jako
.
Żeby więc obliczyć wartość należy na stan zadziałać operatorem , po czym wystarczy dokonać pomiarów w bazie operatora . Ilustruje to poniższy obwód kwantowy:
Wykonując pomiary, zupełnie tak samo jak w przypadku , otrzymujemy , , co pozwala nam wyznaczyć . Rozważania dotyczące niepewności pomiaru są analogiczne jak w przypadku wyznaczania .
Pomiar
Podobnie jak w przypadku pomiaru , również wyznaczenie wartości średniej operatora może zostać wykonana poprzez odpowiednią transformację stanu kwantowego. W tym przypadku, należy wykorzystać transformację:
,
(udowodnij tę relację) na której podstawie:
.
W celu wyznaczenia wartość średniej musimy więc na otrzymany stan zadziałań najpierw operatorem , następnie operatorem , po czym dokonać pomiarów w bazie operatora , jak to przedstawiono na obwodzie poniżej:
Stąd, postępując analogicznie jak w poprzednich przypadkach, otrzymujemy , , a to pozwala nam wyznaczyć . Czym kończymy nasze pomiary. Pozostaje nam pozbierać otrzymane wyniki.
Zbierając wszystko razem
Zbierając powyższe wyniki, otrzymujemy następujący wektor Blocha:
,
którego kwadrat modułu co jest, w granicach błędu, zgodne z przypadkiem stanu czystego. Natomiast, otrzymana w wyniku przeprowadzonej tomografii macierz gęstości to
.
Powszechnie stosowaną metodą ilościowego określenia zgodności dokonanej tomografii z wartością teoretyczną jest wyznaczenie tak zwanej wierności (ang. fidelity) zdefiniowanej w następujący sposób:
.
Stosując powyższe wyrażenia do teoretycznie przewidzianej macierzy gęstości oraz macierzy gęstości otrzymanej w wyniku procedury tomografii , otrzymujemy wartość . Wierność zrekonstruowanego kwantowego tomogramu jest więc bardzo wysoka, co jest jednak zgodne z oczekiwaniami dla pojedynczego kubitu. W przypadku tomografii przeprowadzonej dla większej ilości kubitów, wierność odwzorowania będzie odpowiednio niższa. O ile niższa? To już zależy od konkretnego stanu kwantowego. Jeśli masz ochotę na dalsze ambitniejsze wyzwanie, zachęcam Cię do przeprowadzenia tomografii jednego ze splątanych stanów Bella. Stany te odgrywają dużą rolę zarówno w obliczeniach kwantowych jak i w teleportacji kwantowej oraz kwantowej kryptografii (np. protokół Ekerta). W zastosowaniach tych, przygotowanie stanu kwantowego o odpowiednio wysokiej wierności ma znaczenie praktyczne i uzależnione jest od tego na przykład bezpieczeństwo zaszyfrowanej kwantowo informacji. Przyglądając się uważnie “kwantowym cieniom” stanu Bella możemy zdiagnozować czy jest on wystarczajaco “zdrowy” do wykonania powierzonego mu zadania.
For theoretical physicists, programming quantum computers sounds like one of the easiest things to do. It is just playing with tensor products of two-dimensional Hilbert spaces and constructing certain unitary operators. However, we are not such common species and some other people would also like to learn a bit more about quantum computing as well. Therefore, here I will show what the basics of quantum computing are. My approach is to present a very simple example of how to construct a quantum circuit and execute it on a real quantum computer. Namely, we will use publicly available IMB Q Experience platform to generate one of the so-called Bell states:
.
This state has quite interesting physical interpretation. It represents maximally entangled state of two spin 1/2 particles (e.g. two electrons) such that the total spin of the system is equal zero (such states are known as singlets). The state is relevant in both quantum computing and quantum cryptography. So, let us begin…
Picture of the IBM quantum chip composed of 7 superconducting qubits. Source
A single qubit is a state (vector) in two-dimensional Hilbert space, which we denote as . Let us choose the space to be spanned by two orthonormal basis states and such that and . A general qubit is a superposition of the basis states:
,
where, (complex numbers), and the normalization condition implies that .
There are different quantum operators (gates) which may act on the quantum state . For instance, the so-called bit-flip operator which transforms into and into ( and ) can be introduced. Another important operator is the Hadamard operator which is defined by the following action on the qubit basis states:
and .
The above are examples of operators acting on a single qubit. However, while considering quantum computing we usually deal with quantum register composed of qubits. The resulting quantum state belongs to Hilbert space being a tensor product of copies of the qubit Hilbert space:
,
dimension of which is
.
This exponential growth with is the main obstacle behind simulating quantum systems on classical computers. With the present most powerful classical supercomputers we can simulate quantum systems with at most. The difficulty is due to the fact that quantum operators acting on dimensional Hilbert space are represented by matrices, which are very difficult to deal with when is roughly more than (for , ).
A quantum algorithm is simply a unitary operator acting on the initial state of quibits . The outcome of the quantum algorithm is obtained by performing measurements on the final sate: . Because of the probabilistic nature of quantum mechanics, the procedure has to be performed repeatedly in order to reconstruct the final state.
The unitary operator can be decomposed into elementary operators called quantum gates, similarly to the logical electronic circuits which are built out of elementary logic gates. The already introduced and operators are examples of gates acting on a single qubit. However, the gates may also act on two or more qubits. An example of 2-qubit gate relevant for our purpose is the so-called CNOT gate, which we denote as . The operator is acting on 2-qubit state , where and are single quibit states. Action of the CNOT operator on the basis states can be expressed as follows:
,
where . The is the XOR (exclusive or) logical operation (or equivalently addition modulo 2), defined as , , and . In consequence:
, , , .
We are now equipped to address the initial task of creating the Bell state . We will perform it in the following steps:
We begin with the initial 2-qubit state .
Then, we are acting on both qubits with the spin-flip operator . The corresponding operator has a form of the following tensor product: . Action of this operator on the initial state gives: .
Now, let us act on the first quibit with the Hadamard operator (gate), leaving the second qubit unchanged. Such operation is represented by the operator , where is the identity operator which does not change a quantum state. Action of on gives .
In the final step we are acting on the obtained state with the CNOT gate: , getting the Bell state.
The total unitary operator representing our quantum algorithm can be written as a composition of the elementary steps:
.
Action of this operator on the initial state gives the state :
.
In the experimental part we will create the Bell state employing publicly accessible 5-qubit quantum computer provided by IBM. In the quantum device, qubits are constructed using superconducting circuits, operating at millikelvin temperatures. Access to the device can be obtained through this link (you have to create a free account and login).
The quantum circuit representing the operator can now be created using the quantum gates in the online quantum composer. The quantum circuit should look as follows (we used the last two qubits here):
The green boxes with letter represent the bit-flip gates, the blue box with letter represents the Hadamard gate, while the next operation from the left is the CNOT gate acting on both qubits. Finally, the pink boxes represent measurements performed on the final state. Restricting to the last two qubits, the final state can be expressed as the following superposition:
,
where and . What is measured are probabilities of the basis states , where . For the Bell state we expect that
, , and .
However, in the real experiment (because of the finite number of measurements as well as due to the quantum errors) the obtained results might differ. Let us firstly check what are the probabilities obtained by running the algorithm on the simulator of quantum computer provided by IBM. By executing the algorithm 1000 times we obtain the following result:
, , and .
The result is in high compliance with the theoretical predictions. Finally, running the true quantum computer IBM Q 5 Tenerife (performing 1024 runs) we obtained:
, , and .
Presence of the undesirable contributions from the states and is due to the errors of the quantum gates, which are still quite significant. Reduction of this error is crucial for the future utility of quantum computers.
This introduction is of course only the beginning of the story. If you find the subject interesting let me recommend you some further reading and watching:
Artur Ekert, Patrick Hayden, Hitoshi Inamori, Basic concepts in quantum computation [arXiv:quant-ph/0011013].