Optyczny mózg

Prędkość rozchodzenia się informacji (za pośrednictwem impulsów nerwowych) w mózgach ssaków sięga około 120 m/s. Wartość ta determinuje czas potrzebny na komunikację pomiędzy dowolnymi obszarami w mózgu i w konsekwencji czas reakcji na bodźce. To zaś, przy narzuconych przez środowisko zewnętrzne skalach czasowych, rzutuje na maksymalne dopuszczalne rozmiary mózgu. Przykładowo, informacja pomiędzy dwoma odległymi o 10 cm częściami mózgu podróżuje co najmniej milisekundę (0,001 s). Zachowanie tego rzędu czasów propagacji sygnału jest niezbędne do tego, żeby organizm mógł przetworzyć bodziec zewnętrzny i zareagować na niego w ułamku sekundy. Takie tempo rekcji umożliwiło naszym przodkom przetrwać w potyczce z dzikim zwierzęciem i prowadzić polowania. Dzisiaj jest to niezbędne chociażby do tego, żeby sprawnie kierować pojazdami.

O ile prędkość propagacji impulsów w naszych mózgach jest ograniczona biochemiczną naturą naszego hardware’u, to w przypadku systemów neuromorficznych – naśladujących działanie mózgu –  ogranicza nas jedynie maksymalna prędkość rozchodzenia się informacji w przyrodzie, równa prędkość światła w próżni, c\approx 299\ 794\ 458 m/s.  Jeśli udałoby się zasymulować działanie sieci neuronowych za pomocą światła, mogłyby one przetwarzać informacje około 2,5 miliona razy szybciej niż ludzki mózg. To zaś,  z jednej strony znaczy, że optyczny mózg mógłby być znacznie większy niż ten biologiczny.  Dla przykładu, przy zachowaniu minimalnej latencji sygnałów w ludzkim mózgu (~1 ms dla ~10 cm) rozmiary świetlnej sieci neuronowej mogą sięgać 300 km. Z drugiej strony, możliwe stałoby się osiąganie dużo większego niż w ludzkim mózgu tempa przetwarzania informacji. Hipotetyczny, optyczny symulator ludzkiego mózgu o rozmiarach naturalnych działałaby około 2,5 miliona razy szybciej od jej biologicznego odpowiednika. Jeden dzień funkcjonowania ludzkiego mózgu odpowiadałby więc około czterem setnym sekundy pracy optycznego mózgu. Jeden ziemski rok, odpowiadałby w symulacji optycznej około 13 sekundom. Natomiast, w świecie optycznym, symulacja naszego całego życia nie trwałoby dłużej niż dwadzieścia kilka minut!

Powyższe szacunki zaniedbują dodatkowe czasy wynikające z propagacji sygnału w innym niż próżnia ośrodku, jak i te związane z nieliniowym przetwarzaniem informacji optycznej, uwzględnienie których może być konieczne do symulacji realistycznych sieci neuronowych. Są one jednak wystarczająco miarodajne to tego, żeby uzmysłowić nam bardzo ważną z punktu widzenia człowieka własność sztucznej inteligencji. Mianowicie, może stać się ona nie tylko potężniejsza do ludzkiej, pod względem ilości przetwarzanej informacji ale i znacznie od niej szybsza. Z taką, tak zwaną, superinteligencją (Artificial Super Intelligence – ASI) trudno byłoby człowiekowi konkurować, ponieważ żyłby on w zupełnie innych skalach czasowych, nieprzystających do tych obowiązujących w wirtualnym świecie superinteligencji. Kiedy w świecie optycznej superinteligencji upłynęłoby 2,5 miliona lat, czyli czyli okres porównywalny z całą historią Homo sapiens na Ziemi, w zewnętrznym świecie ludzkim upłynąłby zaledwie jeden rok ziemski.

Wróćmy zatem na Ziemię. Superinteligencja to wciąż domena futurologii, natomiast prace nad optycznymi sztucznymi sieciami neuronowymi i ogólniej procesorami optycznymi trwają na dobre [1,2,3,4].  To samo dotyczy innych podejść do sztucznej inteligencji i symulacji ludzkiego mózgu. Można o tym poczytać w moich wcześniejszych wpisach O symulacjach ludzkiego mózgu i Dwanaście technologii jutra, gdzie m.in. przywołuję prowadzone obecnie symulacje wykonywane za pomocą tzw. procesorów neuromorficznych. Tutaj chciałbym jednak pozostać przy podejściu optycznym, które można uważać za rozwiązanie docelowe, zarówno ze względu na dyskutowaną powyżej możliwość osiągnięcia maksymalnej dopuszczalnej w przyrodzie prędkości przesyłania informacji, jaki i z uwagi na możliwość przetwarzania informacji z niedostępną innymi metodami częstotliwością. Ponadto, podejście optyczne w sposób naturalny otwiera drogę do implementacji tak zwanej kwantowej sztucznej inteligencji (ang. quantum artificial intelligence) [5,6,7], ale o tym przy innej okazji.

Chociaż mogłoby się wydawać, że optyczna sieć neuronowa to nieuchronnie coś bardzo skomplikowanego i kosztownego, to prostą optyczną sieć neuronową może zbudować dosłownie Każdy, korzystając z powszechnie dostępnych elementów do budowy światłowodowych sieci internetowych. To zaś jak można to zrobić zarysuję poniżej i posłużę się tym przykładem do omówienia kilku wybranych aspektów optycznych implementacji sieci neuronowych.

20200317_113414
Prototyp optycznej sztucznej sieci neuronowej opartej o światłowody jednomodowe oraz dzielniki mocy (splittery). Źródłem światła jest laser, pracujący na długości fali 650 nm.

Do konstrukcji optycznej sieci neuronowej będziemy potrzebować sztuczne neurony oraz połączenia pomiędzy nimi. Te drugie możemy zrealizować wykorzystując światłowody, stosowane do komunikacji optycznej. Odcinki takich światłowodów można ze sobą łączyć stosując odpowiednie adaptery. Medium transmisyjne wykorzystywane w światłowodach to przeważnie domieszkowane szkło kwarcowe, dla którego współczynnik załamania n \approx 1.46, co daje prędkość propagacji sygnału v=c/n \approx 205\ 000 km/s, czyli około 70 \% prędkości światła w próżni.

Funkcją neuronów jest zbieranie sygnałów wejściowych z synaps i wytworzenie na ich podstawie sygnału wyjściowego. W biologicznych sieciach neuronowych, dodatkowym aspektem jest wytworzenie tak zwanego potencjału czynnościowego (ang. spike). Możliwość wytwarzania spike’ów jest brana pod uwagę w symulacjach mózgu, w szczególności z wykorzystaniem systemów neuromorficznych. Natomiast, są one zazwyczaj pomijane w uproszczonych modelach sieciach neuronowych stosowanych w uczeniu maszynowym. W tym przypadku, działanie sztucznego neuronu polega na zsumowaniu, z odpowiednimi wagami (synaptycznymi), sygnałów wejściowych i przetworzeniu takiej sumy przez tzw. funkcję aktywacji, otrzymując w ten sposób sygnał wyjściowy. Otrzymany sygnał jest następnie podawany na wejścia innych neuronów, lub też, na wejście tego samego neuronu. Do sytuacji bez tego typu pętli zalicza się sieć typu feedforward, na której skupimy poniżej naszą uwagę.

Najprostszą realizacją optycznego neuronu jest przypadek z liniową funkcją aktywacji,  dla którego neuron jest niczym innym jak sumatorem sygnałów wejściowych. Pomimo swojej prostoty, model ten jest wystarczający do tego by uchwycić podstawową ideę przetwarzania informacji przez sieć neuronową. Realizacją optyczną  neuronu-sumatora jest rozdzielacz (ang. splitter) światłowodowy. Dodatkowo, wagi na “synapsach” takiego optycznego neuronu można modyfikować stosując odpowiednio dobrane tłumiki mocy. W rozwiązaniu prototypowym widocznym na zdjęciu powyżej, wykorzystano standardowe rozdzielacze i połączenia stosowane przy budowie sieci światłowodowych. Całość układu można jednak znacząco zminiaturyzować stosując zintegrowane obwody fotoniczne, zawierajace sieci miniaturowych sztucznych neuronów.

Istota działania sieci neuronowych sprowadza się do wykrywania wzorów. Mogą to być zarówno wzory graficzne, dźwiękowe, lub też bardziej abstrakcyjne wzory związane z przetwarzaniem języka i wyższymi funkcjami poznawczymi. Rozpoznawanie wzoru w sieci neuronowej realizowane jest warstwowo. Żeby to zobrazować, posłużmy się przykładem rozważanej sieci optycznej,  z szesnastoma neuronami w warstwie wejściowej. Neurony te będą reprezentować 16 pikseli na mapie bitowej o rozmiarach 4×4. Łącznie mamy więc 2^{16} = 65536 możliwych binarnych konfiguracji wejściowych. W przypadku optycznym, stan “1” danego bitu oznacza wprowadzenie do obwodu światła o ustalonej mocy. Stan “0” to brak światła.  Ponieważ, w ogólności, możemy zmieniać w sposób ciągły natężenie świtała, dopuszczalnych analogowych stanów wejściowych jest nieskończenie wiele. Tutaj jednak, dla uproszczenia, zawęzimy rozważania do stanów binarnych.

Kolejna warstwa, a  zarazem jedyna tzw. warstwa ukryta, wykrywa  8 liniowych wzorów składowych, wynikających z zsumowania wybranych czterech pikseli w warstwie pierwszej. Są to pośrednie wzory z których w ostatniej (trzeciej) warstwie komponowane są wzory które nasza sieć ma za zadanie rozpoznać. Sytuację tę przedstawia rysunek poniżej:

Netork
Graf reprezentujący połączenia w prototypowej optycznej sztucznej sieci neuronowej, rozpoznającej wybrane 4 wzory na bitmapie o rozmiarach 4×4.

Zaprezentowany tu przykład optycznej sieci neuronowej jest niezwykle prosty i opiera się na dzieleniu mocy sygnałów optycznych. Z uwagi na liniowość funkcji aktywacji, uzasadnione było zastosowanie tylko jednej warstwy wewnętrznej. W celu wykrywania bardziej skomplikowanych wzorów, konieczne jest wprowadzenie nieliniowych funkcji aktywacji (np. sigmoidalnych) oraz większej ilości warstw. Wyzwanie to jest podejmowane w wielu aktualnych pracach nad optycznymi sieciami neuronowymi, zarówno klasycznymi, jak i tymi wykorzystującymi kwantową naturę światła.  Nad wdrożeniami takich rozwiązań pracują m.in.  takie startupy jak LightMatterXandu.

Implementacje te dotyczą “wąskiej” sztucznej inteligencji (Artificial Narrow Intelligence – ANI) nie zaś symulacji nakierowanych na stworzenie ogólnej sztucznej inteligencji (Artificial General Intelligence – AGI), nie wspominając nawet o superinteligencji. Faza ANI jest jednak przedsionkiem do dalszego rozwoju podejścia optycznego w kierunku AGI i ASI.  Warto ostatecznie podkreślić, że przetwarzanie informacji za pomocą światła rozważane jest nie tylko w kontekście sieci neuronowych, ale również (a obecnie nawet przede wszystkim) w kontekście akceleratorów optycznych, przyśpieszających działanie procesorów o standardowej, nieneuronalnej,  architekturze. Ponadto, korzyści płynące z wykorzystania światła nie polegają wyłącznie na wysokiej prędkość propagacji sygnału. W standardowym przewodzie elektrycznym, prędkość rozchodzenia się impulsu elektromagnetycznego jest również porównywalna z prędkością światła w próżni. Problemem jest natomiast dyssypacja energii w układach elektronicznych, która rośnie wraz z częstotliwością przetwarzania informacji.  Problem odprowadzania wytworzonego w ten sposób ciepła okazał się na tyle trudny, że częstotliwość taktowania naszych komputerów pozostaje praktycznie niezmieniona od przeszło dziesięciu lat i wynosi maksymalnie ~3,5 GHz. Wykorzystanie światła jako nośnika informacji otwiera drogę do wyjścia z tego impasu. Więcej informacji na ten temat można znaleźć w poniższym filmiku oraz w artykule [4].

Chciałbym na koniec dodać, że opisana tu przykładowa optyczna sieć neuronowa powstała dzięki zasobom Garażu Złożoności i Quantum Cosmos Lab, działających na Uniwersytecie Jagiellońskim. W ramach tych dwóch przedsięwzięć planujemy kolejne projekty związane z systemami neuromorficznymi, w szczególności opartymi o optyczne przetwarzanie informacji. Osoby zainteresowane współpracą w tym obszarze zachęcam do kontaktu.

Bibliografia

[1] R. Hamerly, L. Bernstein, A. Sludds, M. Soljačić, and D. Englund  Large-Scale Optical Neural Networks Based on Photoelectric Multiplication Phys. Rev. X 9, 021032 (2019).
[2] Xiao-Yun Xu  et al. A scalable photonic computer solving the subset sum problem, Science Advances,  Vol. 6, no. 5, eaay5853 (2020).
[3] Y. Zuo, B. Li, Y. Zhao, Y. Jiang, Y. Chen, P. Chen, G. Jo, J. Liu, and S. Du, All-optical neural network with nonlinear activation functions, Optica 6, 1132-1137 (2019).  
[4] K. Kitayama et al.,  Novel frontier of photonics for data processing – Photonic accelerator, APL Photonics 4, 090901 (2019)
[5] G.R. Steinbrecher, J.P. Olson , D. Englund et al. Quantum optical neural networks, npj Quantum Inf 5, 60 (2019).
[6] F. Tacchino, C. Macchiavello, D. Gerace et al. An artificial neuron implemented on an actual quantum processor, npj Quantum Inf 5, 26 (2019).
[7] J. Biamonte, P. Wittek, N. Pancotti et al. Quantum machine learningNature 549, 195-202 (2017).

© Jakub Mielczarek

Naukowe wyzwania a bezpieczeństwo Polski

Nie mając jasno wyznaczonego celu skazani jesteśmy na, jak mówią fizycy, błądzenie przypadkowe, przegrywając z tymi którzy takie cele przed sobą postawili i konsekwentnie do nich dążą. Dotyczy to zarówno naszych osobistych dróg życiowych, jaki i tych obranych kolektywnie przez zbiory jednostek, jakimi są społeczeństwa.

Czy społeczeństwo polskie wyznacza sobie takie globalne cele? Więcej, czy stawia przed sobą ambitne wyzwania, które wymagałby determinacji i zaangażowania ponad podziałami? Trudno mi wskazać jednoznacznie na istnienie obecnie w Polsce takich wyzwań. Mamy pewne, rozmyte, wspólne cele jak chociażby to, że chyba Wszyscy chcielibyśmy żeby Polska stała się krajem silniejszym ekonomicznie. Taki cel nie jest jednak dobrze zdefiniowany. Wymaga on skwantyfikowania, na podobnej zasadzie jak przedsiębiorstwa określają roczne (lub bardziej odległe) plany przychodów i zysków, które później uparcie starają się realizować. W przypadku Polski, za ekonomiczne wyzwanie można by uznać wprowadzenie Polski do grupy G20 w przeciągu, powiedzmy, pięciu lat. To jest całkiem dobrze określony cel, którego osiągnięcie wymaga mobilizacji i odpowiedniego zaangażowania w obszarze gospodarki (ale również dyplomacji) w przeciągu najbliższych lat. Można, w dużym stopniu, określić jakie warunki musielibyśmy spełnić żeby dołączyć do tego elitarnego grona.

Nie w mniejszym stopniu, jako naukowca,  zastanawia mnie również to czy przed Polską Nauką możemy postawić pewne globalne wyzwania, wyznaczające kurs jej rozwoju, co pozwoliłoby systematycznie odrabiać straty do światowej czołówki. Nie stawiając przed rodzimą Nauką takich ambitnych celów, będziemy niestety skazani na pogodzenie się z pozycją w środku stawki. Ale czy takie dobrze określone wyzwania da się w ogóle zdefiniować i czym by one mogły być? Nasuwać się może na myśl: podniesienie polskich uczelni w rankingu szanghajskim, wzrost liczby międzynarodowych patentów i publikacji w Nature. Wprowadzenie Uniwersytetu Warszawskiego i Uniwersytetu Jagiellońskiego do trzeciej setki rankingu szanghajskiego może wydawać się całkiem dobrze określonym wyzwaniem.  Nie o to tu jednak chodzi. Nie uprawiamy Nauki dla pozycji w rankingach. To są kwestie wtórne.  Nauka powinna, przede wszystkim, pracować dla dobra społeczeństwa.  A jeśli będzie to robione właściwie to i poziom jaki prezentuje będzie rósł. Dlatego też, chciałbym zastanowić się tutaj nad tym jaka Nauka jest Polsce najbardziej potrzebna i jakie w ramach niej wyzwania powinniśmy podejmować wspólnymi siłami, na skali dużo szerszej niż kilkuosobowe zespoły naukowe, na których opiera się obecnie, w głównej mierze, praca badawcza w Polsce.         

Nie jest nowym stwierdzenie że, w pierwszej kolejności, rodzima Nauka powinna podejmować kierunki bezpośrednio związane ze strategicznymi obszarami. W artykule tym, chciałbym zaś podkreślić znaczenie, w mojej opinii, najważniejszego z nich, jakim jest bezpieczeństwo, zarówno to militarne jak i energetyczne. Nie trzeba nikomu uzmysławiać sytuacji geopolitycznej Polski i związanych z tym zagrożeń. Istnieje niezliczona liczba opracowań dyskutujących to zagadnienie, pozwolę więc sobie pominąć wchodzenie w szczegóły.  Bezpieczeństwo jest kwestią nadrzędną i bez osiągnięcia odpowiedniego jego poziomu, trudno myśleć o stabilnym długofalowym rozwoju Polski.  Niestety, obecnie rozwój nowoczesnego zaplecza militarnego w Polsce opiera się głównie na kontraktach z zagranicznymi dostawcami technologii. Jestem realistą, pewnych zaległości nie da się nadrobić nawet w trzydzieści lat. Problem zapóźnienia technicznego Polski jest głęboki i trudny do nadrobienia w krótkim okresie czasu. Jednakże, moje obserwacje nie wskazują na to by w obszarze nowoczesnych technologii wojskowych następowała w Polsce znacząca poprawa.

W krajach wysoko rozwiniętych, takich jak Stany Zjednoczone, rozwój technologii z zakresu bezpieczeństwa jest silnie związany z prowadzeniem innowacyjnych badań naukowych. Jest to z korzyścią zarówno dla podniesienia poziomu bezpieczeństwa jak i dla samej Nauki, nie wspominając o ogromnym znaczeniu transferu opracowanych rozwiązań do przemysłu cywilnego. W Polsce, obszar ten wydaje się być zaś zupełnie niezagospodarowany. A przecież może on stanowić doskonały motor dla rozwoju Polskiej Nauki, dostarczając nam równocześnie tak ważnego poczucia bezpieczeństwa.

Zanim przejdę do podania propozycji konkretnych działań w tym kierunku, pozwolę sobie w tym miejscu zwrócić uwagę na jeszcze jedną kwestię. Temat jest mi dosyć dobrze znany, a mianowicie rzecz dotyczy tego to co kieruje młodymi naukowcami w decyzji o prowadzeniu swoich badań poza granicami Polski. Skłaniam się do stwierdzenia, że w dzisiejszych czasach, czynnikiem decydującym nie są zazwyczaj kwestie finansowe. Prowadząc solidne badania, godziwe zarobki można  osiągnąć również w Polsce. Chodzi natomiast o to, że wciąż prowadzone w Polsce badania są często po prostu mało interesujące. Włączenie się w nie, nie stanowi dla młodych naukowców wyzwania. Chcą robić coś ciekawszego i ważniejszego, na wyższym niż w Polsce poziomie. Możliwość taką odnajdują w grupach badawczych prowadzących nowatorskie prace naukowe, poza granicami naszego kraju.

Wydaje mi się, że podjęcie w Polsce strategicznych kierunków badawczych mających, jak to już podkreśliłem, znaczenie dla bezpieczeństwa naszego kraju, stanowiłby bardzo atrakcyjną ofertę dla młodych naukowców. Nie chodzi oczywiście o to żeby młodzi naukowcy nie wyjeżdżali. Wyjeżdżać trzeba, rzecz w tym żeby mieć również do czego wracać. Ambitne, zakrojone na dużą skalę programy naukowe o bezpośrednim znaczeniu dla Polski działałyby jak magnes na najzdolniejsze umysły.  Kiedy można uczestniczyć w takim przedsięwzięciu, kwestia wynagrodzenia staje się poboczna. Ważne, że można być „u siebie”, blisko rodziny i przyjaciół, realizując swoje pasje i jednocześnie robiąc coś ważnego dla całego społeczeństwa. To są, uważam, kwestie niezwykle istotne. W Polsce, możliwość realizowania się w taki sposób jest jednak ograniczona.

W Stanach Zjednoczonych, innowacyjne projekty naukowe o znaczeniu dla obronności finansowane są, między innymi, przez osławioną Defense Advanced Research Project Agency (DARPA). Trochę w cieniu, działa jeszcze kilka podobnych agencji, jak w szczególności Intelligence Advanced Research Project Agency (IARPA), finansująca zaawansowane badania o znaczeniu dla pracy wywiadu. Próżno szukać w Polsce odpowiedników takich instytucji. W ramach firm wchodzących w skład Polskiej Grupy Zbrojeniowej oraz na Wojskowej Akademii Technicznej prowadzone są oczywiście prace badawczo-rozwojowe na potrzeby Sił Zbrojnych RP. Chodzi jednak o to by wyjść z badaniami mającymi znaczenie dla bezpieczeństwa poza te ramy i zaangażować potencjał naukowy uniwersytetów i cywilnych uczelni technicznych, realizując szeroko zakrojone (często interdyscyplinarne) projekty naukowe o znaczeniu strategicznym.

Żeby wyraźniej nakreślić to o jakiego typu przedsięwzięciach mowa, przytoczę tu kilka przykładów projektów finansowanych przez DARPA i IARPA. W szczególności, w latach 2001-2005 DARPA przeznaczyła 100 mln USD na projekt Quantum Information Science and Technology Program (QuIST), dedykowany przede wszystkim budowie systemów kryptografii kwantowej. Rozwiązania tego typu wykorzystują fizykę mikroświata – mechanikę kwantową – do tego by  wymieniać w sposób bezwarunkowo bezpieczny informacje pomiędzy np. jednostkami wojskowym lub ośrodkami decyzyjnymi.  Z kolei, jednym z projektów finansowanych obecnie przez IARPA jest Machine Intelligence from Cortical Networks (MICrONS), którego celem jest uzyskanie konektomu jednego milimetra sześciennego kory mózgowej gryzonia, co będzie miało znaczenie dla uczenia sztucznych sieci neuronowych. Takie sieci znajdą później zastosowanie w systemach wykrywania różnego typu zagrożeń. Finansowanie  projektu to również 100 mln USD. Warto podkreślić, że jest to bardzo interdyscyplinarny projekt w który zaangażowani są m.in. neurobiolodzy, chemicy, fizycy, informatycy i inżynierowie. Jest to więc doskonała okazja do rozwijania współpracy pomiędzy różnymi ośrodkami naukowymi. Kolejny aktualny przykład to program Blackjack, konstelacji dwudziestu nanosatelitów o zastosowaniu militarnym. DARPA zarezerwowała w 2018-tym roku na ten cel ponad 100 mln USD. Bez wątpienia, w projektach tego typu chcieliby bez wahania wziąć udział młodzi ale i starsi Polscy naukowcy i inżynierowie. Warto w tym miejscu zaznaczyć, że naukowe projekty na rzecz bezpieczeństwa, jak chociażby te przytoczone powyżej, dotyczą obszarów zarówno badań stosowanych jak i badań podstawowych. Chciałbym tym samym rozwiać mogącą się pojawić wątpliwość o brak podstawowego charakteru tego typu prac badawczych. Jak uczy nas doświadczenie, to właśnie odpowiednio sprofilowane badania podstawowe mogą być źródłem rozwiązań które później zadecydują o przewadze militarnej. 

Wracając do Polski, budżet MON na rok 2019 wynosi  44,7 mld PLN (2,0% PKB). A gdyby, na przykład, przeznaczyć z takiej kwoty jeden miliard złotych rocznie na innowacyjne programy badawcze związane z obronnością. Przedsięwzięcie takie mogłoby być również realizowane  międzyresortowo. Niewątpliwie, taki program mógłby przynieść ogromne korzyści, zarówno dla bezpieczeństwa jak i dla samej Polskiej Nauki oraz polskiej gospodarki.  W kwocie 1 mld PLN (porównywalnej z jednym sporym kontraktem zagranicznym) udałoby się zrealizować powiedzmy 10 dużych projektów o budżecie 100 mln PLN każdy. Z budżetem 100 mln złotych można np. zbudować i umieścić na niskiej orbicie okołoziemskiej mikrosatelitę (ok. 10-20 kg) o przeznaczeniu wojskowym (obrazowanie, łączność lub naprowadzanie pocisków). Za kolejne 100 mln PLN można zrealizować program budowy rakiety suborbitalnej (w przyszłości, elementu systemu Wisła).  100 mln PLN to również wystarczające środki do tego by połączyć najważniejsze ośrodki decyzyjne w Polsce systemami do kwantowej dystrybucji klucza (zbudowanymi w Polsce). W kwocie 100 mln PLN można również zaprojektować i zbudować nowoczesny system radarowy (typu AESA), mogący w przyszłości stanowić część tarczy antyrakietowej.  Wymieniam tu przykłady co do których wiem, że istnieje zaplecze intelektualne i techniczne do ich realizacji w Polsce.  Do tego, w skali roku, pozostaje 5 kolejnych projektów, każdy rozpisany na 4-5 lat realizacji. Projekty takie mogłyby być zarówno w dużym stopniu niezależne jak również kontrybuować jako części większych przedsięwzięć.   

Można sobie wyobrazić o ile bezpieczniejsi i rozwinięci technologicznie stalibyśmy się dzięki takim działaniom w perspektywie dekady, mając zrealizowanych chociażby kilkanaście ambitnych szeroko zakrojonych projektów naukowo-technicznych z zakresu bezpieczeństwa. Polska Nauka zyskałaby silny impuls do rozwoju, zwiększając poziom innowacyjności i atrakcyjności na światowej arenie. Niniejszy artykuł prezentuje jedynie zarys ścieżki która mogłaby do tego doprowadzić. Moim zamysłem było tu zaś, przede wszystkim, sprowokowanie do dalszych przemyśleń nad zasadnością zaprezentowanej tu koncepcji i szansą jej zmaterializowania w polskich realiach. Wizja ta wymaga oczywiście zarówno dalszej pogłębionej analizy jak i późniejszych ewentualnych odważnych decyzji politycznych. W moim przekonaniu, jest ona jednak realna i możliwa do wcielenia.  

© Jakub Mielczarek

Dwanaście technologii jutra

Żyjemy w niesamowitych czasach intensywnego rozwoju wspaniałych technologii. Wiele z nich wywodzi się z zaawansowanych i kosztownych badań podstawowych, inne są wynikiem inżynieryjnej wirtuozerii, bazującej na ugruntowanej już wiedzy naukowej. Jedno jest pewne,  technologie te transformują świat w którym żyjemy  i przez to, w pewnym sensie, również nas samych. Żeby ocenić jakie będą skutki tych przemian należy zrozumieć możliwości i ograniczenia wyłaniających się nowych rozwiązań. Ich lista jest długa, a szczegółowa analiza żmudna i wielowymiarowa. Nie jest jednak moim celem by ją tutaj przeprowadzać. Mógłbym Cię po prostu zanudzić. W zamian, chciałbym zwięźle przedstawić 12 wybranych przeze mnie (jednakże stosunkowo reprezentatywnych) kierunków. Celem jaki sobie stawiam jest to byś mogła lub mógł spojrzeć na nie niejako z lotu ptaka, umożliwiając Ci uchwycenie szerszej perspektywy. Mam nadzieję, że mój wysiłek pomoże Ci, choć w pewnym wymiarze, ujrzeć ostrzej świat w niedalekiej przyszłości i dostrzec w nim dla siebie nowe możliwości, które pozwolą Tobie lub też np. Twojej firmie rozwinąć się. Zrozumienie technologii, pozwoli Ci również lepiej przygotować się na nadchodzące zmiany, przez co łatwiej się do nich dostosujesz i szerzej wykorzystasz pojawiające się nowe szanse. Wybrane przeze mnie kierunki są obecnie intensywnie rozwijane i z dużym prawdopodobieństwem będą miały istotne znaczenie w nieodległej przyszłości, przez którą rozumiem najbliższą dekadę (2020-2030). Na konstrukcję tej listy niewątpliwe miały wpływ moje osobiste zainteresowania i obszar posiadanych kompetencji. Z tego powodu, nie jest ona obiektywna, choć starałem się by cechowała się zróżnicowaniem i zawierała rozwiązania nie tylko z obszarów najbliższych mojej ekspertyzie. Ważnym aspektem, który staram się podkreślić, to znaczenie dyskutowanych kierunków w kontekście wyzwań stojących przed światem.

1. Komputery kwantowe

Pozwolę sobie zacząć od najbliższego mi, jako fizykowi teoretykowi, tematu czyli od technologii kwantowych, a mówiąc precyzyjniej skoncentruję się tutaj na kwestii komputerów kwantowych. Do innych przykładów technologii kwantowych powrócę w punktach 26 i 7.  Komputery kwantowe opierają swoje działanie o zasady mechaniki

ibm-q
Komputer kwantowy firmy IBM. Źródło

kwantowej (fizyki mikroświata). Choć teoretyczne podwaliny ich funkcjonowania powstały jeszcze w latach osiemdziesiątych ubiegłego wieku, dopiero ostatnie lata przyniosły intensywne przyśpieszenie w rozwoju kwantowych technologii obliczeniowych. Rozwój ten przebiegał i nadal przebiega w pierwszej fazie charakteryzującej nowe technologie, związanej z szybkim wzrostem zainteresowania. Efekt ten, na zasadzie sprzężenia zwrotnego napędza rozwój technologi, generując rosnący entuzjazm, w szczególności  inwestorów. Pęcznieją również oczekiwania, które niestety często rozbieżne są z faktycznymi możliwościami technologii. Również kwantowy tzw. hype czeka niebawem przejście do fazy ostudzenia emocji. Technologie kwantowe jednak wybronią się, ponieważ dadzą w wielu obszarach przewagę nad komputerami klasycznymi. Wynika to w szczególności z tak zwanego paralelizmu kwantowego, umożliwiającego zrównoleglenie danego problemu i przez to redukcję jego złożoności obliczeniowej. Sztandarowymi przykładami są: algorytm faktoryzacji Shore’a, algorytm przeszukiwania (nieuporządkowanych zbiorów) Grovera lub algorytm kwantowego wyżarzania (ang. quantum annealing). Ograniczenia kwantowych komputerów wiążą się jednak z dużą podatnością stanów kwantowych kubitów na środowisko zewnętrzne. W celu zredukowania  tego efektu (tzw. kwantowej dekoherencji) procesory kwantowe muszą być przeprowadzane w temperaturze bliskiej zera bezwzględnego. Ponadto, w celu redukcji błędów konieczne jest stosowanie tak zwanej kwantowej korekcji błędów, która wykorzystuje znaczną część kubitów procesora. Ogranicza to istotnie liczbę kubitów, które faktycznie możemy przeznaczyć do wykonania interesującego nas algorytmu. W konsekwencji, użytecznych (tzw. fault tolerant) komputerów kwantowych, które będą dawały możliwość wykonania operacji niemożliwych do przeprowadzenia na superkomputerach klasycznych możemy się spodziewać za nie wcześniej niż 5 lat. Komputery posiadające łącznie 100 kubitów powstaną wcześniej, jednakże poziom ich błędów będzie wciąć zbyt wysoki, a struktura sprzężeń pomiędzy kubitami zbyt rzadka by mogły one konkurować z klasycznymi maszynami. W drugiej połowie nadchodzącej dekady możemy jednak oczekiwać rozwoju szerokiego spektrum zastosowań komputerów kwantowych. W szczególności,  w kontekście rozwiązywania problemów o dużej złożoności (optymalizacja, łamanie szyfrów, uczenie sztucznych sieci neuronowych, itp.) oraz symulacji układów kwantowych (np. w ramach chemii kwantowej, fizyki materii skondensowanej lub kwantowej grawitacji). Przeprowadzanie na procesorach kwantowych symulacji np. skomplikowanych molekuł znajdzie zastosowanie m.in. przy opracowywaniu leków.  Jako wprowadzenie do zagadnienia programowania komputerów kwantowych zachęcam do lektury moich wcześniejszych wpisów: Elementary quantum computing oraz Kwantowe cienie.

2. Nowe technologie kosmiczne

Globalna branża kosmiczna znajduje się obecnie w fazie transformacji z obszaru dominacji państwowych agencji kosmicznych do rosnącego znaczenia przedsiębiorstw, które zaczynają realizować swoje własne programy kosmiczne. Zjawisko to jest częścią tak zwanego podejścia New Space.  Najbardziej znanymi przykładami są tu Space X, Blue Origin oraz Virgin Galactic. Wszystkie te trzy firmy rozwijają technologie wynoszenia ładunków i

xinglong
Kwantowa dystrybucja klucza pomiędzy satelitą Micius a stacją naziemną. Źródło

osób w ramach lotów suborbitalnych lub orbitalnych. Loty suborbitalne mają duże znaczenie dla otwarcia kosmosu dla turystyki. Dotychczasowe sukcesy trzech wspomnianych firm, dają spore szanse na intensywny rozwój suborbitalnej turystyki kosmicznej w nadchodzącej dekadzie. Z drugiej strony, rozwój prywatnych inicjatyw związanych z lotami orbitalnymi, korzystnie wypłyną na ceny umieszczania ładunków na niskiej orbicie okołoziemskiej. Do tego dochodzi miniaturyzacja systemów satelitarnych, w szczególności w ramach standardu CubeSat – kostek o wymiarach 10x10x10 cm (1U), z których można budować w pełni funkcjonalne nanosatelity. Zbudowanie i umieszczenie na niskiej orbicie okołoziemskiej prostego nanosatelity o rozmiarze 1U można dzisiaj przeprowadzić w ramach budżetu zamykającego się w kwocie 1 mln złotych.   Otwiera to szerokie perspektywy do przeprowadzenia badań w warunkach mikrograwitacyjnych, jak również nowe pole do prowadzenia działalności biznesowej. Najpopularniejsze  dzisiaj obszary tej aktywności dotyczą systemów obserwacji ziemi, łączności oraz nawigacji.  Najbardziej, w mojej opinii, nowatorskim kierunkiem technologicznym, który będzie się w tym kontekście rozwijał jest tak zwana kwantowa łączność satelitarna. Bazuje ona na przesyłaniu pojedynczych fotonów, w których stanach kwantowych zakodowany jest klucz umożliwiający bezpieczne przesyłanie informacji (już za pośrednictwem kanałów klasycznych). Ta tak zwana kwantowa dystrybucja klucza stanowi zasadniczy element internetu kwantowego, który dyskutuję w punkcie 7. Warto tu podkreślić, że kwantowa dystrybucja klucza została pomyślnie przeprowadzona w 2017-tym roku na odległościach międzykontynentalnych, wykorzystując specjalnie do tego zbudowanego satelitę Micius. Obecnie przygotowywanych jest szereg projektów rozwijających tę technologię, opierających się na nanosatelitach w standardzie CubeSat [Ref].

3. Biologia syntetyczna

Komórki już nie tylko muszą robić to do czego zostały wykształcone w toku ewolucji. Dzisiejsza nauka zaczyna umożliwiać nam ich programowanie, tak by realizowały zaplanowane przez nas zadania. Podobnie jak w przypadku programowania komputerów, możemy, wykorzystując komórkowy język programowania (np. SBOL), stworzyć program, wynikiem kompilacji którego jest konkretna sekwencja DNA. Dzięki

eight_col_synth_meat
Syntetyczne mięso. Źródło

rozwiniętym technikom syntezy DNA, możemy dzisiaj bez trudu stworzyć zaprojektowany przez nas materiał genetyczny, po czym dokonać jego mikroiniekcji do wnętrza komórki, wymieniając tym samy jej oryginalny “software”. Metodę tę obecnie rozwija się w przypadku jednokomórkowych organizmów jakimi są bakterie. Pozwala to programować je tak by realizowały określone funkcje np. w bioreaktorach. Kolejnym ważnym przykładem z obszaru biologi syntetycznej jest mięso in vitro. Warto tu zaznaczyć, że około 15 % gazów cieplarnianych (metan) pochodzi od zwierząt. Produkcja mięsa jest obecnie nieefektywna, a wzrost zamożności społeczeństw napędza popyt na produkty mięsne, przyśpieszając negatywne zmiany klimatyczne. Istotny jest również aspekt humanitarny, związany z masowym chowem i ubojem zwierząt. Wprowadzenie syntetycznego mięsa stanowi obiecujące rozwiązanie tych problemów. Warto zauważyć, że w bioreaktorach do produkcji syntetycznego mięsa zastosowanie mogą znaleźć opisane wcześniej programowalne bakterie. Dalsze informacje na temat biologi syntetycznej i tego jak samemu zacząć przygodę z tą dyscypliną można znaleźć np. w książce BioBuilder, której pierwszy rozdział można bezpłatnie przeczytać pod niniejszym linkiem.  

4. Sekwencjonowanie genomu

Materiał genetyczny potrafimy dzisiaj nie tylko syntezować, ale również sekwencjonować, choć jeszcze na początku tego milenium było to zadanie niezwykle ambitne. Zakończony w 2005-tym roku projekt zsekwencjonowania ludzkiego genomu – Human Genome Project pochłonął około trzech miliardów dolarów. Od tego czasu, koszt zsekwencjonowania ludzkiego genomu spada szybciej niż wykładniczo, co widać na

costpergenome2015_4
Koszty pełnego sekwencjonowania genomu ludzkiego. Źródło

załączonym wykresie.  Obecnie, cena zsekwencjonowania pełnego genomu wynosi poniżej kilkuset dolarów. Natomiast, za kwotę około 1000 USD można zakupić własny miniaturowy sekwencer oparty o technologię sekwencjonowania przez nanopory (rozwijane głownie przez firmę Oxford Nanopore Technologies). W przeciągu najbliższej dekady, możemy spodziewać się dalszej redukcji kosztów sekwencjonowania genomu, aż do wartości zapewniającej wręcz bezpłatną (w ramach opieki zdrowotnej) możliwość przeprowadzenia takiej analizy.  Wyzwaniem jest jednak to, jaką użyteczną informację możemy wydobyć z analizy naszego genomu. Niewątpliwie, genom zawiera całe bogactwo danych, jednoznacznie nas identyfikujących, w związku z czym podlegać będzie musiał specjalnym regułom bezpieczeństwa. Przesyłanie takiej informacji pomiędzy ośrodkami medycznymi będzie w przyszłości zabezpieczone przez wprowadzane obecnie algorytmy kryptografii postkwantowej lub też z wykorzystaniem rozwiązań kryptografii kwantowej (wykorzystujące kwantowy internet, dyskutowany w punkcie 7). Niewątpliwie, metody sztucznej inteligencji (dyskutowane w punkcie 6) istotnie przyczynią się do analizy materiału genetycznego i przygotowywania na jego podstawie rekomendacji oraz indywidualnych (spersonalizowanych) terapii. Możemy oczekiwać, że powszechne sekwencjonowanie genomu znacząco przyśpieszy rozwój medycyny personalizowanej, w ramach której np. różne wersje danego leku będą podawane w zależności od profilu genetycznego pacjenta.

5. Biodruk 3D 

Biodruk 3D jest wyłaniającą się nową technologią stawiającą sobie za jeden z głównych celów stworzenie narzędzia umożliwiającego wytwarzanie w sposób sztuczny w pełni funkcjonalnych narządów, mogących stanowić transplanty do przeszczepów. Jest to cel niezwykle ambitny, niemniej jednak postęp jaki dokonał się w przeciągu ostatnich kilku

produkt_dscf8374-white-bg-lighter-blue-x-square
Przykładowa komercyjnie dostępna biodrukarka 3D. Źródło

lat (w ramach którego biodruk 3D ukształtował się jako niezależna dyscyplina naukowa) daje silne podstawy do stwierdzenia, że nie ma fundamentalnych przeszkód dla których cel powyższy nie mógłby zostać ostatecznie osiągnięty. Warto przytoczyć tu, że na chwilę obecną z wykorzystaniem technologii biodruku 3D wytworzono między innymi modele: skóry, tkanki wątroby  czy też (bijącego) organoidu serca. Wytworzone w technologii biodruku 3D transplanty ucha, kości i mięśni przeszły pomyśle testy na myszach i szczurach. Powyższe obiecujące wyniki dały impuls do opracowania rozwiązań i usług w zakresie biodruku 3D oferowanych przez takie firmy jak Organovo (USA),  Aspect Biosystems (Kanada), 3D Bioprinting Solutions (Rosja)  czy Rokit (Korea Południowa). Ważnym wyzwaniem dla biodruku 3D jest wykorzystanie pluripotentnych komórek macierzystych, tak by uzyskać możliwość przygotowania transplantu 3D w oparciu o pobrany od pacjenta wycinek tkanki. Zanim jednak biodruk 3D znajdzie zastosowanie w praktyce klinicznej, będzie najpierw wykorzystywany do przygotowania trójwymiarowych hodowli przeznaczonych do testowania leków oraz np. tworzenia (dyskutowanego w punkcie 3) syntetycznego mięsa. Na zakończenie, pozwolę sobie dodać, że od kilku lat badania nad biodrukiem 3D prowadzimy w ramach Garażu Złożoności na Uniwersytecie Jagiellońskim [Ref]. 

6. Sztuczna inteligencja 

Sztuczna inteligencja o której tak dużo dzisiaj słyszymy to głównie tak zwana “wąska” sztuczna inteligencja (Artificial Narrow Intelligence – ANI) wyspecjalizowana na rozwiązywaniu konkretnego typu problemów. Na przykład, ANI potrafi rozpoznawać obrazy  lub też wygrywać z mistrzami gry w go. Zastosowań ANI jest obecnie na prawdę dużo. ANI opiera się głównie na tak zwanych głębokich sztucznych sieciach

intel-neuromorphic-chip-loihi-2
Neuromorficzny procesor Loihi firmy Intel. Źródło

neuronowych (ang. deep learning), których struktura inspirowana jest budową kory mózgowej. Warto tu dodać, że złożony proces uczenia sieci neuronowych może zostać wsparty przez komputery kwantowe (dyskutowane w punkcie ). Nadchodząca dekada przyniesie niewątpliwie nie tylko lawinę nowych zastosowań ANI ale również nastąpi znaczący postęp w kierunku stworzenia tak zwanej ogólnej sztucznej inteligencji (Artificial General Intelligence – AGI). AGI definiuje się jako typ sztucznej inteligencji odpowiadającej zdolnościom umysłowym człowieka.  Rozważa się obecnie kilka dróg do utworzenia AGI. Osobiście, za najbardziej obiecującą (i już najbardziej zaawansowaną)  drogę do osiągnięcia AGI uważam symulacje ludzkiego mózgu. Badania zmierzające w tym kierunku prowadzone są m.in. w ramach flagowego projektu Komisji Europejskiej Human Brain Project (HBP).  Symulacje te napotykają na szereg problemów natury technicznej. Jednym z obiecujących możliwości ich przezwyciężenia i  szybszego przybliżenia nas do AGI są  procesory neuromorficzne. Procesory takie już na poziomie swojej architektury odwzorowują strukturę połączeń neuronalnych, co znacznie ułatwia prowadzenie symulacji. Przykładem takiego procesora jest chip Loihi zbudowany przez firmę Intel.  Zawiera on 130 000 sztucznych neuronów oraz 130 milionów synaps. Architekturę neuromorficzną wykorzystuje się również w niedawno uruchomionym superkomputerze SpiNNaker, działającym w ramach projektu HBP. Do przeprowadzenia symulacji systemów neuronalnych nie wystarczy jednak sam software i hardware. Potrzebne są  również dane wejściowe do przeprowadzenia symulacji, lub mówiąc precyzyjniej emulacji mózgu. Należy je pozyskać z inwazyjnego lub bezinwazyjnego obrazowania mózgu. W szczególności, obiecująca jest inwazyjna metoda oparta o tzw. Serial Section Electron Microscopy. Z jej pomocą, uzyskano niedawno kompletny konektom mózgu małej rybki o nazwie Danio pręgowany [Ref]. Zobrazowanie tą metodą i zrekonstruowania konektomu jednego milimetra sześciennego tkanki mózgowej stawia sobie za cel, rozpoczęty w 2016-tym roku,  projekt MICrONS. Patrząc bardziej w przyszłość, osiągnięcie AGI, otworzy drogę do tak zwanej superinteligencji (Artificial Super Intelligence – ASI), przekraczającej ludzkie możliwości umysłowe.

7. Internet kwantowy 

Internet kwantowy to hipotetyczna globalna sieć kwantowa (ang. quantum network), która pozwoli w przyszłości na wymianę informacji kwantowej, w szczególności pomiędzy komputerami kwantowymi (o których pisałem w punkcie 1 ). Czym faktycznie okaże się kwantowy internet i jakie będzie jego znaczenie, tego jeszcze nie wiemy. Pierwszym zaś etapem jego tworzenia, rozwijanym obecnie, jest kwantowa dystrybucja klucza (KDK).  Kwantowa dystrybucja klucza jest,

qkd_product_small
Zestaw do kwantowej dystrybucji klucza. Źródło

rozważaną w ramach kryptografii kwantowej  metodą bezpiecznego przesyłania klucza za pośrednictwem stanów kwantowych pojedynczych fotonów. Metoda ta wykorzystuje własności mechaniki kwantowej (w szczególności tak zwane twierdzenie o zakazie klonowania) do przesyłania klucza, który zostanie później wykorzystany do zaszyfrowania i odszyfrowania przesyłanej już przez kanał klasyczny informacji.  Kwantowa dystrybucja klucza jest rozwiązaniem,  które zostało wdrożone do komercyjnego użytku.  Na zdjęciu powyżej można zobaczyć przykładowy zestaw do KDK. Dostępne jednakże obecnie rozwiązania posiadają jedno kluczowe ograniczenie. Mianowicie, jest to dystans, na który możemy przesłać zabezpieczoną kwantowo informację. Wiąże się to z tłumieniem fotonów w światłowodzie i koniecznością stosowania skomplikowanych tzw. powielaczy kwantowych. Obiecującym rozwiązaniem tego problemu jest przesyłanie fotonów z zakodowaną informacją kwantową poprzez atmosferę oraz przestrzeń kosmiczną. Udane próby interkontynentalnej KDK z wykorzystaniem kwantowych technologii satelitarnych udało się przeprowadzić w 2017-tym roku, co dyskutuję we wpisie Kwantowa łączność satelitarna. Obecnie trwają prace nad kilkoma projektami satelitarnymi które mają na celu rozwój kwantowych technologii związanych z łącznością satelitarną. Stworzenie podwalin dla internetu kwantowego to również jeden z filarów, rozpisanego na okres dziesięciu lat (2018-2028), flagowego programu Komisji Europejskiej Quantum Flagship.

8. Nowa energetyka jądrowa 

Technologiczny rozwój naszej cywilizacji wymaga coraz większej ilości energii. Popyt ten jest dzisiaj wciąż w dużej mierze zaspokajany przez paliwa kopane, spalanie których niesie jednak negatywne skutki dla jakości powietrza oraz prowadzi do zmian klimatycznych. Odnawialne źródła energii takie jak fotowoltaika i farmy wiatrowe dostarczają jedynie częściowego rozwiązania tego problemu. Przeszkodą w ich rozwoju jest problem magazynowania energii, który jednakże może być w dużym stopniu

41809720041_48b2f2d53f_b
Plac budowy reaktora termojądrowego ITER. Źródło

przezwyciężony stosując takie rozwiązania jak systemy power-to-gas czy też poprzez redukcję strat na przesyle energii na duże odległości (np. stosując w przyszłości nadprzewodzące sieci transmisyjne). Duże nadzieje związane z zapewnieniem stabilnego źródła energii (zarówno elektrycznej jak i cieplnej) niosą nowe rozwiązania w obszarze energetyki jądrowej. Wymarzonym źródłem energii jest kontrolowana reakcja syntezy (fuzji) termojądrowej.  Obecnie we francuskiej Prowansji trwa budowa eksperymentalnego reaktora ITER, mającego rozpocząć pierwsze eksperymenty z plazmą w połowie nadchodzącej dekady. Do 2035-tego roku planowane jest natomiast osiągnięcie generacji mocy rzędu 1GW (tyle samo co w typowym bloku elektrowni) i samo-podtrzymywanie plazmy przez nawet 1000 sekund. Jeśli projekt zostanie zwieńczony sukcesem, na jego kanwie ma zostać uruchomiony (prawdopodobnie w latach 2050-2060) pierwszy komercyjny blok termojądrowy o nazwie DEMO. Są to jednak odległe perspektywy. Dużo realniejsze w nadchodzącej dekadzie może natomiast stać się wykorzystanie nowych typów reaktorów bazujących nie na syntezie lecz na, stosowanym obecnie w elektrowniach atomowych, rozpadzie jądrowym.  Chodzi mianowicie o tak zwane reaktory jądrowe IV generacji, których bardzo obiecującym  przykładem (w perspektywie najbliższej dekady) jest reaktor wysokotemperaturowy chłodzony gazem (HTRG – High Temperature Gas-cooled Reactor).   Reaktory HTRG pozwalają na bezpieczną i bezemisyjną generację dużych ilości ciepła, znajdującego zastosowanie w przemyśle ciężkim, np. do wytopu żelaza. Ponadto, odbiorcą ciepła może być proces wytwarzania wodoru do zasilania ogniw paliwowych znajdujących zastosowanie w elektromobilności, dyskutowanej w punkcie 9. W przeciwieństwie do standardowych elektrowni jądrowych, reaktory HTRG o mocy rzędu 200 MW mają konstrukcję modułową i można je w znacznym stopniu budować w fabryce po czym integrować w miejscu przeznaczenia (np. na terenie huty).

9. Elektromobilność 

Samochody elektryczne przez wiele lat wydawały się mrzonką. Powstające prototypy były raczej ciekawostką i mało kto na poważnie brał pod uwagę możliwość tego, że za jego życia elektrycznie napędzane samochody zaczną królować na drogach i sama/sam zasiądzie za kierownicą jednego z nich. Wszystko jednak zmieniło się w przeciągu  kilku ostatnich lat,

www.helgilibrary
Prognoza rocznej sprzedaży aut elektrycznych. Źródło

głównie za sprawą pojazdów firmy Tesla.  W samym 2018-tym sprzedaż samochodów elektrycznych w USA zanotowała wzrost na poziomie 81 %, osiągając 2.1 % procent rynku samochodów w tym kraju. Globalny udział samochodów elektrycznych na koniec 2018-tego roku to zaś już 4.6%. Najwięcej z nich sprzedaje się w Chinach, gdzie liczba ta przekroczyła już roczną sprzedaż miliona sztuk. Jak wskazuje raport z 2016-tego roku, przygotowany przez Helgi Library, do końca 2030-tego roku około 20% sprzedawanych samochodów będą stanowiły samochody elektryczne. Będzie się to przekładało na sprzedaż około 20 milionów sztuk rocznie.  Otrzymane jednak w latach 2017-2018 wzrosty przewyższają prognozy na te lata. W konsekwencji, jak wskazują aktualniejsze analizy, poziom 20% w USA może zostać osiągnięty już w 2025-tym roku. Kluczowym czynnikiem który zadecyduje o adaptacji samochodów elektrycznych będzie ich cena. Od strony osiągów, samochody te już nie tylko dorównują tym konwencjonalnym, a wręcz w wielu aspektach są od nich lepsze (np. przyśpieszenie). Cena  w dużym stopniu uzależniona jest od kosztów baterii. Technologa która jest tu głównie stosowana to akumulatory litowo-jonowe (Li-Ion). Sztandarowy produkt Tesli Model S w wersji o pojemności 85kWh posiada matrycę 7104 akumulatorów o rozmiarach nieco większych od bateria AA każdy.  Rosnący popyt na akumulatory litowo-jonowe mają zaspokoić, między innymi, powstające giga fabryki (Gigafacory).  Ich pracę mogą jednak zakłócić ceny kluczowych do wytworzenie akumulatorów Li-Ion pierwiastków – litu i kobaltu. Notowania tych surowców odnotowały w ostatnich latach bardzo dynamiczny wzrost. Jednak baterie do samochodów to nie tylko problem kosztów ich wytworzenia, ale również ich recyklingu. Alternatywą dla akumulatorów mogą zaś okazać się ogniwa wodorowe. Z pewnością, rozwój elektromobilności dokona rewolucji rynku samochodowego oraz takich obszarów jak serwisowanie pojazdów. Warte podkreślenia jest to, że równolegle do rozwoju elektromobilności opracowywane i wdrażane są rozwiązania związane z autonomicznością pojazdów (oparte m.in. o wąską sztuczną inteligencję, dyskutowaną w punkcie 6 oraz nawigację satelitarną – punkt 2).   Połączenie tych dwóch elementów dokona w nadchodzącej dekadzie transformacji motoryzacji, a nazwa “samochód” nabierze nowego znaczenia.  Rosnąca rola bezemisyjnych samochodów elektrycznych będzie miała istotne znaczenie dla ograniczenia emisji gazów cieplarnianych i zanieczyszczeń do atmosfery.

10. Kolej próżniowa 

W sierpniu 2013-tego roku grupa inżynierów z firm Tesla i SpaceX, pod kierownictwem Elona Muska, przedstawiła koncepcję nowego środka transportu, określonego mianem hyperloop.  Założenia stojące za tym rozwiązaniem oraz  wstępne studium wykonalności  zawarto w raporcie Hyperloop Alpha.   Idea hyperloop polega na transporcie kapsuły (z pasażerami lub towarami) w rurze z obniżonym ciśnieniem, co ma na celu

image_04
Testowa linia kolei próżniowej firmy Hyperloop One. Źródło

zredukowanie oporu aerodynamicznego. Zakłada się, że kapsuła mogłaby poruszać się z prędkościami osiągającymi prędkości dźwięku, co stanowiłoby realną konkurencję dla komunikacji lotniczej na odległościach subkontynentalnych. Niezwykle ważne jest również to, że hyperloop wykorzystując jedynie energię elektryczną jest rozwiązaniem bezemisyjnym. Jego rozwój, jako alternatywy dla nieekologicznego ruchu lotniczego, jest więc ważny z punktu widzenia ograniczania emisji dwutlenku węgla do atmosfery.  Nad wdrożeniem technologii hyperloop pracuje obecnie kilka firm, wśród których wiodącą rolę odgrywają Hyperloop One i Hyperloop Transportation Technologies. W Polsce ideę hyperloop rozwija startup Hyperloop Poland. Wdrożenie hyperloop jako środka transportu stawia szereg wyzwań zarówno natury inżynieryjnej jak i ekonomicznej. Problemem technicznym jest, w szczególności, kwestia kompresji powietrza w przedniej części kapsuły i związany z tym wzrost ciśnienia, hamujący ruch samej kapsuły. Efekt ten zaczyna być szczególnie dokuczliwy gdy prędkość kapsuły osiąga prędkość dźwięku, uniemożliwiając cząsteczkom powietrza opływ kapsuły poprzez obszar pomiędzy wewnętrzną powierzchnią rury, a powierzchnią kapsuły.  Zjawisko to wiąże się z istnieniem tak zwanej granica Kantrowitza (ang. Kantrowitz limit), która zadaje maksymalną prędkość z jaką może poruszać się obiekt dla określonego stosunku przekroju tego obiektu względem przekroju poprzecznego rury.  Rozwiązaniem problemu wzrostu ciśnienia powietrza w przedniej części kapsuły jest zastosowania kompresora, który odpompowuje nadmiar powietrza do tylnej części kapsuły. Rozwiązanie takie ma jeszcze jedną zaletę; mianowicie, odprowadzane powietrze może zostać użyte do utrzymania kapsuły na wytworzonej poduszce powietrznej, jak w przypadku poduszkowca. Zastosowanie lewitacji (w tym przypadku ciśnieniowej) jest kluczowe do zredukowania tarcia pomiędzy kapsułą, a tubą. Alternatywnie, rozważane jest zastosowanie lewitacji magnetycznej, jak np. w szanghajskim Maglevie. Wykorzystanie takiego rozwiązania jest jednak dużo kosztowniejsze i wymaga większego zasilania (chyba, że zastosowane zostaną magnesy stałe).  Budowa od podstaw infrastruktury Hyperloop to ogromne wyzwanie ekonomiczne i planistyczne, jednakże już dzisiaj zapadają pierwsze decyzje dotyczące planów budowy instalacji kolei próżniowej.

11. Lab-on-a-chip

Wykonując ilościowe badania mikrobiologiczne standardowymi metodami musimy liczyć się z tym że, na ich wyniki będziemy musieli czekać przynajmniej 24 godziny, a w przypadku niektórych patogenów (np. grzyby) nawet kilka-kilkanaście dni. Wynika to z faktu, iż dla klasycznych posiewów na szalce Petriego należy inkubować kolonie komórkowe do czasu aż osiągną one makroskopowe rozmiary, pozwalające na zliczenie ich liczby gołym okiem. Ta skrajnie archaiczna metoda, nie przystająca do współczesnych realiów, jest jednak wciąż najpowszechniejszym sposobem analizy mikrobiologicznej zarówno w  diagnostyce medycznej jaki i w przemyśle spożywczym, farmaceutycznym i kosmetycznym. Sytuacja ta ma jednak szansę ulec zmianie za sprawą rozwiązań typu lab-on-a-chip, czyli miniaturowych systemów analitycznych. Układy tego typu mogą np. wykrywać i zliczać pojedyncze bakterie, eliminując konieczność długotrwałego oczekiwania na wyniki

shutterstock_311155133-1068x601
Przykład mikrofluidycznego układu lab-on-a-chip. Źródło

badań mikrobiologicznych (wymagających odczekania kilkunastu/kilkudziesięciu cykli podziałów komórek).  Układy lab-on-a-chip zazwyczaj wykorzystują rozwiązania mikroprzepływowe (tzw. układy mikrofluidyczne) pozwalające na przeprowadzanie reakcji chemicznych czy też biochemicznych, operując na objętościach płynów rzędu mikro litrów lub mniejszych. Układy tego typu wykonuje się zazwyczaj metodami litograficznymi w płytce ze szkła akrylowego (zdjęcie powyżej). Szczególną klasą systemów mikroprzepływowych są modele organów tzw. organ-on-a-chip. Przykładu rozwiązania lab-on-a-chip dostarczają również miniaturowe układy do sekwencjonowania DNA, wspomniane w punkcie 4. Miniaturyzacja i obniżenie kosztu układów diagnostycznych doprowadzi do ich szerokiego rozpowszechnienia. Będzie to miało duże znaczenie dla podniesienia poziomu diagnostyki medycznej w rozwijających się rejonach świata. Układy lab-on-a-chip  nie tylko (jako np. przystawki do smartfonów) trafią do naszych domów ale również umożliwią prowadzenie badań biomedycznych w warunkach kosmicznych, co już ma miejsce. Połączenie rozwiązań nanosatelitarnych (dyskutowanych w punkcie 2) z układami  lab-on-a-chip  może, w szczególności, dostarczyć metody opracowywania leków dedykowanych dla przyszłych kosmicznych eksploratorów [Ref].

12. Blockchain 

Blockchain to rozproszona baza danych (księga rachunkowa) nie posiadająca centralnej jednostki autoryzującej. Pomimo, że koncepcja ta była znana już wcześniej, szerokie zastosowanie znalazła dzięki kryptowalucie Bitcoin, której założenia zostały przedstawione w 2009-tym roku w pracy Bitcoin: A Peer-to-Peer Electronic Cash System. Wprowadzenie Bitcoina pociągnęło za sobą utworzenie wielu konkurencyjnych kryptowalut, których (na giełdach kryptowalut) notowanych jest już kilka tysięcy.  Funkcjonowanie Blockchainu wymaga zastosowania szeregu rozwiązań kryptograficznych, zapewniających poprawne funkcjonowanie systemu. Są to zarówno

untitled-design
Popularne kryptowaluty oparte o technologię Blockchain. Źródło

podpis elektroniczny, wykorzystywany do uwierzytelniania transakcji,  jak i funkcje haszujące mające zastosowanie do tworzenia adresów bloków oraz w procesie tzw. kopania (mining). Kopanie jest związane z metodą nagradzania osób, które angażują się w podtrzymywanie Blockchainu, co jest niezbędne do jego funkcjonowania. W przypadku Bitcoina,  stosowana jest funkcja haszująca SHA-256, która jest bardzo powszechnie wykorzystywana w zabezpieczaniu np. wymiany informacji w internecie (kliknij na kłódkę w przeglądarce w pasku adresu tej strony i zwróć uwagę na szczegóły certyfikatu TLS). Proces kopania, czyli poszukiwania rozwiązania zadania opartego o przeszukiwanie dziedziny funkcji haszującej, jest jednak zadaniem bardzo żmudnym i wymagającym ogromnych mocy obliczeniowych. Tylko w przypadku Bitcoina (jak wskazuje Bitcoin Energy Consumption Index) roczna konsumpcja energii elektrycznej wynosi około 50 TWh, co przekłada się na średnią pobieraną moc 5,7 GW. Jest to porównywalne z mocą pięciu elektrowni atomowych lub całkowitym zapotrzebowaniem na energię elektryczną Singapuru. Ponieważ energia ta pochodzi jednak w głównej mierze z elektrowni węglowych, tak duża konsumpcja energii rodzi obawy związane z emisją dwutlenku węgla i jego negatywnego wpływu na klimat [Ref].  Problem ten będzie musiał znaleźć rozwiązanie w przyszłych implementacjach technologii Blockchain. Kolejnym problemem, jaki stoi przed stabilnością rozwiązań opartych o Blockchain jest kwestia podatności na ataki na wykorzystane rozwiązania kryptograficzne. Kwestię tę dyskutuję dokładniej we wpisie Kryptowaluty-Kwanty-Kosmos. Rzecz mianowicie dotyczy nowych możliwości zarówno rekonstrukcji kluczy prywatnych (w tzw. kryptografii asymetrycznej) jak i przeszukiwania dziedzin funkcji haszujących, jakich dostarczą komputery kwantowe, dyskutowane w punkcie 1.  Przyszłe implementacje Blockchainu będą wymagały zastosowania klasycznych algorytmów kryptograficznych nie podatnych na ataki kwantowe. Algorytmy takie są dzisiaj opracowywane w ramach tak zwanej kryptografii postkwantowej.  Ponadto, rozwój internetu kwantowego (dyskutowanego w punkcie 7) pozwoli na wprowadzenie Blockchainu opartego o kwantową dystrybucję klucza. Prace nad kwantowo zabezpieczoną wersją Blockchainu są już obecnie prowadzone [Ref]. Warto na koniec podkreślić, że Blockchain ma zastosowanie nie tylko w obszarze finansowym. Do przyszłych pól implementacji tej technologii możemy zaliczyć m.in.: przechowywanie danych medycznych, ubezpieczenia, zarządzanie infrastrukturą IoT, elektroniczne zawieranie umów, księgi wieczyste, kontrola nad prawami do utworów artystycznych oraz zarządzanie łańcuchami dostaw.

© Jakub Mielczarek