Tlo DG 4-5

Technologiczny wyścig – sztuczna inteligencja i kwantowe pierwszeństwo

Każdego dnia korzystamy z nowoczesnych wynalazków, poza granicą naszej percepcji dochodzi do sytuacji, w której stajemy się czynnymi uczestnikami wyścigu zbrojeń. W tej wojnie to technologie wydają się głównym orężem w globalnej rywalizacji. A miejsce Polski tutaj? Odpowiedź na to pytanie znajdą Państwo w niniejszym artykule.

„Żyjemy w społeczeństwie fundamentalnie uzależnionym od nauki i technologii, w którym mało kto ma jakiekolwiek pojęcie o nauce i technologii”.

Z tym zdaniem wypowiedzianym niegdyś przez Carla Sagana, profesora astronomii (współpracującego swego czasu chociażby z NASA czy U.S. Air Force), trudno się nie zgodzić, zwłaszcza mając świadomość, że użyte w nim określenie „nauka” (ang. science) odpowiada w świecie zachodnim tym dyscyplinom naukowym, które w polskiej terminologii dotyczyłby według najnowszego rozporządzenia1 dziedziny nauk ścisłych i przyrodniczych. Z kolei przez „technologię”, potocznie utożsamioną z techniką (i na odwrót), można rozumieć dziedzinę nauk techniczno-inżynieryjnych oraz metody techniczne związane z procesami wytwarzania i przetwarzania dóbr i informacji.

Oprócz ekspertów i ignorantów, jeśli chodzi o naukę i technologię, są ludzie dostatecznie świadomi ich wagi, zdolni docenić rolę i znaczenie nauki i techniki. Podobna świadomość to niestety od dekad rzadkość w polskiej klasie politycznej. Obserwując poczynania naszego rządu, a także biorąc pod uwagę długotrwałe zaniedbania w sferze szkolnictwa wyższego i na polu innowacyjności (od dziesięcioleci zawłaszczanej przez propagandę), można odnieść wrażenie, że nauka i technika stały się domeną głównie szeregowych inżynierów chcących zaistnieć na rynku lub ambitniejszych profesorów z coraz słabszych kadrowo badawczo-rozwojowych instytutów uniwersyteckich. Rzadko kiedy mamy tu do czynienia z korzystnym sprzężeniem zwrotnym i harmonijną współpracą poszczególnych jednostek badawczych i przemysłowych. A współpracę rozpoczętą najczęściej hamuje potężna ściana biurokratyczna, która krępuje działanie i pozyskiwanie środków. Niestety, wsparcie ze strony NCN (Narodowego Centrum Nauki), NCBiR (Narodowego Centrum Badań i Rozowoju) czy podobnych agencji zbyt rzadko daje wymierne rezultaty, przynajmniej na obszarach potencjalnie najbardziej innowacyjnych.

Do ważnych osiągnięć nauk przyrodniczych i technicznych, które trwale ukształtowały świat współczesny, można zaliczyć kwantową teorię ciała stałego, technologię wytwarzania elementów półprzewodnikowych (w konsekwencji wynalezienie komputerów), radiołączność, Internet, lasery (źródła promieniowania koherentnego), światłowody tudzież akceleratory cząstek. Sprzętowe możliwości komputerów pozwoliły rozwinąć się inżynierii oprogramowania oraz teorii sterowania systemów, w tym teorii przetwarzania sygnałów. Nierzadko czerpano z dużo wcześniejszych odkryć poniekąd oczekujących praktycznych zastosowań, za przykład niech posłuży transformacja Fouriera2, która dopiero wraz z rozwojem inżynierii przetwarzania sygnałów zyskała na znaczeniu i została owocnie zaadaptowana. Istotne osiągnięcia naukowe i wynalazki odcisnęły trwałe piętno na ludzkiej egzystencji ostatnich pokoleń. W końcu nikogo już nie dziwi, że czytany właśnie artykuł może docierać na ekrany komputerów czy smartfonów Czytelników w każdym miejscu globu w czasie liczonym w sekundach i ułamkach sekund, a kilkadziesiąt lat wstecz dało się zestawić co najwyżej kilkadziesiąt jednoczesnych połączeń telefonicznych między Europą a Ameryką.

Dzisiaj obserwujemy wyraźny wzrost (rys. 1) znaczenia metod opartych na sztucznej inteligencji (ang. AI: artificial intelligence), np. na sztucznych sieciach neuronowych (ang. ANN: artificial neural networks), nauki maszynowej (ang. machine learning), w tym także uczenia głębokiego (ang. deep learning), wreszcie algorytmów genetycznych (ewolucyjnych). Jest to plonem interdyscyplinarnego podejścia i zaadaptowania mechanizmów obserwowanych w świecie biologicznym do rozwiązywania problemów z zakresu inżynierii oprogramowania, co potrzebne zwłaszcza tam, gdzie klasyczne podejście algorytmiczne nie daje dobrych rezultatów. Istotne staje się także efektywne gospodarowanie ogromnymi zasobami danych (zagadnie tzw. big data) oraz rozpoznawanie i przetwarzanie informacji, jakie dotąd potrafił zinterpretować wyłącznie człowiek (rozpoznawanie i identyfikacja twarzy, treści obrazów, mowy ludzkiej itp.). Zgodnie z raportem WIPO (Światowej Organizacji Własności Intelektualnej)3, liczba publikacji naukowych dotyczących sztucznej inteligencji dynamicznie rośnie od blisko 40 lat.

Rys. 1. Liczba publikacji naukowych i patentów dotyczących zastosowań sztucznej inteligencji3

Wynik Polski w nauce o sztucznej inteligencji (rys. 2) jest przyzwoity, zbliżony do wyniku krajów Europy Zachodniej czy Kanady, Turcji i Australii. Niestety nie jest to pierwsza liga, prym wiodą tu Stany Zjednoczone Ameryki oraz – co nie jest zaskoczeniem – Chiny.

Rys. 2. Liczba publikacji naukowych z zakresu sztucznej inteligencji w ujęciu geograficznym (według lokalizacji podmiotów, z którymi powiązani są autorzy)3

Jeśli chodzi o liczbę patentów, czołowe lokaty zajmują wymienieni wyżej hegemoni, lecz Polska wyraźnie traci już dystans nie tylko do Niemiec, Japonii i Korei Południowej, lecz także do takich krajów, jak Francja, Szwecja, Brazylia, a nawet Indie. Bo nawet dość liczne i zaawansowane prace naukowe w zakresie sztucznej inteligencji nie kończą się u nas równie częstym wypracowywaniem rozwiązań patentowych. Jeszcze gorzej jest z konkretnymi przemysłowymi zgłoszeniami patentowymi i wdrożeniami firm i naukowych instytucji. Wśród pierwszej trzydziestki firm i instytucji mających na swoim koncie najwięcej patentów próżno szukać marek rodzimych. Bynajmniej nie oznacza to, że żadnych osiągnięć tu nie mamy, ale ukazuje słabość polskich firm z branży wysokich technologii na arenie globalnej, ich znikomy udział w kreowaniu nowych rozwiązań technicznych w supernowoczesnym obszarze badań nad sztuczną inteligencją.

Wymienione metody oparte na sztucznej inteligencji i sposoby eksploracji danych są istotne z punktu widzenia bieżących tendencji globalnych, które za cel mają wprowadzenie do powszechnego użytku – z aprobatą ogółu bądź bez aprobaty – takich technologii (w jakimś zakresie już z nich korzystamy), jak bezprzewodowa identyfikacja (z ang. RFID: radio-frequency identification), robotyka i automatyzacja nowej generacji (mowa najczęściej o rewolucji zwanej „przemysł 4.0”), standardowa sieć telekomunikacyjna piątej generacji (5G), Internet rzeczy (z ang. IoT- Internet of things) czy inteligentne miasta i sieci energetyczne (ang. smart grid), wreszcie elektromobilność, w tym pojazdy autonomiczne. Wszystkie te technologie łączy jeden wspólny mianownik: konieczność bardzo szybkiego przekazywania informacji (często dużej ilości danych), wysyłanych nieraz daleko. Sprostają owej konieczności ci, co przejdą od elektronowego (opartego na przewodach miedzianych) do bezprzewodowego (naziemnego lub satelitarnego) przesyłania informacji, a jeszcze efektywniejsze okażą się światłowody (osiągnięcie współczesnej inżynierii fotonicznej).

Rozwój fizyki kwantowej, inżynierii fotonicznej, nanotechnologii, kriogeniki, a także inżynierii materiałowej pozwolił na kolejny technologiczny przełom, na opracowanie i wytworzenie procesorów kwantowych. Używa się ich w komputerach kwantowych najnowszej generacji. Znajdują one zastosowanie praktyczne chociażby w chemii kwantowej czy uczeniu maszynowym, a dzięki ogromnej mocy obliczeniowej przyspieszą zapewne rozwój wielu branż, które wymagają złożonych analiz symulacyjnych. Uniwersytety i koncerny technologiczne ścigają się dziś o „kwantowe pierwszeństwo” i uzyskanie tzw. „supremacji kwantowej” (przewagi kwantowej), co oznaczałoby, że oparty na nowej technologii komputer dokona obliczeń niemożliwych dla klasycznego superkomputera. Obecnie przewodzą tu firmy i instytucje amerykańskie oraz chińskie. W grudniowym wydaniu prestiżowego magazynu Science4 chińscy konstruktorzy chwalą się, że ów cel osiągnęli. Ich komputer kwantowy Jiuzhang miał wykonać w 180 sekund obliczenia, które najszybszemu klasycznemu superkomputerowi Fugaku zajęłyby 600 mln lat. Trzeba przyznać, że takie porównanie potencjałów robi wrażenie, a kraj, który dysponuje podobnym narzędziem, wybiega w technologicznym wyścigu daleko przed kraje posługujące się klasycznymi technologiami superkomputerowymi. Jeśli uświadomimy sobie, że sama koncepcja teoretyczna budowy komputerów kwantowych rozwija się już od lat 80., a wkład (poczynając od lat 90.) wniósł także znakomity polski informatyk i fizyk prof. Artur Ekert (związany z Uniwersytetem w Oksfordzie), to zdumiewa brak bezpośredniego udziału Polski w tym wyścigu. Niemniej należy zasygnalizować, że aktualnie funkcjonuje kierowana przez prof. Marka Kusia grupa badawcza, która zrzesza polskich fizyków i informatyków, ale niestety nie skupia się ona na budowie samego urządzenia, lecz na nowatorskich aspektach obliczeń kwantowych, na analizie algorytmów optymalizujących działanie mniej doskonałych urządzeń, o zdecydowanie mniejszych możliwościach i przeznaczonych w przyszłości na rynek komercyjny. Na realizację projektu w ramach programu TEAM-NET uczeni otrzymali dofinansowanie od FNP (Fundacji na rzecz Nauki Polskiej) w wysokości ponad 17 mln zł5. Znamienne jest, że FNP to niezależna i samofinansująca się polska instytucja pozarządowa.

Warto wspomnieć, że od strony technicznej konstrukcja komputera kwantowego jest nadzwyczaj skomplikowana ze względu na wrażliwość zachodzących w nim procesów na towarzyszące zjawiska fizyczne. Nawet najdrobniejsze wahania temperatury, poziomu dźwięku, ciśnienia czy pola magnetycznego prowadzą do tzw. dekoherencji układów kwantowych, co powoduje błędy w obliczeniach, dlatego urządzenie schładza się do poziomu bliskiego zera bezwzględnego oraz umieszcza w wysokiej próżni (ciśnienie 10 mld razy niższe od ciśnienia atmosferycznego). Wysoki stopień komplikacji i w konsekwencji spora kwota potrzebnego dofinansowania powodują – co nie dziwi – że polski zespół badawczy nie zajmie się budową takiego urządzenia wprost. Jeżeli jednak projekt badawczy realizowany nawet w tak ograniczonym zakresie da przełomowe, a przynajmniej znaczące wyniki naukowe, to zapewne odpowiednie ministerstwo uzna osiągnięcie za swoje i odtrąbi w mediach kolejny sukces. W końcu, jak mówi przysłowie, sukces ma wielu ojców, porażka zawsze jest sierotą.

Obecnie Polska nie jest w stanie równorzędnie rywalizować na polu sztucznej inteligencji. Nie oznacza to bynajmniej, że nie mieliśmy podobnych okazji wcześniej, zwłaszcza w dziedzinie tak istotnej dzisiaj inżynierii fotonicznej. Od momentu, kiedy w roku 1960 pierwszy raz zabłysła laserowa wiązka światła, emitowanego za pośrednictwem prętu rubinu, minęły zaledwie trzy lata, gdy w Wojskowej Akademii Technicznej w Warszawie powstał laser gazowy helowo-neonowy. Wchodząca w skład Układu Warszawskiego Polska stała się pionierem techniki laserowej w całym bloku wschodnim. Niestety, zawodny jak zwykle u nas „system” zawiódł w czasach nam bliższych. Ustanowiony w 1998 roku strategiczny program rządowy „Rozwój niebieskiej optoelektroniki”, oparty na użyciu przyrządów z azotku galu (GaN), mimo istotnych osiągnięć naukowych nie dopiął wytkniętych celów. Ambitnych planów rozwinięcia w Polsce nowej gałęzi przemysłu, która miała dać miliardowe zyski (przy względnie niskich nakładach na prace wdrożeniowe – na poziomie 57,7 mln zł)6, nie zrealizowano. Prace pod kierownictwem prof. Sylwestra Porowskiego, właściwie ojca polskiego niebieskiego lasera, postępowały zbyt wolno w porównaniu z zagranicznymi ośrodkami badawczymi, zwłaszcza japońskimi, którym udało się dojść do rozwiązań eksperymentalnych zdatnych do komercjalizacji i opanowania rynku. Do dziś można się spotkać z różnymi ocenami realizacji samego projektu. Nie ulega atoli kwestii, że Polska jako państwo nie potrafiła na poziomie instytucjonalnym wypracować dostatecznie dobrego aparatu wspierającego, koordynującego i monitorującego postęp prac, a poziom dofinansowania przedsięwzięcia był nader niski w zestawieniu z zagranicą.

Wcale nie zaskakuje to, że większość nowoczesnych technologii znajduje zastosowania również w dziedzinie obronności. Wiadomo skądinąd, że często jakieś rozwiązanie techniczne jest w pierwszej kolejności wypracowywane na potrzeby wojska, a dopiero później uzyskuje inne zastosowania. Nowoczesne technologie militarne mogą dawać niebywałą przewagę nad innymi państwami; historia uczy, że naród liczebnie większy nie musi wygrać wojny. Współcześnie tę przewagę możemy zaobserwować na przykładzie dostępu do broni atomowej. Państwa nie mające jej w swoim arsenale stoją niechybnie na pozycji straconej w przypadku konfliktu zbrojnego z państwami posiadającymi taką broń. Niemniej przewagę nad innymi państwami dają też gospodarcze zastosowania wysokich technologii – zarówno w czasie wojny, jak i pokoju – przy czym nie może wchodzić w grę gospodarka oparta na rozwiązaniach archaicznych ani też nie sprawdzonych (zbyt nowatorskich, awaryjnych). Wyścig technologiczny, dziś widoczny szczególnie na obszarze wdrażania nowoczesnych technologii, wolno tedy ująć także jako wyścig zbrojeń. Warto o tym pamiętać, gdy zechcemy rozwijać różnorodne zagadnienia w ramach podjętego tematu.

W kolejnych wydaniach Nowoczesnej Myśli Narodowej rozpoczęty tutaj wątek „wyścigu technologicznego” będzie z pewnością kontynuowany i obejmie inne płaszczyzny dokonań niezbędnych dla nowoczesnej infrastruktury przemysłowej i energetycznej. Dlatego już teraz zapraszam Czytelników do śledzenia kolejnych wydań oraz do wzięcia udziału w panelu dyskusyjnym bądź nadsyłania stosownych uwag lub sugestii. Służymy naszym forum i odpowiadamy na listy wysłane pocztą elektroniczną na adres redakcji.

 TW D.G.


1 Rozporządzenia Ministra Nauki i Szkolnictwa Wyższego z dnia 20 września 2018 r. w sprawie dziedzin nauki i dyscyplin naukowych oraz dyscyplin artystycznych

2 Twórcą operacji matematycznej zwanej transformacją Fouriera jest żyjący na przełomie XVIII i XIX wieku francuski matematyk i fizyk Jean Baptiste Joseph Fourier.

3 WIPO Technology Trends 2019 – Artificial Intelligence

4 Cf. Han-Sen Zhong, Hui Wang, Yu-Hao Deng, … [and others], Quantum computational advantage using photon, Science, 18 Dec 2020, pp. 1460-1463.

5 Cf. https://www.fnp.org.pl/polski-wklad-w-budowe-komputera-kwantowego-2/

6 Informacja na podstawie raportu z kontroli przeprowadzonej w Centrum Badań Wysokociśnieniowych PAN w 2002 roku oraz planu finansowania wieloletniego programu „Rozwój niebieskiej optoelektroniki”.

Tagi: Brak tagów

Add a Comment

Your email address will not be published. Required fields are marked *