NAUKA I TECHNIKA W PK


Zbigniew Polański

 

TECHNOLOGIA INFORMACYJNA – KONCEPCJE,

PROGNOZY I KONSEKWENCJE  (cz. II) (cz. I)

 

 

Secundo: prognozy

 

Meandry prognozowania

    Prognozowanie to zajęcie trudne, gdyż wymaga ustalenia tego, co w przyszłości może się zdarzyć, o ile sprawy będą się toczyć w dotychczasowym trybie. Formalnie istnieje dyscyplina naukowa nazywana teorią prognozy, która określa takie postępowanie jako analizę trendów, pozwalającą na dokonanie predykcji. Mniej formalnie, rezygnując z niezrozumiałego żargonu, twierdzę wręcz odwrotnie: prognozowanie jest łatwe, zwłaszcza w odległym, wydłużonym horyzoncie czasowym. Nie pierwszy raz, rezygnując nieco z ponurej powagi, powołam się na opinię światowego humorysty Scotta Adamsa – twórcy Dilberta, komiksowego człowieczka o kwadratowej główce i w okularach intelektualisty. W swoim ostatnim bestsellerze: Przyszłość według Dilberta Adams pisze wprost, iż przyszłość to świetny temat, gdyż w chwili dostrzeżenia omyłek w prognozie – można już być nieboszczykiem. Od siebie dodam, że wcześniej ludzie po prostu raczej zapomną, iż ktoś kiedyś cokolwiek prognozował.
  
A poważnie: prognoza zawsze zakłada ciągłość istniejących trendów, co z założenia prowadzi do nietrafności prognozy, o ile zdarzy się coś nieoczekiwanego. Dlatego, a jest to mój osobisty pogląd, nie wierzę w możliwości matematyzacji prognoz – jako prostej ekstrapolacji matematycznej istniejącego trendu. Taką prognozę można nawet powierzyć komputerowi. Wierzę natomiast w wykraczający poza możliwości współczesnych komputerów intelekt futurologów, którzy przewidują rzeczy pozornie nieprzewidywalne.
  
Nietaktem byłoby mówienie o naukowej futurologii bez przywołania autorytetu Stanisława Lema, który notabene niedawno obchodził 80. rocznicę urodzin. Jego prognozy, w znakomitej większości, sprawdziły się i to szybciej niż przypuszczał ich autor; będę go więc cytował.

 

Granice i zmierzch
komputerowej epoki krzemu

    Możliwości procesora i rozmiary pamięci determinują jakość komputera, reszta jest niezbędna i ważna, ale nie ma decydującego znaczenia. Rozszerzające się zastosowania komputerów od matematycznego modelowania klimatu i symulacji procesów syntezy termojądrowej, przez świat handlu i finansów, do systemów operacyjnych pecetów i coraz to nowszych wersji pakietów programów biurowych (edytor, arkusz kalkulacyjny, programy grafiki prezentacyjnej itd.) – stymulują nowe rozwiązania projektowo-technologiczne procesorów i pamięci (zarówno kostek RAM, jak i twardych dysków, nośników zewnętrznych itp.).
  
Obecnie trwa wojna gigantów: Intel rzuca na szalę Pentium 4 z jego 2 GHz zegarem, produkowanym nadal jeszcze w technologii 0,18 mikrometra. W odpowiedzi jego największy rywal AMD przyspiesza debiut Athlona – 1,533 GHz. Ale nie łudźmy się, że jedynie te liczby świadczą o jakości procesora –  to wykażą dopiero odpowiednie testy. Liczby te mają przede wszystkim znaczenie marketingowe; sytuację można porównać np. z reklamą zachęcającą do kupienia nowego modelu samochodu, gdyż zeszłoroczny nie jest wyposażony np. w czujnik uruchamiający automatycznie wycieraczki przy pierwszych kroplach deszczu.
  
Technologia 0,18 milimetra to parametr długości, określający pewne cechy procesora; można go zmniejszyć np. do 0,13 milimetra, a dalej? Na końcu jest już elektronika molekularna, która – tak jak cała nanotechnologia – koncentruje się na rozmiarach elementów porównywalnych z wymiarami molekuł.
  
Dygresja – awizowany cytat z S. Lema (Okamgnienie, WL 2000, s. 13): (…) udało się zbudować elementarne jednostki układów komputerowych, tak zwane bramki logiczne, z jednej molekuły (…) będą nie tylko setki razy mniejsze, ale ponadto koszt ich wytwarzania ogromnie się zmniejszy. Lem pisze też (ibidem, s. 15): Era krzemowa zdaje się zmierzać ku swojemu końcowi.
  
Poprzednio wyjaśniałem podstawową koncepcję komputera, bazującą na elemencie dwustanowym typu zero
(0) / jeden (1). Jeden z twórców superkomputerów – Daniel Hillis napisał wprost (Wzory na krzemowej płytce. CiS, 2000), iż komputery mogą być zbudowane np. z drążków i linek, gdyż – cytuję: Istotą tego, co sprawia, że komputery przeprowadzają obliczenia, są koncepcje… A to upoważnia do odstąpienia od sygnału elektrycznego, a praktycznie krzemowych tranzystorów i łączących je przewodów – jako podstawowego elementu fizycznego przetwarzającego informację. Mogą być one zastąpione przez inne formy fizycznej realizacji stanów binarnych (niekoniecznie jednak przez drążki i linki, aczkolwiek demo-komputerek z rurek napełnionych wodą już zrobiono). Wskażę kilka z nich, rozpoczynając od koncepcji bazujących na fizyce kwantowej.
  
Nie sposób tu wkraczać w świat fizyki kwantowej, musiałbym chyba rozpocząć od kota Schrödingera. Fizyka kwantowa dotyczy atomowego mikroświata rządzonego przez prawa teorii kwantowych. Można jednak, bez bliższego uzasadnienia, akceptować fakt, iż spośród gamy różnych zjawisk fizycznych, w których biorą udział atomy, cząstki elementarne itp. – możliwe jest wyróżnienie takich, które mogą reprezentować dwa rozróżnialne stany: zero (0) i jedynkę (1). A to już tworzy fundamenty nowej koncepcji komputera kwantowego. Przykładowo jedynie wspomnę, iż kwantowa fizyka ciał stałych zna zjawisko związane z nadprzewodnictwem, określane jako złącze Josephsona; jesteśmy więc blisko procesora nadprzewodnikowego. Przyczyny, dla których trwają prace nad komputerem kwantowym, są istotne; niezależnie od potężnej mocy obliczeniowej komputer kwantowy zapewnia bezpieczeństwo informacji. Haker, podsłuchując transmitowany sygnał – zgodnie z zasadą Heisenberga – ingeruje w treść informacji, praktycznie ją niszcząc, z jednoczesnym powiadomieniem o tym nadawcy sygnału. Droga do produkcji komputera kwantowego jest jeszcze może i długa, ale… podobno prototyp komputera kwantowego rozwiązał już proste zadanie z fizyki.
  
Alternatywną i bliską teoretycznie jest koncepcja komputera optycznego. Elementem binarnym jest światło – promieniowanie elektromagnetyczne, które na przykład podlega modulacji realizującej stany zero (0) – jedynkowe (1). Koncepcje mogą być różne – przykładowo w bagnach stref tropikalnych żyją bakterie, które niezbędną do życia energię uzyskują wprost ze światła. Występujące w tym procesie białko (bakteriorodopsyna) może stanowić element kodujący informację, którą można zapisywać i odczytywać, a to przecież stanowi istotę pamięci komputerów. Światło, konkretniej światło laserowe w kablu światłowodowym, ma kilka ważnych zalet. Nie tylko z oczywistych przyczyn zapewnia poważne zwiększenie szybkości przesyłania informacji, ale posiada inne korzystne cechy transmisji: dużą pojemność informacyjną światłowodu połączoną z odpornością na zakłócenia oraz – co w naszym świecie pełnym konfliktów jest szczególnie ważne – odporność na podsłuch (faktem jest podsłuch kabli transoceanicznych. Warto też wspomnieć o hipotetycznie realnej koncepcji wykorzystania zjawiska spowolnienia światła. Temu, który prędkość światła kojarzy jedynie z wartością “stałej Einsteina”: c = 299792458 m/s wyjaśniam, iż odnosi się ona do próżni. W innych ośrodkach światło spowalnia; jeden z artykułów w Nature (18.02.1999) podaje wprost w tytule wartość 17 m/s, do której spowolniono światło).
  
Oczywiście, to nie koniec możliwości, pozostały szczególnie obiecujące in spe możliwości biologii molekularnej. Z powodzeniem realizowany jest “Projekt badania ludzkiego genomu” (Human Genome Project), a przecież w DNA kodowana jest informacja; jesteśmy więc teoretycznie blisko komputera biologicznego. Rozwijające się gwałtownie biotechnologie, kto wie, czy nie doprowadzą do hodowli układów logicznych, a dalej: hodowli całych procesorów i pamięci komputerów przyszłości.
  
Powstaje pytanie: czy to są realne kierunki działań, czy też fantazje rodem z modnych powieści sensacyjnych typu thriller technologiczny. Odpowiem tak: odnotowano, w co trudno obecnie uwierzyć, iż był taki moment, gdy szefowie IBM mieli wątpliwości, czy komputery będą stanowiły dobrą ofertę handlową (autentyczne!). Teraz sytuacja jest zupełnie odmienna, istnieją przyczyny uzasadniające zaangażowanie olbrzymich środków finansowych na badania naukowe i projekty w dziedzinie ultraszybkiego przetwarzania ogromnych liczb danych. Okazało się bowiem, że istniejące superkomputery – o szybkości operacji rzędu teraflopów (1012) – okazały się… zbyt wolne. Klimatologia, medycyna i biologia, zwłaszcza biologia molekularna, nanotechnologie, zaawansowana inżynieria i energetyka atomowa – wymagają petaflopów (1015), czyli już nie super- tylko hiperkomputerów. A fakt, iż tłem są zastosowania militarne – nie stanowi dla nikogo tajemnicy; mówi się nawet wprost o symulacji procesów modelujących jądrową broń strategiczną, omijającą zakaz prób fizycznych.

 

W stronę sztucznej inteligencji

    Współczesne komputery, w tym nasze ukochane pecety, działają w myśl koncepcji Johna von Neumanna – robią wyłącznie to, co nakazuje im program. Prawda, iż programy można wymieniać, ale wcześniej należy je jednak… napisać. Oznacza to, iż światem komputerów rządzi triada programowania: metoda – algorytm – program. Jeżeli komputer ma rozwiązać określone zadanie, to uprzednio człowiek musi ustalić właściwą metodę jego rozwiązania. Komputerowy hardware i software uzupełnia ludzki wetware – mokry towar, czyli nasz mózg. Ustaloną metodę rozwiązania zadania należy przekształcić w pewną strukturę działań – nazywaną algorytmem. Bez żadnych niejednoznaczności, niezdefiniowanych opcji i o wyraźnie określonym początku (START) i końcu (STOP) procesu przetwarzania wprowadzonych danych. I do tego sugestia, aby trwało to krótko, wymagało możliwie mało pamięci i – co jest oczywiste – wynik był poprawny.
  
Dysponując algorytmem, należy już tylko umieć przekształcić go w zakodowaną sekwencję instrukcji, które odczyta komputer działający – jak wiadomo – jedynie na bitach. Programista pisze więc kod źródłowy, a czynność tę ułatwiają mu istniejące języki programowania. Pisanie programu wprost w kodzie zero-jedynkowym (kod maszynowy) jest teoretycznie możliwe, lecz praktycznie nierealne; poważne programy mają tysiące, jak nie miliony, linii kodu źródłowego. Opis języków programowania, od asemblera do C++, a może nawet języka C# stworzonego specjalnie w związku z platformą. NET Microsoftu – może być jedynie przedmiotem wybranych zajęć dydaktycznych w toku studiów.
  
Od dawna podejmowane są próby, aby maszyna nazywana komputerem nieco zmądrzała –- oficjalnie istnieje nawet obszar informatyki nazywany sztuczną inteligencją (AI – Artificial Intelligence). Cel ostateczny: upodobnienie komputera do umysłu człowieka, szanse osiągnięcia celu, jak dotychczas, raczej – ambiwalentne. Niejednoznaczność ma swoje podstawy; jedni mówią, iż stanowi to jedynie kwestię czasu, zanim będziemy się zawzięcie np. kłócić z komputerem. Inni jednak zdecydowanie twierdzą, że nigdy nie będzie to możliwe. I mają argumenty: inteligencja nadal stanowi niezdefiniowany fenomen właściwy człowiekowi. A bardziej konkretnie: jeżeli nawet komputer będzie wykazywał pewne cechy inteligencji racjonalnej, logicznej (tej mierzonej wskaźnikiem IQ), to natrafi na poważne trudności przy próbach wkroczenia w obszary inteligencji emocjonalnej (EQ – Emotional Quality). Poszukujący teorii świadomości Roger Penrose stwierdza (Cienie umysłu, Zysk  i S-ka 2000, s. 513): Są to bardzo głębokie problemy i daleko nam do ich pełnego zrozumienia. Dodam: kunszt algorytmiki może nawet doprowadzić do taksonomiczno-numerycznego symulowania emocji. Nadal jednak w oczach Harry’ego Pottera, komputer pozostanie mugolem. Przecież świat magii niedostępny jest nawet dla wielu ludzi, zwłaszcza dorosłych. Odrzucając jednak, raczej filozoficzne, aspekty sztucznej inteligencji, można wskazać na pewne spektakularne rezultaty badań i to o praktycznych już zastosowaniach. Przykładowo wymienię systemy ekspertowe, w tym również te z rozmytymi regułami logicznego wyboru. Dodatkowo wymienię pewne wyniki w obszarze przetwarzania języków naturalnych (translacja itp.), automatyzację dowodzenia twierdzeń logiczno-matematycznych, rozpoznawanie mowy itp.
  
Szczególnie eksponować należy inspirowanie metod komputerowych przez samą naturę. Warto bowiem podpatrywać naturę, gdyż komputery tworzymy praktycznie od około pół wieku, czyli jest to nic nie znaczący okres z perspektywy ewolucji biologicznej. Pierwsze organizmy tkankowe pojawiły się ca 900 mln lat temu (Proterozoik), a pierwsze ssaki tylko 225 mln lat temu (Trias); człowiek to już tylko 100 tys. lat temu (Czwartorzęd) – natura miała więc dość czasu na ewolucyjne doskonalenie jej tworów.
  
Spektakularną imitację doskonałego tworu natury, jakim jest mózg człowieka – i to, niestety lub na szczęście, niesłychanie prymitywną – stanowią programy komputerowe typu sieć neuronowa. Obecnie mamy już nawet oprogramowanie w wersji dla pecetów (np. Neural Networks - STATISTICA). Ich cechą zasadniczą jest odstąpienie od koncepcji Johna von Neumanna, gdyż w odniesieniu do pewnej klasy zadań – zwłaszcza aproksymacji – program nie wykorzystuje znanego wcześniej algorytmu rozwiązania, lecz po prostu sam się uczy – na podstawie danych – jak ma rozwiązać postawione zadanie.
  
Naśladujemy też darwinowską teorię doboru naturalnego, tworząc tzw. programy ewolucyjne (algorytmy genetyczne/ewolucyjne), z powodzeniem radzące sobie – zwykle, lecz nie zawsze – z nierozwiązywalnym numerycznie zadaniem optymalizacji globalnej w ograniczonych obszarach. Ostatnio nawet programiści automatów obserwują... mrówki. I uczą się od nich, jak zaprogramować np. na potrzeby lotów kosmicznych wiele robotów zamiast jednego większego robota. Takie małe roboty pracę wykonują efektywniej, a jak się któryś zepsuje, to inne go zastąpią; muszą tylko umieć się dogadać wzajemnie. Wspomniałem już o monografii Swarm Intelligence – inteligencja roju stanowi nową, raczej jeszcze mało znaną koncepcję prowadzącą do nowych algorytmów optymalizacji.
  
Wszystko, co dotychczas powiedziałem, stanowi tylko bardzo ogólny i fragmentaryczny zarys problematyki prognostycznej. Nawiązując do istniejących sieci komputerowych, chciałbym wymienione prognozy uzupełnić ważną informacją o tzw. systemach rozproszonych (distributed system). Można z dużym prawdopodobieństwem prognozować dalszy intensywny rozwój systemów rozproszonych. Rzecz w tym, iż w klasycznej sieci komputerowej każdy użytkownik ma zapewniony dostęp do wspólnych zasobów sieci i komunikację wzajemną; w tym z wykorzystaniem Internetu. Można nawet pracować zdalnie na innym komputerze (Telnet), nadal jednak widoczna jest ziarnista struktura autonomicznych komputerów połączonych w sieć komputerową. Inaczej w systemie rozproszonym; komputery nadal są połączone w sieć – zupełnie inne jest jednak oprogramowanie. Nie wnikając w szczegóły, oprogramowanie rozproszone – ewentualnie też współbieżne – stwarza użytkownikowi obraz jednego spójnego systemu – wirtualnego komputera; sam o tym nie wiedząc użytkownik używa różnych komputerów, rozproszonych gdzieś w różnych częściach kraju, czy nawet świata. Warto o tym wiedzieć, gdyż znakomita większość profesjonalnych zastosowań teleinformatyki oparta jest i będzie – właśnie na systemach rozproszonych.

 

Tertio: konsekwencje

 

Cyfrowa cywilizacja – radykalne i szybkie zmiany

    Cywilizację określa się jako dorobek kultury materialnej (z akcentem na materialnej) osiągnięty przez określone społeczeństwo w danej epoce historycznej. Alvin Toffler już w 1970 roku, jako jeden z pierwszych, eksponował komputer jako główny element Szoku przyszłości; to tytuł jego, klasycznej już książki – światowego bestsellera. Na naszych oczach narodziła się technologia informacyjna, która już jest prawie w każdej dziedzinie naszego życia: od promu kosmicznego i sondy na Marsie do elementów życia codziennego: telefon komórkowy, samochód, bankomat. Nawet mój pies ma szansę na wszczepienie chipa identyfikacyjnego; chipa będę miał i ja – mam tylko nadzieję, iż nie pod skórą, lecz w noszonym w portfelu dowodzie osobistym. Techniki cyfrowe rozpoczęły proces cyfrowej metamorfozy wszystkiego, co nas otacza. Samochód ma już komputer pokładowy i niewątpliwie rozpowszechnią się satelitarne samochodowe systemy nawigacyjne. Komputer już obecnie integruje się z telefonem komórkowym, a zbliża się nowy standard – UMTS, m.in. rozpowszechnione SMS-y zmienią się w multimedialne MMS-y. Przecież w Japonii już uruchomiona została pierwsza na świecie sieć telefonii trzeciej generacji FOMA (Freedom of Mobile Multimedia Access). Uczynił to operator: NNT DoCoMo, a docomo po japońsku znaczy – wszędzie. Telewizja zmieni się oczywiście w telewizję interaktywną. A wszystko razem, tj.: multimedialny komputer sieciowy, TV, radio, telefon, faks itp. – będzie zintegrowane w jednym multimedialnym kablu.
  
To wszystko dokonuje się w szybkim tempie, już obecnie gospodarka – decydująca ostatecznie o prestiżu państwa – zamienia się w cyfrową gospodarkę: e-business, e-commerce, etc. Zmienia się proces adaptacji struktur prawno-organizacyjnych. W lipcu 2000 roku Bill Clinton, jako prezydent USA – podpisuje akt “S. 761” – zalegalizowany zostaje podpis cyfrowy. W ślad za Ameryką idą inne kraje, w tym i Polska; a to w przyszłości zmieni całkowicie obowiązujące formy handlu, transakcji finansowych i procedur administracyjnych.

 

 

Ergo: cyfrowa szkoła przetrwania

 

    Większość z obecnych tu, słuchających tego wykładu, traktuje już okres powstawania III RP i poprzedzające go czasy socjalizmu, którego końcowym akordem były sklepy z pustymi półkami, jak historie o Piaście Kołodzieju, czy też bitwie pod Grunwaldem. Wędrując po supermarkecie z telefonem komórkowym na pasku, trudno wyobrazić sobie, iż były talony na samochód, a potem już kartki na żywność; na telefon czekało się latami. Aby zrozumieć tempo zmian, proponuję eksperyment myślowy. Osoby z rocznika 80. osiągną wiek emerytalny pod koniec dekady 2040/2050 r. Jaki wtedy będzie świat, nikt właściwie nie wie, pewne rzeczy można jednak przewidzieć. A zrozumienie procesu zachodzących przemian może ułatwić pewien eksperyment myślowy, polegający na cofnięciu w czasie. Ponownie uruchamiamy wehikuł czasu – lądujemy dość blisko – 65 lat do tyłu od daty waszego urodzenia: koniec drugiej dekady XX wieku. Skończyła się właśnie I wojna światowa, w Rosji obalony został car Mikołaj II – Lenin głosi hasło “cała władza w ręce rad”. A w Polsce przybywa do Warszawy Józef Piłsudski, przejmując pełnię władzy. To był zupełnie inny świat. Ludzie nie tylko inaczej się ubierali; jeździli też dorożkami, aczkolwiek samochód już istniał – przecież firma Ford Motor Company powstała jeszcze w 1903 roku. Dopiero jednak wprowadzone w latach 1913-1914 metody masowej produkcji samochodów, w tym historycznego już modelu T, zmieniły oblicze Ameryki i całego świata. Podobnie telewizja – dyktator kształtujący mentalność wielu ludzi, w tym wzorce kulturowe “Big Brothera” – powstała wprawdzie w USA jeszcze w 1929 roku, lecz rozpoczyna panowanie, tak naprawdę, dopiero po II wojnie światowej. Początki telewizji kolorowej to lata 50., a pierwsza transmisja satelitarna programów telewizyjnych datowana jest na 1962 rok. I jeszcze jedna ważna data: Allan Turing opracowuje, na razie całkowicie teoretyczną, koncepcję komputera w 1937 roku.
  
Teraz, po takim spojrzeniu w przeszłość, wyraźnie widać, jak zmienił się świat przez okres 65 lat przed waszym urodzeniem. Bez wątpienia spojrzenie w przeszłość upoważnia do założenia, iż podobnie może być i w przyszłości. Świat również się zmieni, a obserwując ogromne tempo zmian – z dużym prawdopodobieństwem można przyjąć, iż zmiany te będą jeszcze bardziej radykalne. Nikt dokładnie nie wie, jaka będzie cywilizacja lat 2040 – 2050; okresu końca waszej pracy zawodowej – niewątpliwie będzie jednak zupełnie inna od obecnej. Wiem, że nikt o tym teraz nie myśli – swego czasu ja też nie myślałem – może jednak warto zastanowić się, jakie płyną stąd wnioski?
  
A wniosków jest wiele i to różnych; przecież podjęte teraz decyzje ukształtują może całe wasze życie. To są jednak osobiste sprawy każdego i dlatego ograniczę się tylko do zaakcentowania jednego oczywistego wniosku, związanego bezpośrednio z dniem inauguracji. Studia to dopiero początek edukacji, która – jeżeli chcemy nadążać za zmianami – musi być edukacją permanentną, będziemy się więc musieli nauczyć – ustawicznego uczenia się praktycznie aż do emerytury. Od tego będzie bowiem zależeć wasz status, zwłaszcza materialny i nie będę tu prawił żadnych morałów – każdy musi sam decydować. Kończąc pozwolę sobie zauważyć, że ten przyszły świat, zwłaszcza w warstwie humanitarnej, kulturowej będzie zależeć od was samych. Nie dopuście, aby komputer kształtował wasze życie, użytkujcie go tylko rozsądnie – to przecież ostatecznie tylko doskonała maszyna. Pewien charakterystyczny epizod: ostatnio byłem w multikinie – wcześniej znałem animowaną postać Lary Croft z gry komputerowej “Tomb Reider”, wersja bodajże “Chronicles” – w kinie stwierdziłem, z pewnym zaskoczeniem, iż autentyczna kobieta, należy przyznać niesłychanie dynamiczna, aktorka Angelina Jolie, naśladuje postać wziętą z gry komputerowej.
  
Jak tak dalej pójdzie, okaże się, iż wymieniony już poprzednio wizjoner McLuhan, miał wiele racji, gdy w jednym z wywiadów (M. McLuhan: Wybór tekstów, Zysk i S-ka 2001, s. 379) wspomina o karykaturze, na której mały chłopiec oznajmia zdumionej mamie: Gdy dorosnę, będę komputerem. Kończę więc również słowami McLuhana: Humor często bywa proroctwem. A nadzieję pokładam w tym, iż nie wszystkie złowieszcze proroctwa muszą się zawsze spełniać.