NASZA POLITECHNIKA


Poniżej prezentujemy wykład wygłoszony podczas inauguracji roku akademickiego 2000/2001 na Wydziale Mechanicznym Politechniki Krakowskiej.

Kolegium Redakcyjne

Zbigniew Polański

INFORMATYKA - DZIEŃ DZISIEJSZY I PRZEWIDYWALNE JUTRO (cz. II)

Komputer nie jest jedynie zaawansowanym kalkulatorem, kamerą czy pędzlem; jest raczej urządzeniem, które przyspiesza i poszerza nasze procesy myślowe.
(W. Daniel Hillis)

Trendy i prognozy - przewidywalne jutro

    W technice specjaliści obserwują uważnie pewne trendy rozwojowe i na tej podstawie formułują prognozy. Takie prognozy traktowane są bardzo poważnie, zwłaszcza w odniesieniu do gospodarki, mogą też wpływać na notowania giełdowe, stąd istnieje nawet zmatematyzowana dziedzina badań naukowych zwana teorią prognozy. Problem w tym, iż prognozy mogą się nie sprawdzać. Ostatnio natrafiłem na prognostyczną opinię amerykańskiego admirała, który w czasie prac fizyków nad pierwszą bombą atomową w 1945 r. tak napisał do prezydenta Trumana: "Ta bomba (atomowa) nigdy nie wybuchnie, a mówię to jako ekspert od materiałów wybuchowych" ( Michio Kaku, "Wizje, czyli jak nauka zmieni świat w XXI wieku", Prószyński i S-ka, Warszawa 2000). Prognozując, łatwo się skompromitować, a prawdopodobieństwo blamażu jest tym większe, im dłuższy jest horyzont czasowy prognozy.
    Zakładam więc, że wszystkie sformułowane tu prognozy poprzedzone zostaną klauzulą: istnieje prawdopodobieństwo, że... (wartość prawdopodobieństwa z przedziału [0,1], lecz nie zaryzykuję podania konkretnej wartości). Najwygodniej formułować prognozy długoterminowe, powiedzmy o horyzoncie czasowym powyżej 10 - 20 lat; z nadzieją, iż ludzie zapomną o prognozie.
    W dziedzinie tzw. hardware'u prawdopodobna jest przede wszystkim diametralna zmiana koncepcji procesora i pamięci komputera. Na pierwszym miejscu wymienię najbardziej radykalną koncepcję komputera kwantowego. Nie sposób wkraczać w świat fizyki kwantowej - tak odległy od naszego zdeterminowanego sposobu myślenia. Jednak realna już jest koncepcja kwantowego bitu - istnieje nawet jego nazwa: qubit - jako pewnych stanów kwantowych atomu, wskazuje się na atom wodoru, oznaczających tradycyjnie: zero (0) i jedynkę (1). Aby to szerzej wyjaśnić, musiałbym rozpocząć od kota Schrödingera; rezygnuję, przytaczając jedynie informację, iż podobno pierwszy komputer kwantowy rozwiązał proste zadanie z fizyki. Powody, dla których trwają prace nad komputerem kwantowym, są istotne. Niezależnie od potężnej mocy obliczeniowej komputer kwantowy zapewnia bezpieczeństwo informacji. Hacker podsłuchując transmitowany sygnał - zgodnie z zasadą Heisenberga - ingeruje w treść informacji, praktycznie ją niszcząc, z jednoczesnym powiadomieniem o tym nadawcy sygnału.
    Zanim jednak ulegnie zmianie fundamentalna koncepcja procesora, należy uwzględnić - chyba jednak łatwiejszą - możliwość odstąpienia od sygnału elektrycznego, a praktycznie tranzystorów i łączących je przewodów - jako podstawowego elementu fizycznego przetwarzającego informację. Jeden z twórców superkomputerów - Daniel Hillis napisał ("Wzory na krzemowej płytce", CiS, 2000), iż komputery mogą być zbudowane np. z drążków i linek, gdyż "Istotą tego, co sprawia, że komputery przeprowadzają obliczenia, są koncepcje..." A to oznacza, że przepływ elektronów tworzących sygnał binarny może być zastąpiony przez inne formy fizycznej realizacji sygnału. Najbardziej predysponowane są tu fotony, konkretnie promień lasera w światłowodzie, a w konsekwencji tzw. komputer optyczny. Z zalet takiego rozwiązania - dla którego brak jeszcze technologii masowej produkcji - wymienię tylko niewiarygodną prędkość światła (300 tys. km/s) w porównaniu z prędkością klasycznego sygnału elektrycznego oraz korzystne cechy transmisji sygnału świetlnego (odporność na zakłócenia i jednoczesna transmisja światła o różnych długościach fali). Oznacza to idealną wprost przydatność do procesów równoległego (współbieżnego) przetwarzania informacji. Hipotetycznie możliwy dalszy krok to wejście na obszar biologii, dokładniej biologii molekularnej. Z powodzeniem realizowany jest projekt badania ludzkiego genomu (Human Genome Project), a przecież w DNA kodowana jest informacja, jesteśmy więc teoretycznie blisko komputera biologicznego.
    Natomiast w dziedzinie softwarec u wskazałbym na rozwój systemów w obszarze sztucznej inteligencji (AI - Artificial Intelligence). Tu zwracamy się często w stronę bioniki, którą na Wydziale Mechanicznym fascynuje się prof. A. Samek - stanowi ona dziedzinę wiedzy z pogranicza techniki i biologii. Warto podpatrywać naturę, gdyż komputery tworzymy praktycznie od około pół wieku, a jest to nic nie znaczący okres z perspektywy ewolucji biologicznej. (Pierwsze organizmy tkankowe pojawiły się ca 900 mln lat temu (Proterozoik), a pierwsze ssaki tylko 225 mln lat temu (Trias); człowiek to już tylko 100 tys. lat temu (Czwartorzęd) - natura miała więc dość czasu na ewolucyjne doskonalenie jej tworów).
    Spektakularną imitację doskonałego tworu natury, jakim jest mózg człowieka - niestety lub na szczęście niesłychanie prymitywną - stanowią programy komputerowe typu sieć neuronowa. Obecnie mamy już nawet oprogramowanie w wersji dla pecetów (np. Neural Networks - STATISTICA). Ich zasadniczą cechą jest odstąpienie od koncepcji Johna von Neumanna, gdyż w odniesieniu do pewnej klasy zadań - zwłaszcza aproksymacji - program nie wykorzystuje znanego wcześniej algorytmu rozwiązania, lecz po prostu sam się uczy - na podstawie danych - jak ma rozwiązać postawione zadanie.
    Naśladujemy też darwinowską teorię doboru naturalnego, tworząc tzw. programy ewolucyjne (algorytmy genetyczne), które z powodzeniem radzą sobie - zwykle, lecz nie zawsze - z nierozwiązywalnym numerycznie zadaniem optymalizacji globalnej w ograniczonych obszarach. Ostatnio programiści automatów obserwują nawet... mrówki. I uczą się od nich, jak zaprogramować np. na potrzeby lotów kosmicznych wiele robotów, zamiast jednego większego robota. Takie małe roboty wykonują pracę efektywniej, a jeśli któryś się zepsuje, to inne go zastąpią, pod warunkiem, że będą umiały się wzajemnie porozumieć.
    Koncepcje powyższe, uzupełnione o wiele innych - w tym problematykę systemów rozmytych (uwzględniających z kolei reguły logiki rozmytej) - tworzą fundamenty tzw. inteligentnych systemów. Stąd już blisko do problematyki sztucznej inteligencji; cokolwiek to określenie znaczy. Ponieważ jednak istnieje Deep Blue z jego niejednoznaczną oceną przyczyn zwycięstwa nad Garri Kasparowem, istnieją też inteligentne bomby i wiele innych inteligentnych urządzeń (w tym klasy AGD!) - należy uznać, iż w przyszłości powstaną może naprawdę inteligentne systemy. Dotyczy to zwłaszcza inteligentnych systemów ekspertowych (nawet dla pecetów, np. EXSYS). Prawdopodobnie będą to systemy typu rozproszonego i współbieżnego, a przede wszystkim samouczące, automatycznie powiększające swoją bazę wiedzy. I oczywiście, powstaną powszechnie dostępni, osobiści komputerowi tłumacze języków naturalnych - roboty konkurujące inteligencją z człowiekiem (podobno najtrudniejszym testem jest... sprzątanie mieszkania) lub systemy dowodzące automatycznie twierdzeń logiczno-matematycznych. Przykłady można mnożyć, gdyż rzeczywistość zbliży się do współczesnej powieści science fiction. Publikowane są nawet dość precyzyjne scenariusze prognostyczne:

    Scenariusz taki jest prawdopodobny; są i tacy, którzy twierdzą, iż realny. Osobiście jednak - skłaniając się do poglądów J. R. Searle'a - zachowuję daleko idącą rezerwę w odniesieniu do sztucznego myślenia przez komputery. Przecież tak naprawdę nie wiemy dotąd, czym jest nasza inteligencja racjonalna, nie mówiąc o inteligencji emocjonalnej; czyli po prostu nie wiemy, jak właściwie działa nasz umysł (odróżnić od działania mózgu).
    Prognozy krótkoterminowe, powiedzmy o horyzoncie czasowym poniżej 20 - 10 lat, są, w przeciwieństwie do prognoz długoterminowych, znacznie trudniejsze. I to nie tylko dlatego, iż autor prognozy może doczekać, że się nie sprawdzą. Przyczyna jest inna - prognoza to przewidywanie przyszłości na podstawie występujących w teraźniejszości trendów rozwojowych. Rzecz w tym, iż milcząco zakłada się uczciwe intencje animatorów rozwoju. Konkretnie należałoby założyć, iż gigantyczne korporacje przemysłu komputerowego troszczą się o dobro (w tym finanse) użytkowników komputerów. Obserwacja faktów nie upoważnia do takiego twierdzenia; celem korporacji jest przecież wyłącznie generowanie nieustannie powiększających się zysków. Firmy komputerowe działają w skali globalnej, a globalny rynek pozwala na to, by ten, kto jest pierwszy, narzucał innym określony standard, zgarniał całą pulę zysku. Decyduje nie jakość, która może być tylko - i to z trudem - wystarczająca, lecz strategia działań marketingowych. Przykłady: nieustanne fajerwerki nowych wersji systemów operacyjnych (np. Windows 3.1, 95, 98, ME oraz NT, 2000...) i oprogramowania (np. MS Office z jego kolejnymi wersjami - ostatnia oczywiście 2000; notabene, ostatnio konkurujący z darmowym StarOffice 5.2). Niepokoją też jednoznaczne stwierdzenia, zawarte w licencjach większości komercyjnych programów, o całkowitym braku odpowiedzialności producenta za błędy występujące w programach. Uderzająca jest również wyjątkowo mała, w moim przekonaniu, normalizacja sprzętu i oprogramowania komputerowego. W większości obszarów techniki - normy istnieją i stanowią obowiązujące prawo. Jednak w tak obecnie eksponowanym obszarze techniki, jaki wytyczyły komputery, każdy sobie rzepkę skrobie; dotyczy to zwłaszcza oprogramowania. Każda firma, tworząca określony program, wprowadza m.in. mniej lub bardziej specyficzny sposób jego użytkowania (banalny przykład: funkcje klawiszy [Shift] + [Enter] w programach Mathematica i Maple). Ostatecznie użytkownik pozostaje całkowicie bezradny - kupił program, gdyż przeczytał plug and play, a rzeczywistość może być odmienna: pay and pray - płać i módl się, aby program poprawnie działał. Nic dziwnego, że globalizacja, oczywiście z wielu innych poważniejszych przyczyn, może prowadzić do gwałtownych protestów; jak w Pradze (wrzesień 2000 r.), czy też przyjmować łagodniejszą formę jawnej wrogości w stosunku do Billa Gatesa.
    Zakładając kontynuację istniejących trendów, można prognozować następujące, główne kierunki, determinujące przewidywalne jutro technologii informacyjnej:

    Nie jest możliwa szczegółowa prezentacja powyższych kierunków prognozowanego rozwoju teleinformatyki; każdy z nich to temat na oddzielną monografię. Można jednak, nie rezygnując całkowicie z konkretyzacji, wskazać reprezentatywne przykłady. Ich wybór ma, zasługujące na uwagę, uzasadnienie, gdyż opiera się na przesłankach ekonomicznych, a nie tylko naukowo-technicznych. Wizja, co tu ukrywać - raczej ubogiego, lecz mądrego uczonego, wykonującego eksperymenty z czystej ciekawości i wyłącznie dla dobra ludzkości - bezpowrotnie przeminęła. Ciekawość bez wątpienia pozostała, lecz współczesne badania wymagają ogromnych pieniędzy. Właściwe finansowanie stanowi obecnie podstawę sukcesu każdego projektu badawczego. Z kolei środki finansowe na inwestycję zwaną Badania i Rozwój (R&D) zostaną wyasygnowane wtedy i raczej tylko wtedy, gdy w kosztorysie znajdzie się udokumentowana kwota spodziewanego zysku. Na podstawie powyższych kryteriów wskazuję poniżej trzy przykłady; po jednym dla każdego kierunku rozwoju technologii informacyjnej, co jednak nie oznacza, iż wszystkie inne elementy mają mniejsze znaczenie.

    Technologia elektroniki molekularnej, a więc przede wszystkim nowe możliwości wytwarzania procesorów. Układ scalony powstał pod koniec lat 50. (R. Noyce), a rok 1971 to narodziny pierwszego, efektywnego procesora Intel 4004 - dalej toczyło się już zgodnie ze znanym prawem Moore'a: nieustannie rosły parametry użytkowe procesora (on sam objętościowo jednak nie wzrastał) i... malała jego cena. Tylko jeden szczegół techniczny: procesor 4004 - scalał 2300 tranzystorów, a Pentium III
(1999 r.) - to już 7,5 mln tranzystorów. Postępująca miniaturyzacja spowodowała zmniejszenie się wymiarów elementów składowych - tranzystorów tworzących procesor. Operuje się tu konkretnymi wartościami, np. 10 m m dla procesora 4004, lecz już 0,8 m m dla Pentium. Istnieje jednak granica miniaturyzacji krzemowych tranzystorów - przy rozmiarze ca 0,1 m m natrafiamy na bariery techniczne i - co ważniejsze - ekonomiczne: eksperci szacują, iż koszty budowy fabryki procesorów przy technologii "0,1 m m" przekroczą 200 mld USD. Innymi słowy, uzasadnione jest finansowanie nowej technologii elektroniki molekularnej. Istota jej sprowadza się do rozwiązania problemu wykorzystania molekuł - cząstek do wytworzenia molekularnego przełącznika dwustanowego i dalej: molekularnego tranzystora i bramki logicznej oraz molekularnej komórki pamięci. Tak skończy się w informatyce dominacja krzemu - pojawi się molekularny, jeszcze bliżej nie ustalony, konkurent, o którym wiadomo, iż będzie co najmniej 10000 razy mniejszy! A to powinno zapewnić komputerowi nieporównywalnie większą moc obliczeniową, a taki towar niewątpliwie znajdzie wielu nabywców, zwracając z nawiązką koszty badań. Zwłaszcza po uruchomieniu globalnej kampanii reklamowej ze sloganem: It is your new Brain-plug and play!

    Integracja komputera z telefonem komórkowym - już właściwie istnieje, tylko że raczej w prymitywnej formie. Nachalne reklamy triumfująco obwieszczają nową usługę telefonu komórkowego: dostęp do Internetu! Umożliwia to komórkowa mikroprzeglądarka WAP (Wireless Application Protocol) i możliwość pisania kartek w języku WML (Wireless Markup Language); analogia do stron WWW i języka HTML. To właściwie w obecnej formie jeszcze rodzaj gadżetu; niewątpliwie sytuację poprawi tu nowy standard UMTS. To jednak początek, analogiczny do krótkotrwałego rozkwitu ośmiobitowego ZX-Spectrum, który przeminął wyparty przez taniejący IBM PC. Przewidywać należy pełny mariaż laptopu lub palmtopu z telefonem komórkowym - powstanie komputer sieciowo-osobisty; taki super N&PC (Network & Personal Computer). Charakteryzować go będą parametry właściwe udoskonalonemu PC, a jednocześnie przenośność i stała bezprzewodowa łączność z Internetem.
    Internet też się zmieni - można tu wymienić wiele szczegółów technicznych dotyczących np. zmian mediów transmisyjnych i sprzętu sieciowego (routery, serwery itp.), a przede wszystkim protokołów i oprogramowania sieciowego, ze szczególnym uwzględnieniem niezawodności i bezpieczeństwa. Jednak szczególnie istotne jest prognozowanie radykalnego zmniejszenia kosztów korzystania z Internetu lub wręcz darmowego dostępu. I nie będzie to charytatywny gest, lecz konsekwencja faktu, iż w Internecie już teraz robi się pieniądze. Na przykład - handluje; wystarczy wymienić sukcesy firm internetowych prowadzących handel elektroniczny. Przykład: firma Amazon.com, oferująca ca 2,5 mln tytułów książek albo Cassette House (www.tape.com) i wiele innych witryn informacyjno-reklamowych i handlowych. To są ostatecznie tylko sklepy, pomimo iż istnieją wirtualnie w Internecie, a czy słyszał ktoś, aby pobierać od klienta opłatę już za samo wejście do sklepu?
    Handel elektroniczny to jeden z bardzo wielu przykładów prognozowanej eksplozji zastosowań teleinformatyki w obszarze e-biznesu. Spektakularnym stymulatorem jego rozwoju jest pewien fakt. Nie ma on jednak charakteru technicznego, lecz stanowi akt prawny - prezydent USA w lipcu 2000 r. podpisał akt "S.761" - zalegalizowany zostaje w ten sposób podpis cyfrowy jako równoprawny z podpisem tradycyjnym. O tego momentu można przez Internet, i nie tylko, zawierać transakcje handlowe, podpisywać kontrakty itp. I również oszczędzać miliony dolarów, skracając czas operacji finansowo-handlowych i ograniczając drastycznie koszty administracyjne.
    Pozostaje mi więc życzyć, aby Wasze przyszłe kontrakty w pracy zawodowej podpisywane już były elektronicznie; bo chyba dyplomy zostaną podpisane jeszcze w sposób tradycyjny.

    PS Wykład inauguracyjny został wygłoszony 4 października 2000 r., niedługo potem ogłoszono tegoroczną nagrodę Nobla z fizyki, którą otrzymali twórcy technologii rewolucjonizujących informatykę i telekomunikację.