NAUKA I TECHNIKA W PK


Zbigniew Polański

TECHNOLOGIA INFORMACYJNA – KONCEPCJE,

PROGNOZY I KONSEKWENCJE *) (cz. I) (cz. II)

 

    Powierzono mi wykład inauguracyjny: Politechnika Krakowska, rok akademicki 2001/2002. Wykład stanowi sprawę poważną i dlatego zaproponowałem równie poważny temat dotyczący technologii informacyjnej. Technologia informacyjna oznaczana jest zwykle, na bazie angielskiej nazwy Information Technology, za pomocą skrótu: IT. Powszechnie już, nawet w codziennej prasie można czytać: branża IT, sektor IT itp. Wprawdzie nikt nie zadaje już sobie trudu objaśnienia tego skrótu – nadal jednak nie każdy wie, co tak naprawdę kryje się pod tą nazwą. A szczególnie: jakie są podstawy i prognozy IT i – co ważniejsze – konsekwencje; IT zmienia bowiem wszystko.

 

Komputerowe prawo Murphy’ego

 

    IT – najogólniej rzecz ujmując – obejmuje łącznie zagadnienia informatyki i telekomunikacji; dlatego prawo obywatelstwa uzyskuje stopniowo nowe, integrujące określenie: teleinformatyka. Natomiast w powszechnym, uproszczonym rozumieniu rzecz dotyczy wszystkiego, co ma związek z komputerami. To on – komputer ma znaczenie dominujące; przecież już na początku lat 80. komputer osobisty został m.in. nobilitowany do godności Maszyny Roku. Większości z obecnych tu osób mogło jeszcze nie być na świecie, gdy w 1981 r. IBM pokazał pierwszego peceta – jakaż to była wspaniała maszyna: procesor Intel 8088 z nieprawdopodobnie szybkim zegarem... prawie 5 MHz (słownie: pięć!) i ta wspaniała pamięć RAM, aż 64 kB i to z możliwością rozszerzania do zawrotnej wartości 256 kB (akcentuję: kilobajtów; aby były megabajty należy pomnożyć przez 1024). A do tego jeszcze możliwość zapisu na dyskietkach 5,25"; wprawdzie jednostronnie, ale za to aż 160 kB! Sądzę, iż większość użytkujących swoje pecety zorientowała się, że żartuję. Wielu ma już przecież komputery z Pentium III i jego skromnym zegarem rzędu 1 GHz – oczywiście są już znacznie szybsze: handlowo dostępne Pentium 4 – 1,5 GHz, a w sierpniu 2001 r. miało swoją premierę Pentium 4 – 2 GHz (technologia 0,18 mm zapewnia 2,2 GHz), mają też pamięć RAM co najmniej 128 MB i twardy dysk rzędu 30 GB. Może więc jednak nie powinienem żartować, przecież komputery to temat bardzo poważny. Zgoda; nie oznacza to jednak, iż wykład o komputerach, również musi być śmiertelnie poważny, by nie rzec: nudnawy.
  
Ostatnio czytam o nowościach z dziedziny sztucznej inteligencji i to nie o starym już temacie komputerowych sieci neuronowych, czy też algorytmów genetycznych – później wspomnę o tym szerzej – ale o tzw. inteligencji roju. (Grube tomisko pod tytułem “Swarm Intelligence” – wydane w 2001 r. przez poważne, międzynarodowe wydawnictwo Morgan Kaufmann Publishers; ponad 500 stron tekstu). Powaga i złożoność tematu, dotykającego fundamentalnego zagadnienia współczesnej informatyki, a może i filozofii: Czy komputery będą umiały myśleć? – nie powstrzymała autorów przed przywołaniem dialogu ze znanego m.in. z telewizji, i zdecydowanie nie mającego charakteru dokumentacji naukowej, filmu “Star Trek”. Jedna z postaci filmowych (Judge05) rozmawia z... komputerem i dialog ten świetnie wpisuje się w tematykę monografii. Odpowiada mi ten styl i dlatego – jeszcze przed wakacjami, gdy poproszono mnie o poważny wykład wprowadzający na jednej z nie mniej poważnych konferencji – użyłem motta, stanowiącego jedno z tzw. praw Murphy’ego. Prawa te są może mniej popularne od dowcipów o blondynkach, ale za to – o ile wszystko, co się mówi o blondynkach nie jest i nie może być prawdą (występując ex cathedra tylko tak mogę powiedzieć) – humorystyczna forma praw Murphy’ego ukrywa często trudną do odrzucenia prawdę. Któż z nas bowiem nie doświadczył na własnej skórze prawdziwości stwierdzenia: “Jeżeli coś może się nie udać, to się nie uda!”. Jeżeli coś złego może się zdarzyć – to się zdarzy w najmniej oczekiwanym momencie. Nieprawdopodobny wprost atak terrorystyczny na Manhattan w dniu 11 września 2001 r. jest, niestety, tragicznym dowodem prawdziwości aforyzmów Murphy’ego. Mnie jednak spodobało się tzw. komputerowe prawo Murphy’ego. Wykorzystałem je jako motto i również je tutaj przywołam: Z komputerów nie ma żadnego pożytku; dają tylko odpowiedzi.
  
Nieprawdą jest, iż – cytuję pierwszą frazę – “Z komputerów nie ma żadnego pożytku” – to przesada, licentia poetica. Puentuję frazę końcową: “(komputery) dają tylko odpowiedzi”.
  
To stanowi już prawdę, przynajmniej jak dotychczas. Zastrzeżenie dotychczasowości jest tu niezbędne, gdyż wielu poważnych badaczy – informatyków zajmujących się zaawansowanymi metodami i algorytmami sztucznej inteligencji – sądzi, iż może będzie inaczej.
  
Dzisiaj jednak niestety, a może na szczęście, musimy się nauczyć zadawać komputerom właściwe pytania, gdyż tylko w ten sposób uzyskamy przydatne dla nas poprawne odpowiedzi. Nie jest to takie łatwe, gdyż wymaga umiejętności takiego stawiania pytań – z reguły dotyczących specjalistycznej pracy zawodowej – na które system komputerowy jest zdolny do generowania i edycji rozwiązań stanowiących oczekiwaną odpowiedź. Conditio sine qua non jest zrozumienie fundamentalnych podstaw działania maszyny zwanej komputerem. A nie jest to maszyna prosta typu dźwignia, równia pochyła etc., nie jest też maszyną złożoną, tj. obrabiarka, samochód, czy też samolot. Maszyny tego typu stanowią bowiem jedynie swoiste narzędzia zwielokratniające nasze możliwości fizyczne. Komputer natomiast wkracza zdecydowanie w sferę naszych możliwości intelektualnych, a pod pewnymi względami, np. szybkości realizacji wybranych czynności intelektualnych, jest zdecydowanie lepszy od nas, ludzi. Są jednak dziedziny, w których komputer przegrywa z kretesem – jego “intelekt” jest nieporównywalnie gorszy nie tylko od intelektu dziecka, ale też innych istot żyjących, np. psa. Wyjaśnienie, dlaczego tak jest, jaka jest przyczyna, która – ponownie zastrzegam – obecnie jeszcze nadal limituje możliwości systemów komputerowych – wymaga zrozumienia fundamentalnych podstaw działania komputera, stanowiącego centralny element, na którym opiera się współczesna technologia informacyjna. Ograniczoną próbę wyjaśnienia, przynajmniej elementarnego, tych zagadnień przeprowadzę, uwzględniając zarówno koncepcje podstawowe teleinformatyki, jak i prognozy jej dalszego rozwoju. Zakończę omówieniem konsekwencji, wynikających stąd dla życia codziennego, jak i przyszłej pracy zawodowej.

 

Primo: koncepcje

Komputer – anatomia encyklopedycznej definicji

    W encyklopedii możemy przeczytać (“Nowa encyklopedia powszechna”, Wyd. Naukowe PWN, 1995, t. 3, s. 438), iż komputer stanowi: “urządzenie elektroniczne służące do automatycznego przetwarzania informacji (danych) przedstawionych cyfrowo (tzn. za pomocą odpowiednio zakodowanych liczb)”. W definicji tej pewne słowa są szczególnie ważne. Rozpoczniemy od podstawowego pojęcia, którym jest niewątpliwie: informacja. W języku potocznym informacja to po prostu wiadomość, konstatacja stanu rzeczy. Przykładowo: “Jestem w domu od godziny 17” albo: “Stan mojego konta w banku wynosi 1965 złotych” itp. – stanowi informację w potocznym słowa znaczeniu.
  
W teleinformatyce informacja to już obiekt nieomal abstrakcyjny, określany zwykle jako dane, które mogą być przechowywane, przesyłane i przetwarzane. Istnieje dyscyplina naukowa zwana teorią informacji, której podstawy opracował R. W .L. Hartley (1928 r.) i – bardziej znany – C. E. Shannon (1944 r.). W nauce i technice każda wielkość, o ile ma być traktowana poważnie, powinna być określana nie tylko jakościowo, ale i ilościowo. Oznacza to, iż powinna istnieć możliwość określenia wartości informacji, tj. wyrażenia jej za pomocą pewnej liczby i odpowiedniej jednostki miary. Stwierdzenia, że ktoś jest małego wzrostu, nie uznamy za precyzyjne, ale podanie liczby, np. 149 i jednostki długości: centymetry – określamy jako w pełni wystarczające. Podobnie postępuje się z informacją. Jeżeli mamy tzw. ziarniste źródło informacji, np. wynik gry losowej “Duży Lotek” – informację stanowić będzie zbiór 6 liczb wylosowanych z przedziału [1, 49]. Dążąc do utworzenia jednostki informacji, przyjęto tzw. źródło binarne informacji, czyli założono najmniejszą liczbę różnych wiadomości, równą 2, emitowanych przez źródło informacji. Przykład: rzut monetą: “orzeł” lub “reszka” i ogólniej: “tak” lub “nie”, “prawda” lub “fałsz”, “włączony” (ON) lub “wyłączony” (OFF), itp. W ten sposób utworzono jednostkę ilości informacji – można nawet przytoczyć odpowiedni wzór, ale to już na wykładzie z podstaw informatyki – i nadano jej nazwę: bit (notabene: zalecana przez normy ISO nazwa szanon, jakoś nie przyjmuje się). Niewątpliwie 1 bit to bardzo mała jednostka. W informatyce stworzono pojęcie ciągu 8 bitów – nazywanych bajtem (1 B), a ponieważ nadal było to mało, wprowadzono zwielokrotniający mnożnik: 210 = 1024 » 1000. W ten sposób wreszcie otrzymaliśmy znane nam kilobajty (kB), megabajty (MB), gigabajty (GB) – każda z powyższych jednostek jest tu 1024 razy większa od swojej poprzedniczki. Ostatnio tempo jest tak duże, iż zaczyna się używać terabajtów (1 TB = 210 GB). Z nazwą bit powstało pewne zamieszanie, gdyż stanowi ona homonim i w wielu przypadkach nieprecyzyjnie odróżnia się bit jako jednostkę informacji (binary unit) od bitu jako cyfry w dwójkowym systemie liczbowym (binary digit). Zresztą jedno i drugie znaczenie bitu związane jest z komputerem.
  
Powracając do definicji – komputer to urządzenie elektroniczne. To oczywiście prawda, od razu jednak należy zastrzec, że urządzenie to zdecydowanie różni się np. od zegarka elektronicznego, pilota telewizora, czy też pilota samochodowego, które też są urządzeniami elektronicznymi. Komputer powstał pierwotnie jako abstrakcyjny, wyłącznie teoretyczny twór – maszyna obliczeniowa (Turing machine), stworzona w 1937 r. przez matematyka angielskiego Allana Turinga (urodzony w 1912 r., umiera śmiercią samobójczą w 1954 r.; był również zaangażowany w złamanie szyfru hitlerowskiej Enigmy). Kontynuatorem wielu różnych (historycznych już) pomysłów oraz autorem fizycznej realizacji maszyn liczących był John von Neumann, uznawany (choć nie przez wszystkich) za twórcę koncepcji współczesnego komputera (urodzony w 1903 r. w Budapeszcie, uczestniczył m.in. w pracach nad bombą atomową i wodorową; uchodzi też za pierwszego hakera na świecie, zmarł w 1957 r.).
  
Dzisiaj powszechnie wiadomo, iż w komputerze należy odróżnić hardware, oznaczający całość sprzętu komputerowego (procesor i pamięć itp., aż do urządzeń peryferyjnych: drukarka, skaner itp.) od software, czyli całości oprogramowania komputera – od systemu operacyjnego do aplikacji typu: edytory, arkusze kalkulacyjne, bazy danych, gry komputerowe itp.
  
To, co dzisiaj uznajemy za oczywiste, ktoś jednak musiał wymyślić. Istotą pomysłu J. von Neumanna – datowanego na 1946 r. – jest koncepcja niezależnego wprowadzania do hardwarowej pamięci komputera wymiennego, różnorodnego software’u, czyli oprogramowania oraz różnych danych. Pomysł ten zdecydował o niesłychanej uniwersalności zastosowań komputerów i do dzisiaj jest akceptowany. Stanowi tzw. architekturę vonneumannowską, leżącą u podstaw praktycznie wszystkich współczesnych komputerów.
  
Trzecim elementem encyklopedycznej definicji komputera, chyba najważniejszym, jest stwierdzenie, iż przetwarzana przez komputer informacja ma postać: “odpowiednio zakodowanych liczb”. Wszystko, czym zajmują się komputery, ma postać liczb. Nie zawsze to sobie uświadamiamy – tekst, obraz (i to w kolorze), łącznie z animacją i oczywiście dźwięk, łącznie z mową – w komputerze sprowadza się do odpowiedniego przetwarzania liczb. To stanowi o potędze komputerów, determinujących powstawanie cyfrowego e-świata, a zarazem – o ile coś się nie zmieni, czego nigdy nie można wykluczyć – tworzy jednoznaczną, wyraźną granicę pomiędzy komputerem a umysłem człowieka, którym tak często rządzą emocje.
  
Liczba stanowi podstawowe pojęcie królowej nauk – matematyki, a zarazem towarzyszy rozwojowi cywilizacji i kultury ludzkości. Pierwsze były liczby naturalne. Znane jest powiedzenie Leopolda Kroneckera– matematyka (1823-1891), profesora uniwersytetu w Berlinie: “Bóg stworzył liczby naturalne, wszystko inne jest dziełem człowieka”. Wszystko inne, czyli: liczby wymierne i niewymierne, a przede wszystkim liczba zero itd. zapisywane są w systemach liczbowych. Od pojęcia systemu liczbowego blisko już do komputerów, np. zmiennopozycyjnej (zmiennoprzecinkowej, floating-point) komputerowej reprezentacji liczby rzeczywistej i dalej – pozornej absurdalności pewnych wyników tzw. arytmetyki komputerów, typu 2 + 2 = 8 (sic!). Tego rodzaju wydruk operacji wykonanej przez światowy bestseller – program Mathematica – udostępniam studentom, aby zachowali pewien dystans w stosunku do komputerowych obliczeń numerycznych.
  
Powszechnie przyzwyczajeni jesteśmy do zapisu liczby w systemie dziesiątkowym – może dlatego iż w krytycznej sytuacji możemy liczyć na 10 palcach rąk. Wiadomo jednak, iż nie jest to jedyna możliwość. Jeżeli przyjrzymy się bliżej pewnym kalkulatorom elektronicznym, to zauważymy klawisze oznaczone jako: [DEC], [OCT], [HEX] lub [BIN] – to są możliwości konwersji na inne systemy liczbowe.
  
Wspomniałem o niejednoznaczności nazwy bit. To nie tylko jednostka informacji, ale cyfra w – szczególnie wyróżnionym – binarnym (dwójkowym) systemie liczbowym, uwzględniającym jedynie 2 cyfry: zero (0) i jeden (1). To właśnie w systemie binarnym liczą komputery, gdzieś tam w środku procesora, pomiędzy milionami tranzystorów przepływają prądy w rytmie, dzisiaj już gigahercowego zegara. Realizują, eksponowany poprzednio, proces elektronicznego kodowania liczby: półprzewodnikowy element procesora może bowiem z łatwością przyjmować dwa stany: stan przewodzenia prądu – kodujący cyfrę jeden (1) oraz stan nieprzewodzenia prądu – cyfra zero (0). Podobnie ma się rzecz z pamięcią, a to wystarcza, aby układ elektroniczny komputera zapamiętywał i przetwarzał liczby. Przykładowo wyobraźmy sobie 8 takich elementarnych elementów – w rządku obok siebie – 5 pierwszych od lewej niech będzie w stanie kodującym jedynkę (1), a dalsze 3 niech kodują zera (0), czyli 11111000. Liczba 8 elementów nie jest przypadkowa – to właśnie 1 bajt (B), składający się z ośmiu bitów, który w tym konkretnym przypadku koduje liczbę całkowitą 248, zapisaną w systemie dziesiątkowym. Analogicznie, ale o tym później, można kodować znaki graficzne, zwłaszcza litery alfabetu. Litery te tworzą z kolei słowa, a od kodowania słów już blisko do kodowania całego programu – instruującego komputer co ma robić z liczbami (tu: stanowiącymi dane).
  
Teraz wydaje się to może i proste, ale – powtarzam – ktoś to musiał przecież kiedyś wymyślić. Może warto się przez chwilę zastanowić nad ewolucyjnym rozwojem nauki. Uruchamiamy wehikuł czasu – notabene widziałem taki film, wehikuł miał oczywiście kształt współczesnego samochodu – i cofamy się w czasie do dnia 15 marca 1679 r. W tym dniu bowiem Gottfried Wilhelm Leibniz, niemiecki filozof i matematyk, jedna z najwybitniejszych postaci XVII w. – zapisał w swoim notatniku (widziałem fotokopię oryginału) pary liczb w dwóch systemach – dziesiątkowym i właśnie binarnym:1 ® 1, 2 ® 10, 3 ® 11, ..., 31 ® 11111. Podkreślam – było to pod koniec lat 70., ale XVII wieku; niedługo potem (1683 r.) Jan III Sobieski pokonał Kara Mustafę pod Wiedniem. Nie sądzę, aby Leibniz przewidywał, iż za 300 lat amerykańska firma IBM zaprezentuje komputer osobisty, który swoje działanie opiera m.in. na jego pomyśle.
  
Eksponując binarny system zapisu liczb, nie sposób przemilczeć fakt, iż 175 lat później w Cambridge wydana została monografia George’a Boole’a “An Investigation of the Laws of Thought” (O prawach logicznego wnioskowania). Mamy rok 1854, jeszcze tylko przez rok będzie żył Adam Mickiewicz, a już za kilka lat Karol Darwin napisze fundamentalne dzieło: “O powstawaniu gatunków drogą doboru naturalnego”. W tym właśnie okresie powstaje abstrakcyjny zbiór aksjomatów, kreujących tzw. algebrę Boole’a, odniesioną do niepustego zbioru, w którym wyróżniono tylko dwa elementy: zero (0) oraz jeden (1). Tak powstały matematyczne podstawy logiki, które m.in. wykorzystane zostaną – mniej więcej 100 lat później – do projektowania komputerów.

 

Fundamenty systemów

komputerowego wspomagania

 

    Rozrasta się nieustannie obszar, w którym wykorzystujemy komputery do wspomagania różnych czynności, działalności współczesnego człowieka. Przyjmują one formę tzw. systemów CA – Computer Aided, np. projektowania (CAD), wytwarzania (CAM) itp., aż do komputerowego wspomagania uczenia się – CAL: Computer Aided Learning (np. języków obcych). Wiele konkretnych dziedzin uzyskuje też dodatkowo początkową literkę “e” – czytaną po angielsku – przykład typowy: e-mail, ale też e-business, e-commerce itd. Rezygnując ze szczegółów, naświetlimy fundamentalne koncepcje, umożliwiające realizację tych systemów.
  
Zastosowanie systemu binarnego stworzyło trwały mariaż, w którym rolę męża pełni hardware komputera z sercem, czyli procesorem – przepełnionym elektroniką układu scalonego. Małżonki mogą być natomiast dwie: matematyka i logika. Bigamiczny nietakt wynika z ich wzajemnego pokrewieństwa; a bardziej szczegółowo – elektronika komputera umożliwia wkroczenie w obszary:

• Matematyki – jeżeli alternatywę zero (0) / jeden (1) interpretujemy jako cyfry binarnego systemu liczbowego.
• Logiki
(tzw. dwuwartościowego rachunku zdań) – jeżeli stan jeden (1) interpretujemy jako wartość logiczną – “prawda”, a zero (0) – “fałsz”.

    Logika, czy to w postaci wywodzącej się z logiki tradycyjnej (filozoficznej) – tzw. logiki formalnej (matematycznej), czy też w postaci innych logik – w pełni wykorzystuje możliwości komputera. Nie można o tym mówić bez dłuższego przygotowania, więc jedynie wspomnę o stworzonych przez L. Zadeha (1965 r.) zbiorach rozmytych (fuzzy sets) i w konsekwencji logice rozmytej (fuzzy logic). Owocuje ona zbliżeniem mentalności komputera (cokolwiek znaczy to określenie) do umysłu człowieka. W praktyce wykorzystuje się te pojęcia m.in. do budowy sterowników różnych praktycznych urządzeń typu pralka, lodówka, odkurzacz itp.; względnie sterowania technologicznymi procesami produkcyjnymi (Japończycy wspomagali w ten sposób produkcję... sake). Klasyczne metody logiki dwuwartościowej były tu, w większości przypadków, całkowicie bezradne. Prosta analogia: każda kobieta wie, iż między sympatycznym “tak”, a stanowczym “nie” istnieje jeszcze cała gama intonacji słowa “może”... to jest właśnie intuicyjnie stosowana fuzzy logic.
  
Łatwiej nieco zaprezentować skojarzenie komputera z matematyką. Tym bardziej iż nie sposób przecenić przydatności komputera w obliczeniach matematycznych. A to oznacza zastosowania komputerowego wspomagania praktycznie w większości dyscyplin naukowych (łącznie np. z lingwistyką i biologią). I oczywiście w technice oraz tak ważnym, nie wahajmy się tego stwierdzić, świecie finansów. (Zainteresowanych fizyką informuję o powstaniu nowej dyscypliny – ekonofizyki. Niewątpliwie poważne wydawnictwo Cambridge University Press opublikowało w 2000 r. monografię R. N. Montegna i H. E. Stanleya, wprowadzającą w ekonofizykę, “A Introduction to Econophysics”. Jej treść stanowią metody fizyki statystycznej, dotyczące m.in. zjawisk krytycznych, turbulencji itp., zastosowane do modelowania rynków finansowych).

Powracając do podstawowych koncepcji komputera, naświetlę logiczny ciąg powiązań pewnych faktów:

• Chipy (scalone układy elektroniczne) komputera umożliwiają zapamiętanie wprowadzonych liczb (pamięć RAM itd.).
Również chipy – wyspecjalizowane elektroniczne układy logiczne zawarte w komputerze, a przede wszystkim procesor – umożliwiają wykonanie na wprowadzonych i zapamiętanych liczbach (czyli: danych) podstawowych działań arytmetycznych (dodawanie, mnożenie itd.). Czynią to w pewnym sensie autonomicznie – bez bezpośredniego udziału intelektu człowieka. Wykorzystują w tym celu właściwą architekturę tzw. bramek logicznych (AND, OR, NOT, XOR, ...) tworzącą umieszczony – jeszcze najczęściej na krzemowej płytce – cyfrowy układ scalony (m.in. role tę spełniają tzw. sumatory). Nie wnikając w skomplikowane szczegóły techniki cyfrowej, łącznie z arytmetyką komputerów, stwierdzamy, iż posługując się tzw. binarnymi tablicami działań, przede wszystkim dodawania (np. 1 + 0 = 1, 1 + 1 = 10, ...) oraz mnożenia (np. 1 * 0 = 0, 1 * 1 = 1,...), możemy automatycznie realizować operacje arytmetyczne. Można powiedzieć, iż komputer liczy na 2 palcach, z tym że czyni to nieprawdopodobnie szybko: przecież 1 GHz zegara narzuca rytm – częstotliwość rzędu 1000 milionów na sekundę. Okazjonalnie należy wspomnieć, iż w komputerze trwa nieustanny kontredans systemów liczbowych – człowiek wprowadza operacje w systemie dziesiątkowym, komputer je wykonuje, po dokonaniu uprzedniej konwersji, zwykle do systemu binarnego, ale ostateczny wynik edytuje już ponownie w systemie dziesiątkowym.
Matematyka i jej zastosowania nie ograniczają się jedynie do elementarnej arytmetyki. Istnieje m.in. tzw. matematyka wyższa (w tym całkowanie i różniczkowanie) i wiele innych, złożonych metod matematycznych (choćby w wspominanej ekonofizyce). Tu sięgnięto po znane już wcześniej w matematyce metody numeryczne. Ich istotę stanowi rozwiązywanie zadań matematycznych wyłącznie za pomocą działań arytmetycznych, a więc tych które już opanował komputer. Zdecydowało to o szybkim rozwoju numeryki, której alternatywę stanowią, również powierzane komputerowi, tzw. metody symboliczne. To już inne zagadnienie. Konkluzja ogólna jest taka: komputer wspomaga nas w technice obliczeniowej.

A co nam pozostało? Pozostało to co najważniejsze. Nawiązując do cytowanego komputerowego prawa Murphy’ego, trzeba stwierdzić, że to do nas, ludzi należy formułowanie stawianych komputerowi zadań i to we właściwej, matematycznej postaci. Komputerowi zaś pozostawiamy szansę na udzielenie właściwej odpowiedzi – w formie edycji poprawnie obliczonego rozwiązania postawionego zadania.

 

Komputery wszystkich krajów łączcie się

 

    Parafrazując aż nadto znane kiedyś hasło, można powiedzieć: “Komputery wszystkich krajów – łączcie się”. Z tym że, w przeciwieństwie do hasła pierwotnego, proces globalnego połączenia komputerów w poważnym stopniu został już dokonany i wszyscy są zadowoleni. Sprzyja temu fakt, że komputer z maszyny obliczeniowej przeznaczonej wyłącznie dla specjalistów przekształca się w przedmiot powszechnego użytku i to w postaci tzw. komputera multimedialnego. Jego ekran kusi kolorami, a sam obraz ze statycznej czarno-białej grafiki przekształcił się w kolorowe animacje, a ostatnio już filmy DVD. Grafika komputerowa rozwija się w szybkim tempie, nieustannie przyspieszanym przez bodźce finansowe, związane z zastosowaniami w reklamie telewizyjnej, animacjach filmowych, fascynującym świecie gier komputerowych, etc.
  
Z punktu widzenia podstawowych koncepcji komputera multimedialnego – wszystkie jego atrybuty: kolor, ruchomy obraz i dźwięk, oczywiście łącznie z tekstem – kodowane są cyfrowo.

Tekst – to znany powszechnie kod ASCII; każdy znak kodowany jest przez 1 bajt, np. literę “A” koduje sekwencja 8 bitów: 01000001 itp. Stuknięcie w klawisz z literą “A”, inicjuje – przez pośredniczący kod skanowania klawiatury – transmisję sygnału właściwego kodu ASCII, na który układ elektroniczny komputera odpowiada wyświetleniem na ekranie litery “A”. Notabene, występuje tu pełna analogia do poczciwego alfabetu Morse’a, gdzie też stosowano dwa elementy: kreskę i kropkę.

Obraz graficzny na ekranie stanowi twór geometryczny malowany za pomocą czarno-białych lub kolorowych, pojedynczych malutkich punkcików, nazywanych pikselami. A przecież już od czasów Kartezjusza każdy twór geometryczny umiemy ująć liczbowo w ramy właściwych wzorów, stanowiących treść dyscypliny matematycznej nazywanej geometrią analityczną. Można też oczywiście, na wzór obrazu telewizyjnego, tworzyć pełną mapę wszystkich punktów (pikseli) na ekranie. Gęstość rozmieszczenia pikseli określa tzw. rozdzielczość monitora, np. dla monitora 17-calowego może to być 1024 x 768. Mnożąc tego rodzaju liczby, zmieniające się w ułamku sekundy – nietrudno zrozumieć, dlaczego grafika komputerowa jest pamięciożerna, a przetwarzanie ogromnych liczb bitów kodujących obraz wymaga oczywiście użycia dobrego komputera (parametry procesora, pamięć karty graficznej itp.). Szczególnie, jeżeli chcemy dodatkowo uwzględnić kolor.

Kolor bowiem również jest kodowany cyfrowo. Dysponując kolorowym monitorem, po prostu kodujemy liczbowo parametry określające proporcje każdego z podstawowych kolorów: czerwonego (R), zielonego (G) i niebieskiego (B). Następnie właściwe układy elektroniczno-optyczne monitora powodują, iż w każdym z punktów ekranu (pikselu) następuje zmieszanie kolorów, dając w efekcie kolorowy obraz. Oczywiście, im więcej bitów przeznaczymy na kodowanie cyfrowe udziału każdego z podstawowych kolorów (model RGB) – tym większą różnorodność barw widzimy, obserwując ekran. Teoretycznie np. można uzyskać – przeznaczając 24 bity na kolor piksela – tzw. kolor rzeczywisty (true color) w 224 » 16 milionach odmian. To daje mocne wrażenia, zwłaszcza w czasie gier komputerowych.

Dźwięk, a w tym rejestracja mowy przez komputer, również sprowadza się do liczb. Nie wnikając w elementarne prawa akustyki, w uproszczeniu można stwierdzić, iż analogowy sygnał dźwiękowy dyskretyzujemy w czasie i próbujemy jego wartości. Mówiąc bardziej zrozumiale: linię ciągłą, obrazującą sygnał dźwiękowy, zastępujemy przez odpowiadający jej zbiór kropek – punktów, odpowiadających wartości sygnału dźwiękowego. Oczywiste, iż im gęściej punktujemy, tym cyfrowy zapis sygnału będzie bardziej wierny oryginałowi. Niestety, podobnie jak w przypadku kolorowej grafiki, wymaga to poważnego zaangażowania pamięci. Przykładowo, jeżeli próbkujemy analogowy sygnał z częstotliwością standardową 44,1 kHz, stosując 16-bitowy przetwornik A/C, to 1 minuta muzyki stereo pochłonie ok. 10 MB pamięci. To przyczynia się do ogromnej popularności tzw. formatu MP3. Jego istotę stanowi swoiste psychoakustyczne oszustwo, polegające na odrzuceniu tych elementów dźwięku, których i tak nie usłyszy zwykłe ucho. Między innymi człowiek (w przeciwieństwie do psa) słyszy przecież dźwięki w zakresie od 20 Hz do 20 kHz i to jedynie w młodym wieku – po cóż je więc kodować i zapisywać? To, co pozostanie po takiej selekcji, podlega dalszej – już bezstratnej – kompresji, np. z zastosowaniem tzw. algorytmu Huffmana. Ważny jest rezultat końcowy. Zachowując przyzwoitą jakość dźwięku – rozmiary pliku MP3 zmniejszają się co najmniej 10-krotnie w stosunku do tradycyjnego, a to stwarza różne nowe możliwości, które ogromnie denerwują potentatów światowego przemysłu fonograficznego. Każdego przecież kusi możliwość łatwego ściągania z Internetu dobrej muzyki, uzyskanej bez płacenia horrendalnych tantiem autorskich. Mówię o faktach, a nie praworządności i etyce takich procedur.

    Dlaczego tak eksponuję multimedialne możliwości komputerów? Odpowiadam: multimedialność przekazu uważam za dominujący czynnik rozwoju sieci komputerowych, determinujący nie tylko powstanie, ale – co znacznie ważniejsze – powszechną akceptację Internetu jako globalnego wyznacznika współczesnej cywilizacji.
   Sieci komputerowe musiały powstać, tak nakazywał zwykły rozsądek. Jeżeli w jednym mieszkaniu 5 dorosłych osób pije kawę, to nierozsądny byłby zakup 5 ekspresów do jej aromatycznego parzenia. Jeden ekspres wystarcza; celowe natomiast jest posiadanie co najmniej 5 filiżanek. Prywatnie, w domu użytkujemy z żoną dwa komputery, ale mamy tylko jedną przełączalną drukarkę (notabene: również tylko jeden ekspres kawowy). Ten sposób myślenia spowodował, iż firmy, których pracownicy użytkują komputery, przekonały się, że nakłady techniczno-finansowe poniesione na ich połączenie w sieć są w pełni rekompensowane przez korzyści wynikające po pierwsze ze zmniejszonej liczby urządzeń peryferyjnych (drukarki, skanery, a nawet twarde dyski itp.). Po drugie – szczególnie ważne – wiąże się to ze zmniejszeniem kosztów użytkowania licencjonowanego oprogramowania (mniejsze są koszty zakupu licencji dla mniejszej liczby jednoczesnych użytkowników, tym bardziej że koszty licencji są duże, zwykle rzędu od tysięcy do kilkudziesięciu tysięcy złotych). Stanowiło to pierwszą przesłankę inspirującą utworzenie w firmie lokalnej sieci komputerowej (LAN). Rozpoczął się tak proces integracji informatyki z telekomunikacją – powstawała teleinformatyka. Sieci komputerowe stopniowo rozrastały się, obejmując obszar miasta (MAN) i sięgając coraz to dalej, aż oplotły glob ziemski (WAN) – w konsekwencji powstał też Internet (ok. 1983 r.). Potem nawet pewne technologie globalnego Internetu zaczęto stosować w sieciach lokalnych (Intranet itp.). Nie będę tu jednak mówił o technologii sieci komputerowych, łącznie z Internetem: oprogramowaniu sieci lokalnych, warstwie fizycznej (Ethernet itp.), protokołach TCP/IP, serwerach – hostach i hubach, językach i narzędziach programistycznych do projektowania stron WWW itd. Nie będę też mówił o tym, co można robić w Internecie? Powody są następujące: każdy, kto już użytkuje Internet, mógłby to odebrać jako banalny wykład ex cathedra, np. o korzyściach wynikających z posiadania samochodu. A ci, którzy tylko słyszeli, iż jest Internet, ale nie splamili się wysłaniem e-maila, powinni po prostu, i to bardzo szybko, posiąść umiejętność użytkowania Internetu (tak jak opanowali umiejętność czytania i pisania). I dam tu dobrą radę, jak to zrobić. Zanim usiądzie się przy komputerze, należy gruntownie przeczytać o nim dobrą książkę. Książek takich jest bardzo wiele, osobiście sugeruję: “Internet. Wykłady Harleya Hahna” – świetny kompromis pomiędzy poprawnością i aktualnością treści oraz przystępnością stylu. Zalety Internetu, krótko i z właściwym sobie poczuciem humoru ocenił David Platt (“Podstawy Microsoftu. NET”, Wyd. RM, s. 1): “Pojedynczy komputer jest nudny, podobnie jak jednokomórkowa ameba… Jednak gdy podłączymy go do Internet… – zaczynają się dziać ciekawe rzeczy”.
  
Powracając do ogólnych koncepcji związanych z sieciami komputerowymi i Internetem, pozwolę sobie na dygresję, dotyczącą naszych polskich realiów użytkowania Internetu. Wszyscy ważni decydenci mają – przepraszam za wyrażenie – gębę pełną frazesów; nie ustają w rozprawianiu o konieczności edukacji komputerowej i fascynują się przyszłymi możliwościami, które zapewnia Internet. Natomiast realia roku 2001 kształtują zupełnie odmienną rzeczywistość. O ile wierzyć danym statystycznym (m.in. analizy CIA – Computer Industry Almanac), w Polsce regularnie korzystało z sieci 80 na 1000 osób, czyli jedynie 8 proc. A to sprawia, że zajmujemy 31. miejsce, daleko w tyle za liderami (Finlandia, Szwecja, Kanada czy Stany Zjednoczone) i dalej za Belgią, czy też Niemcami. Pozostajemy też w tyle za naszymi sąsiadami, pomimo iż startowaliśmy w tym samym czasie: Czechami, Węgrami oraz... Słowacją (sic!). Przyczyna jest znana: zacofana infrastruktura telekomunikacyjna, powodująca – w warunkach domowego, indywidualnego użytkowania – spowolnienie szybkości transmisji do absurdalnie niskich wartości bitów na sekundę (bps) w stosunku do przyzwoitych standardów, które zapewnia modem. To są te długie minuty, a nawet dziesiątki minut, z którymi nie wiadomo co robić, gdy trwa ściąganie stron WWW, plików itp.; nierzadko kończone awaryjnym przerwaniem połączenia. Czas transmisji to impulsy, których liczbę poznajemy, płacąc słony rachunek za telefon. Zachłanność operatorów, ujęta w prawne regulacje i cenniki (zwłaszcza jednego monopolisty – proszę zgadnąć którego?) – powoduje, iż u nas cena dostępu do Internetu jest najwyższa na świecie, ale i tak trudno znaleźć sensowną – pod względem finansowym i technicznym – ofertę zapewniającą indywidualny dostęp do Internetu. Musiałem to powiedzieć, aby przedstawiając fundamentalne koncepcje teleinformatyki, nie tworzyć wrażenia oderwania od realiów, a te są jednoznaczne: Polska – jak twierdzą analitycy CIA – należy do krajów najwolniej adaptujących technologie internetowe.
  
Poprzednio wskazałem jedną przesłankę, dla której firmy i instytucje – w tym Politechnika Krakowska –- inwestują w lokalną sieć komputerową. Jest i druga przesłanka, czyniąca z Internetu podstawową przyczynę tofflerowskiego szoku cywilizacyjnego. Internet zapewnia przekaz wszelkiej informacji między ludźmi i to w skali całego globu, a zarazem w niesłychanie krótkim czasie. I do tego jeszcze w wyjątkowo bogatej multimedialnej postaci: tekst, obraz kolorowy, statyczny lub ruchomy oraz dźwięk. Jakże to różne od zrozumiałego tylko dla telegrafisty alfabetu Morse’a, czy też siermiężnego telegramu tekstowego (pierwszy na świecie telegram miał treść: Co stworzył Bóg? – What hath God wrought?, przesłany został z Waszyngtonu do Baltimore 24 maja 1844 r.).
  
Przekaz informacji jest bardzo ważny; Marshall McLuhan, jeden z wybitnych intelektualistów XX wieku (zm. 1980 r.) zaproponował określenie – człowiek Gutenberga. Uznał bowiem, iż wynalazek druku, w połączeniu z alfabetem fonetycznym, a więc możliwość przekazu informacji za pośrednictwem dowolnej liczby reprodukowanych książek – miał znaczenie decydujące. Przekaz książkowy stanowił, jak na owe czasy (Johannes Gutenberg wydrukował pierwszy egzemplarz Biblii w latach 1455-1456) – szybką i stosunkowo rozległą, a jednocześnie nie tak kosztowną, w stosunku do ręcznego przepisywania, formę przekazu informacji. McLuhan twierdzi nawet, iż wynalazek druku doprowadził ostatecznie do uprzemysłowienia, a typografię uznał nawet za protoplastę masowej produkcji Henry’ego Forda. I nie tylko; wynalazek druku wpłynął decydująco na rozwój edukacji, kultury, nauki itd. – jednym słowem ukształtował ostatecznie innego człowieka. Era druku trwała mniej więcej do początku XX wieku, potem pojawiły się inne media: telegraf, radio, telefon, telewizja i… komputer. A komputer, ściślej połączone w sieć komputery multimedialne, integrują i przekształcają wszystkie inne media. Następuje ponowna metamorfoza, człowiek Gutenberga przekształca się stopniowo w człowieka Turinga. Proces ten, pomimo tak znaczących rezultatów, dopiero się właściwie rozpoczyna; zaryzykujmy więc krótkie spojrzenie w najbliższą przyszłość.