NAUKA I TECHNIKA W PK
Zbigniew Polański
TECHNOLOGIA INFORMACYJNA – KONCEPCJE,PROGNOZY I KONSEKWENCJE *) (cz. I) (cz. II)
Powierzono mi wykład inauguracyjny: Politechnika Krakowska, rok akademicki 2001/2002. Wykład stanowi sprawę poważną i dlatego zaproponowałem równie poważny temat dotyczący technologii informacyjnej. Technologia informacyjna oznaczana jest zwykle, na bazie angielskiej nazwy
Information Technology, za pomocą skrótu: IT. Powszechnie już, nawet w codziennej prasie można czytać: branża IT, sektor IT itp. Wprawdzie nikt nie zadaje już sobie trudu objaśnienia tego skrótu – nadal jednak nie każdy wie, co tak naprawdę kryje się pod tą nazwą. A szczególnie: jakie są podstawy i prognozy IT i – co ważniejsze – konsekwencje; IT zmienia bowiem wszystko.
Komputerowe prawo Murphy’ego
IT – najogólniej rzecz ujmując – obejmuje łącznie zagadnienia informatyki i telekomunikacji; dlatego prawo obywatelstwa uzyskuje stopniowo nowe, integrujące określenie: teleinformatyka. Natomiast w powszechnym, uproszczonym rozumieniu rzecz dotyczy wszystkiego, co ma związek z komputerami. To on – komputer ma znaczenie dominujące; przecież już na początku lat 80. komputer osobisty został m.in. nobilitowany do godności
Maszyny Roku. Większości z obecnych tu osób mogło jeszcze nie być na świecie, gdy w 1981 r. IBM pokazał pierwszego peceta – jakaż to była wspaniała maszyna: procesor Intel 8088 z nieprawdopodobnie szybkim zegarem... prawie 5 MHz (słownie: pięć!) i ta wspaniała pamięć RAM, aż 64 kB i to z możliwością rozszerzania do zawrotnej wartości 256 kB (akcentuję: kilobajtów; aby były megabajty należy pomnożyć przez 1024). A do tego jeszcze możliwość zapisu na dyskietkach 5,25"; wprawdzie jednostronnie, ale za to aż 160 kB! Sądzę, iż większość użytkujących swoje pecety zorientowała się, że żartuję. Wielu ma już przecież komputery z Pentium III i jego skromnym zegarem rzędu 1 GHz – oczywiście są już znacznie szybsze: handlowo dostępne Pentium 4 – 1,5 GHz, a w sierpniu 2001 r. miało swoją premierę Pentium 4 – 2 GHz (technologia 0,18 mm zapewnia 2,2 GHz), mają też pamięć RAM co najmniej 128 MB i twardy dysk rzędu 30 GB. Może więc jednak nie powinienem żartować, przecież komputery to temat bardzo poważny. Zgoda; nie oznacza to jednak, iż wykład o komputerach, również musi być śmiertelnie poważny, by nie rzec: nudnawy.
Primo: koncepcje
Komputer – anatomia encyklopedycznej definicji
W encyklopedii możemy przeczytać (“Nowa encyklopedia powszechna”, Wyd. Naukowe PWN, 1995, t. 3, s. 438), iż komputer stanowi: “urządzenie elektroniczne służące do automatycznego przetwarzania informacji (danych) przedstawionych cyfrowo (tzn. za pomocą odpowiednio zakodowanych liczb)”. W definicji tej pewne słowa są szczególnie ważne. Rozpoczniemy od podstawowego pojęcia, którym jest niewątpliwie:
informacja. W języku potocznym informacja to po prostu wiadomość, konstatacja stanu rzeczy. Przykładowo: “Jestem w domu od godziny 17” albo: “Stan mojego konta w banku wynosi 1965 złotych” itp. – stanowi informację w potocznym słowa znaczeniu.
Fundamenty systemów
komputerowego wspomagania
Rozrasta się nieustannie obszar, w którym wykorzystujemy komputery do wspomagania różnych czynności, działalności współczesnego człowieka. Przyjmują one formę tzw. systemów CA –
Computer Aided, np. projektowania (CAD), wytwarzania (CAM) itp., aż do komputerowego wspomagania uczenia się – CAL: Computer Aided Learning (np. języków obcych). Wiele konkretnych dziedzin uzyskuje też dodatkowo początkową literkę “e” – czytaną po angielsku – przykład typowy: e-mail, ale też e-business, e-commerce itd. Rezygnując ze szczegółów, naświetlimy fundamentalne koncepcje, umożliwiające realizację tych systemów.• Matematyki
– jeżeli alternatywę zero (0) / jeden (1) interpretujemy jako cyfry binarnego systemu liczbowego. Logika, czy to w postaci wywodzącej się
z logiki tradycyjnej (filozoficznej) – tzw. logiki formalnej
(matematycznej), czy też w postaci innych logik – w pełni wykorzystuje
możliwości komputera. Nie można o tym mówić bez dłuższego
przygotowania, więc jedynie wspomnę o stworzonych przez L. Zadeha (1965 r.)
zbiorach rozmytych (fuzzy sets)
i w konsekwencji logice rozmytej (fuzzy logic). Owocuje ona zbliżeniem
mentalności komputera (cokolwiek znaczy to określenie) do umysłu człowieka.
W praktyce wykorzystuje się te pojęcia m.in. do budowy sterowników różnych
praktycznych urządzeń typu pralka, lodówka, odkurzacz itp.; względnie
sterowania technologicznymi procesami produkcyjnymi (Japończycy wspomagali w
ten sposób produkcję... sake). Klasyczne metody logiki dwuwartościowej były
tu, w większości przypadków, całkowicie bezradne. Prosta analogia: każda
kobieta wie,
iż między sympatycznym “tak”, a stanowczym “nie”
istnieje jeszcze cała gama intonacji słowa “może”... to jest właśnie
intuicyjnie stosowana fuzzy logic.
Łatwiej nieco zaprezentować
skojarzenie komputera z matematyką. Tym bardziej iż nie sposób
przecenić przydatności komputera w obliczeniach matematycznych. A to
oznacza zastosowania komputerowego wspomagania praktycznie w większości
dyscyplin naukowych (łącznie np. z lingwistyką i biologią). I oczywiście
w technice oraz tak ważnym, nie wahajmy się tego stwierdzić, świecie
finansów. (Zainteresowanych fizyką informuję o powstaniu nowej dyscypliny
– ekonofizyki. Niewątpliwie
poważne wydawnictwo Cambridge
University Press opublikowało w 2000
r. monografię R. N. Montegna i H. E. Stanleya, wprowadzającą w ekonofizykę,
“A Introduction to Econophysics”. Jej
treść stanowią metody fizyki statystycznej, dotyczące m.in. zjawisk
krytycznych, turbulencji itp., zastosowane do modelowania rynków
finansowych).
Powracając do podstawowych koncepcji komputera, naświetlę logiczny ciąg powiązań pewnych faktów:
• Chipy
(scalone układy elektroniczne) komputera umożliwiają zapamiętanie wprowadzonych liczb (pamięć RAM itd.).A co nam pozostało? Pozostało to co najważniejsze. Nawiązując do cytowanego komputerowego prawa Murphy’ego, trzeba stwierdzić, że to do nas, ludzi należy formułowanie stawianych komputerowi zadań i to we właściwej, matematycznej postaci. Komputerowi zaś pozostawiamy szansę na udzielenie właściwej odpowiedzi – w formie edycji poprawnie obliczonego rozwiązania postawionego zadania.
Komputery wszystkich krajów – łączcie się
Parafrazując aż nadto znane kiedyś
hasło, można powiedzieć: “Komputery wszystkich krajów –
łączcie się”. Z tym że, w przeciwieństwie do hasła
pierwotnego, proces globalnego połączenia komputerów w poważnym stopniu
został już dokonany i wszyscy są zadowoleni. Sprzyja temu fakt, że
komputer z maszyny obliczeniowej przeznaczonej wyłącznie dla specjalistów
przekształca się w przedmiot powszechnego użytku i to w postaci tzw.
komputera multimedialnego. Jego ekran kusi kolorami, a sam obraz ze
statycznej czarno-białej grafiki przekształcił się w kolorowe animacje, a
ostatnio już filmy DVD. Grafika komputerowa rozwija się w szybkim tempie,
nieustannie przyspieszanym przez bodźce finansowe, związane z zastosowaniami
w reklamie telewizyjnej, animacjach filmowych, fascynującym świecie gier
komputerowych, etc.
Z punktu widzenia
podstawowych koncepcji komputera multimedialnego – wszystkie jego
atrybuty: kolor, ruchomy obraz i dźwięk, oczywiście łącznie z tekstem
– kodowane są cyfrowo.
Tekst – to znany powszechnie kod ASCII; każdy znak kodowany jest przez 1 bajt, np. literę “A” koduje sekwencja 8 bitów: 01000001 itp. Stuknięcie w klawisz z literą “A”, inicjuje – przez pośredniczący kod skanowania klawiatury – transmisję sygnału właściwego kodu ASCII, na który układ elektroniczny komputera odpowiada wyświetleniem na ekranie litery “A”. Notabene, występuje tu pełna analogia do poczciwego alfabetu Morse’a, gdzie też stosowano dwa elementy: kreskę i kropkę.
Obraz
graficzny na ekranie stanowi twór geometryczny malowany za pomocą czarno-białych lub kolorowych, pojedynczych malutkich punkcików, nazywanych pikselami. A przecież już od czasów Kartezjusza każdy twór geometryczny umiemy ująć liczbowo w ramy właściwych wzorów, stanowiących treść dyscypliny matematycznej nazywanej geometrią analityczną. Można też oczywiście, na wzór obrazu telewizyjnego, tworzyć pełną mapę wszystkich punktów (pikseli) na ekranie. Gęstość rozmieszczenia pikseli określa tzw. rozdzielczość monitora, np. dla monitora 17-calowego może to być 1024 x 768. Mnożąc tego rodzaju liczby, zmieniające się w ułamku sekundy – nietrudno zrozumieć, dlaczego grafika komputerowa jest pamięciożerna, a przetwarzanie ogromnych liczb bitów kodujących obraz wymaga oczywiście użycia dobrego komputera (parametry procesora, pamięć karty graficznej itp.). Szczególnie, jeżeli chcemy dodatkowo uwzględnić kolor.Kolor
bowiem również jest kodowany cyfrowo. Dysponując kolorowym monitorem, po prostu kodujemy liczbowo parametry określające proporcje każdego z podstawowych kolorów: czerwonego (R), zielonego (G) i niebieskiego (B). Następnie właściwe układy elektroniczno-optyczne monitora powodują, iż w każdym z punktów ekranu (pikselu) następuje zmieszanie kolorów, dając w efekcie kolorowy obraz. Oczywiście, im więcej bitów przeznaczymy na kodowanie cyfrowe udziału każdego z podstawowych kolorów (model RGB) – tym większą różnorodność barw widzimy, obserwując ekran. Teoretycznie np. można uzyskać – przeznaczając 24 bity na kolor piksela – tzw. kolor rzeczywisty (true color) w 224 » 16 milionach odmian. To daje mocne wrażenia, zwłaszcza w czasie gier komputerowych.Dźwięk, a w tym rejestracja mowy przez komputer, również sprowadza się do liczb. Nie wnikając w elementarne prawa akustyki, w uproszczeniu można stwierdzić, iż analogowy sygnał dźwiękowy dyskretyzujemy w czasie i próbujemy jego wartości. Mówiąc
bardziej zrozumiale: linię ciągłą, obrazującą sygnał dźwiękowy, zastępujemy przez odpowiadający jej zbiór kropek – punktów, odpowiadających wartości sygnału dźwiękowego. Oczywiste, iż im gęściej punktujemy, tym cyfrowy zapis sygnału będzie bardziej wierny oryginałowi. Niestety, podobnie jak w przypadku kolorowej grafiki, wymaga to poważnego zaangażowania pamięci. Przykładowo, jeżeli próbkujemy analogowy sygnał z częstotliwością standardową 44,1 kHz, stosując 16-bitowy przetwornik A/C, to 1 minuta muzyki stereo pochłonie ok. 10 MB pamięci. To przyczynia się do ogromnej popularności tzw. formatu MP3. Jego istotę stanowi swoiste psychoakustyczne oszustwo, polegające na odrzuceniu tych elementów dźwięku, których i tak nie usłyszy zwykłe ucho. Między innymi człowiek (w przeciwieństwie do psa) słyszy przecież dźwięki w zakresie od 20 Hz do 20 kHz i to jedynie w młodym wieku – po cóż je więc kodować i zapisywać? To, co pozostanie po takiej selekcji, podlega dalszej – już bezstratnej – kompresji, np. z zastosowaniem tzw. algorytmu Huffmana. Ważny jest rezultat końcowy. Zachowując przyzwoitą jakość dźwięku – rozmiary pliku MP3 zmniejszają się co najmniej 10-krotnie w stosunku do tradycyjnego, a to stwarza różne nowe możliwości, które ogromnie denerwują potentatów światowego przemysłu fonograficznego. Każdego przecież kusi możliwość łatwego ściągania z Internetu dobrej muzyki, uzyskanej bez płacenia horrendalnych tantiem autorskich. Mówię o faktach, a nie praworządności i etyce takich procedur. Dlaczego tak eksponuję multimedialne możliwości
komputerów? Odpowiadam: multimedialność przekazu uważam za dominujący
czynnik rozwoju sieci komputerowych, determinujący nie tylko powstanie, ale
– co znacznie ważniejsze – powszechną akceptację Internetu
jako globalnego wyznacznika współczesnej cywilizacji.
Sieci
komputerowe musiały powstać, tak nakazywał zwykły rozsądek. Jeżeli w
jednym mieszkaniu 5 dorosłych osób pije kawę, to nierozsądny byłby zakup
5 ekspresów do jej aromatycznego parzenia. Jeden
ekspres wystarcza; celowe natomiast
jest posiadanie co najmniej 5 filiżanek. Prywatnie, w domu użytkujemy z żoną
dwa komputery, ale mamy tylko jedną przełączalną drukarkę (notabene: również
tylko jeden ekspres kawowy). Ten sposób myślenia spowodował, iż firmy, których
pracownicy użytkują komputery, przekonały się, że nakłady
techniczno-finansowe poniesione na ich połączenie w sieć są w pełni
rekompensowane przez korzyści wynikające po pierwsze ze zmniejszonej liczby
urządzeń peryferyjnych (drukarki, skanery, a nawet twarde dyski itp.). Po
drugie – szczególnie ważne – wiąże się to ze zmniejszeniem
kosztów użytkowania licencjonowanego oprogramowania (mniejsze są koszty
zakupu licencji dla mniejszej liczby jednoczesnych użytkowników, tym
bardziej że koszty licencji są duże, zwykle rzędu od tysięcy do
kilkudziesięciu tysięcy złotych). Stanowiło to pierwszą przesłankę
inspirującą utworzenie w firmie lokalnej sieci komputerowej (LAN).
Rozpoczął się tak proces integracji informatyki z telekomunikacją –
powstawała teleinformatyka. Sieci
komputerowe stopniowo rozrastały się, obejmując obszar miasta (MAN) i sięgając
coraz to dalej, aż oplotły glob ziemski (WAN) – w konsekwencji powstał
też Internet (ok. 1983 r.). Potem nawet pewne technologie globalnego
Internetu zaczęto stosować w sieciach lokalnych (Intranet
itp.). Nie będę tu jednak mówił o
technologii sieci komputerowych, łącznie z
Internetem: oprogramowaniu sieci
lokalnych, warstwie fizycznej (Ethernet itp.), protokołach TCP/IP, serwerach
– hostach i hubach, językach i narzędziach programistycznych do
projektowania stron WWW itd. Nie będę
też mówił o tym, co można robić w Internecie? Powody są następujące:
każdy, kto już użytkuje Internet, mógłby to odebrać jako banalny wykład
ex cathedra, np. o korzyściach wynikających
z posiadania samochodu. A ci, którzy tylko słyszeli, iż jest Internet, ale
nie splamili się wysłaniem e-maila, powinni po prostu, i to bardzo szybko,
posiąść umiejętność użytkowania Internetu
(tak jak opanowali umiejętność czytania i pisania). I dam tu dobrą radę,
jak to zrobić. Zanim usiądzie się przy komputerze, należy gruntownie
przeczytać o nim dobrą książkę. Książek takich jest bardzo wiele, osobiście
sugeruję: “Internet. Wykłady Harleya Hahna” – świetny
kompromis pomiędzy poprawnością i aktualnością treści oraz przystępnością
stylu. Zalety Internetu, krótko i z właściwym sobie poczuciem humoru ocenił
David Platt (“Podstawy Microsoftu.
NET”, Wyd. RM, s. 1):
“Pojedynczy komputer jest nudny, podobnie jak jednokomórkowa
ameba… Jednak gdy podłączymy go do Internet… – zaczynają
się dziać ciekawe rzeczy”.
Powracając do ogólnych
koncepcji związanych z sieciami komputerowymi i Internetem, pozwolę sobie na
dygresję, dotyczącą naszych polskich realiów użytkowania Internetu.
Wszyscy ważni decydenci mają – przepraszam
za wyrażenie – gębę pełną frazesów; nie ustają w
rozprawianiu o konieczności edukacji komputerowej i fascynują się przyszłymi
możliwościami, które zapewnia Internet. Natomiast realia roku 2001 kształtują
zupełnie odmienną rzeczywistość. O ile wierzyć danym statystycznym (m.in.
analizy CIA – Computer Industry
Almanac), w Polsce regularnie korzystało
z sieci 80 na 1000 osób, czyli jedynie 8 proc. A to sprawia, że
zajmujemy 31. miejsce, daleko w tyle za liderami (Finlandia, Szwecja,
Kanada czy Stany Zjednoczone) i dalej za Belgią, czy też Niemcami.
Pozostajemy też w tyle za naszymi sąsiadami, pomimo iż startowaliśmy w tym
samym czasie: Czechami, Węgrami oraz... Słowacją (sic!). Przyczyna jest
znana: zacofana
infrastruktura telekomunikacyjna, powodująca – w warunkach domowego,
indywidualnego użytkowania – spowolnienie szybkości transmisji do
absurdalnie niskich wartości bitów na sekundę (bps) w stosunku do przyzwoitych
standardów, które zapewnia modem. To są te długie minuty, a nawet
dziesiątki minut,
z którymi nie wiadomo co robić, gdy trwa ściąganie stron WWW, plików
itp.; nierzadko kończone awaryjnym przerwaniem połączenia. Czas transmisji
to impulsy, których liczbę poznajemy, płacąc słony rachunek za
telefon. Zachłanność operatorów, ujęta w prawne regulacje i cenniki (zwłaszcza
jednego monopolisty – proszę zgadnąć którego?) – powoduje, iż
u nas cena dostępu do Internetu jest najwyższa na świecie, ale i tak trudno
znaleźć sensowną – pod względem finansowym i technicznym –
ofertę zapewniającą indywidualny dostęp do Internetu. Musiałem to
powiedzieć, aby przedstawiając fundamentalne koncepcje teleinformatyki, nie
tworzyć wrażenia oderwania od realiów, a te są jednoznaczne: Polska
– jak twierdzą analitycy CIA – należy do krajów najwolniej
adaptujących technologie internetowe.
Poprzednio wskazałem jedną
przesłankę, dla której firmy i instytucje – w tym Politechnika
Krakowska –- inwestują w lokalną sieć komputerową. Jest i druga
przesłanka, czyniąca z Internetu podstawową przyczynę tofflerowskiego szoku
cywilizacyjnego. Internet zapewnia przekaz wszelkiej informacji między ludźmi
i to w skali całego globu, a zarazem w niesłychanie krótkim czasie. I
do tego jeszcze w wyjątkowo bogatej multimedialnej postaci: tekst, obraz
kolorowy, statyczny lub ruchomy oraz dźwięk. Jakże to różne od zrozumiałego
tylko dla telegrafisty alfabetu Morse’a, czy też siermiężnego
telegramu tekstowego (pierwszy na świecie telegram miał treść: Co
stworzył Bóg? – What hath God wrought?, przesłany został z
Waszyngtonu do Baltimore 24 maja 1844 r.).
Przekaz informacji jest
bardzo ważny; Marshall McLuhan, jeden z wybitnych intelektualistów XX wieku
(zm. 1980 r.) zaproponował określenie – człowiek Gutenberga.
Uznał bowiem, iż wynalazek druku, w połączeniu z alfabetem fonetycznym, a
więc możliwość przekazu informacji za pośrednictwem dowolnej liczby
reprodukowanych książek – miał znaczenie decydujące. Przekaz książkowy
stanowił, jak na owe czasy (Johannes Gutenberg wydrukował pierwszy
egzemplarz Biblii w latach 1455-1456) – szybką i stosunkowo rozległą,
a jednocześnie nie tak kosztowną, w stosunku do ręcznego przepisywania,
formę przekazu informacji. McLuhan twierdzi nawet, iż wynalazek druku
doprowadził ostatecznie do uprzemysłowienia, a typografię uznał nawet za
protoplastę masowej produkcji Henry’ego Forda. I nie tylko; wynalazek
druku wpłynął
decydująco na rozwój edukacji, kultury, nauki itd. – jednym słowem
ukształtował ostatecznie innego człowieka. Era druku trwała mniej więcej
do początku XX wieku, potem pojawiły się inne media: telegraf, radio,
telefon, telewizja i… komputer. A komputer, ściślej połączone w
sieć komputery multimedialne, integrują i przekształcają wszystkie inne
media. Następuje ponowna metamorfoza, człowiek Gutenberga przekształca
się stopniowo w człowieka Turinga. Proces ten, pomimo tak znaczących
rezultatów, dopiero się właściwie rozpoczyna; zaryzykujmy więc krótkie
spojrzenie w najbliższą przyszłość.