NAUKA I TECHNIKA W PK
Zbigniew Polański
TECHNOLOGIA INFORMACYJNA – KONCEPCJE,
PROGNOZY I KONSEKWENCJE (cz. II) (cz. I)
Secundo: prognozy
Meandry prognozowania
Prognozowanie
to zajęcie trudne, gdyż wymaga ustalenia tego, co w przyszłości może się
zdarzyć, o ile sprawy będą się toczyć w dotychczasowym trybie. Formalnie
istnieje dyscyplina naukowa nazywana teorią prognozy, która określa takie
postępowanie jako analizę trendów, pozwalającą na dokonanie predykcji.
Mniej formalnie, rezygnując z niezrozumiałego żargonu, twierdzę wręcz
odwrotnie: prognozowanie jest łatwe, zwłaszcza w odległym, wydłużonym
horyzoncie czasowym. Nie pierwszy raz, rezygnując nieco z ponurej powagi, powołam
się na opinię światowego humorysty Scotta Adamsa – twórcy Dilberta,
komiksowego człowieczka o kwadratowej główce i w okularach intelektualisty. W
swoim ostatnim bestsellerze: Przyszłość według Dilberta Adams pisze wprost,
iż przyszłość to świetny temat, gdyż w chwili dostrzeżenia omyłek w
prognozie – można już być nieboszczykiem. Od siebie dodam, że wcześniej
ludzie po prostu raczej zapomną, iż ktoś kiedyś cokolwiek prognozował.
A poważnie: prognoza zawsze
zakłada ciągłość istniejących trendów, co z założenia prowadzi do
nietrafności prognozy, o ile zdarzy się coś nieoczekiwanego. Dlatego, a jest
to mój osobisty pogląd, nie wierzę w możliwości matematyzacji prognoz
– jako prostej ekstrapolacji matematycznej istniejącego trendu. Taką
prognozę można nawet powierzyć komputerowi. Wierzę natomiast w wykraczający
poza możliwości współczesnych komputerów intelekt futurologów, którzy
przewidują rzeczy pozornie nieprzewidywalne.
Nietaktem byłoby mówienie o
naukowej futurologii bez przywołania autorytetu Stanisława Lema, który
notabene niedawno obchodził 80. rocznicę urodzin. Jego prognozy, w znakomitej
większości, sprawdziły się i to szybciej niż przypuszczał ich autor; będę
go więc cytował.
Granice i zmierzch
komputerowej epoki krzemu
Możliwości
procesora i rozmiary pamięci determinują jakość komputera, reszta jest niezbędna
i ważna, ale nie ma decydującego znaczenia. Rozszerzające się zastosowania
komputerów od matematycznego modelowania klimatu i symulacji procesów
syntezy termojądrowej, przez świat handlu i finansów, do systemów
operacyjnych pecetów i coraz to nowszych wersji pakietów programów biurowych
(edytor, arkusz kalkulacyjny, programy grafiki prezentacyjnej itd.) –
stymulują nowe rozwiązania projektowo-technologiczne procesorów i pamięci
(zarówno kostek RAM, jak i twardych dysków, nośników zewnętrznych itp.).
Obecnie trwa wojna gigantów:
Intel rzuca na szalę Pentium 4 z jego 2 GHz zegarem, produkowanym nadal jeszcze
w technologii 0,18 mikrometra. W odpowiedzi jego największy rywal AMD
przyspiesza debiut Athlona – 1,533 GHz. Ale nie łudźmy się, że
jedynie te liczby świadczą o jakości procesora – to wykażą
dopiero odpowiednie testy. Liczby te mają przede wszystkim znaczenie
marketingowe; sytuację można porównać np. z reklamą zachęcającą do
kupienia nowego modelu samochodu, gdyż zeszłoroczny nie jest wyposażony np. w
czujnik uruchamiający automatycznie wycieraczki przy pierwszych kroplach
deszczu.
Technologia 0,18 milimetra to
parametr długości, określający pewne cechy procesora; można go zmniejszyć
np. do 0,13 milimetra, a dalej? Na końcu jest już elektronika molekularna, która
– tak jak cała nanotechnologia – koncentruje się na rozmiarach
elementów porównywalnych z wymiarami molekuł.
Dygresja – awizowany
cytat z S. Lema (Okamgnienie, WL 2000, s. 13): (…) udało się zbudować
elementarne jednostki układów komputerowych, tak zwane bramki logiczne, z
jednej molekuły (…) będą nie tylko setki razy mniejsze, ale ponadto
koszt ich wytwarzania ogromnie się zmniejszy. Lem pisze też (ibidem, s. 15):
Era krzemowa zdaje się zmierzać ku swojemu końcowi.
Poprzednio wyjaśniałem
podstawową koncepcję komputera, bazującą na elemencie dwustanowym typu zero
(0) / jeden (1). Jeden z twórców superkomputerów – Daniel Hillis napisał
wprost (Wzory na krzemowej płytce. CiS, 2000), iż komputery mogą być
zbudowane np. z drążków i linek, gdyż – cytuję: Istotą tego, co
sprawia, że komputery przeprowadzają obliczenia, są koncepcje… A to
upoważnia do odstąpienia od sygnału elektrycznego, a praktycznie krzemowych
tranzystorów i łączących je przewodów – jako podstawowego elementu
fizycznego przetwarzającego informację. Mogą być one zastąpione przez inne
formy fizycznej realizacji stanów binarnych (niekoniecznie jednak przez drążki
i linki, aczkolwiek demo-komputerek z rurek napełnionych wodą już zrobiono).
Wskażę kilka z nich, rozpoczynając od koncepcji bazujących na fizyce
kwantowej.
Nie sposób tu wkraczać w świat
fizyki kwantowej, musiałbym chyba rozpocząć od kota Schrödingera. Fizyka
kwantowa dotyczy atomowego mikroświata rządzonego przez prawa teorii
kwantowych. Można jednak, bez bliższego uzasadnienia, akceptować fakt, iż
spośród gamy różnych zjawisk fizycznych, w których biorą udział atomy, cząstki
elementarne itp. – możliwe jest wyróżnienie takich, które mogą
reprezentować dwa rozróżnialne stany: zero (0) i jedynkę (1). A to już
tworzy fundamenty nowej koncepcji komputera kwantowego. Przykładowo jedynie
wspomnę, iż kwantowa fizyka ciał stałych zna zjawisko związane z
nadprzewodnictwem, określane jako złącze Josephsona; jesteśmy więc blisko
procesora nadprzewodnikowego. Przyczyny, dla których trwają prace nad
komputerem kwantowym, są istotne; niezależnie od potężnej mocy obliczeniowej
komputer kwantowy zapewnia bezpieczeństwo informacji. Haker, podsłuchując
transmitowany sygnał – zgodnie z zasadą Heisenberga –
ingeruje w treść informacji, praktycznie ją niszcząc, z jednoczesnym
powiadomieniem o tym nadawcy sygnału. Droga do produkcji komputera kwantowego
jest jeszcze może i długa, ale… podobno prototyp komputera kwantowego
rozwiązał już proste zadanie z fizyki.
Alternatywną i bliską
teoretycznie jest koncepcja komputera optycznego. Elementem binarnym jest światło
– promieniowanie elektromagnetyczne, które na przykład podlega modulacji
realizującej stany zero (0) – jedynkowe (1). Koncepcje mogą być różne
– przykładowo w bagnach stref tropikalnych żyją bakterie, które niezbędną
do życia energię uzyskują wprost ze światła. Występujące w tym procesie
białko (bakteriorodopsyna) może stanowić element kodujący informację, którą
można zapisywać i odczytywać, a to przecież stanowi istotę pamięci
komputerów. Światło, konkretniej światło laserowe w kablu światłowodowym,
ma kilka ważnych zalet. Nie tylko z oczywistych przyczyn zapewnia poważne zwiększenie
szybkości przesyłania informacji, ale posiada inne korzystne cechy transmisji:
dużą pojemność informacyjną światłowodu połączoną z odpornością
na zakłócenia oraz – co w naszym świecie pełnym konfliktów jest
szczególnie ważne – odporność na podsłuch (faktem jest podsłuch
kabli transoceanicznych. Warto też wspomnieć o hipotetycznie realnej
koncepcji wykorzystania zjawiska spowolnienia światła. Temu, który prędkość
światła kojarzy jedynie z wartością “stałej Einsteina”: c =
299792458 m/s wyjaśniam, iż odnosi się ona do próżni. W innych ośrodkach
światło spowalnia; jeden z artykułów w Nature (18.02.1999) podaje
wprost w tytule wartość 17 m/s, do której spowolniono światło).
Oczywiście, to nie koniec możliwości, pozostały
szczególnie obiecujące in spe możliwości biologii molekularnej. Z powodzeniem
realizowany jest “Projekt badania ludzkiego genomu” (Human Genome
Project), a przecież w DNA kodowana jest informacja; jesteśmy więc
teoretycznie blisko komputera biologicznego. Rozwijające się gwałtownie
biotechnologie, kto wie, czy nie doprowadzą do hodowli układów logicznych, a
dalej: hodowli całych procesorów i pamięci komputerów przyszłości.
Powstaje pytanie: czy to są
realne kierunki działań, czy też fantazje rodem z modnych powieści
sensacyjnych typu thriller technologiczny. Odpowiem tak: odnotowano, w co trudno
obecnie uwierzyć, iż był taki moment, gdy szefowie IBM mieli wątpliwości,
czy komputery będą stanowiły dobrą ofertę handlową (autentyczne!). Teraz
sytuacja jest zupełnie odmienna, istnieją przyczyny uzasadniające zaangażowanie
olbrzymich środków finansowych na badania naukowe i projekty w dziedzinie
ultraszybkiego przetwarzania ogromnych liczb danych. Okazało się bowiem, że
istniejące superkomputery – o szybkości operacji rzędu teraflopów
(1012) – okazały się… zbyt wolne. Klimatologia, medycyna i
biologia, zwłaszcza biologia molekularna, nanotechnologie, zaawansowana inżynieria
i energetyka atomowa – wymagają petaflopów (1015), czyli już nie super-
tylko hiperkomputerów. A fakt, iż tłem są zastosowania militarne – nie
stanowi dla nikogo tajemnicy; mówi się nawet wprost o symulacji procesów
modelujących jądrową broń strategiczną, omijającą zakaz prób fizycznych.
W stronę sztucznej inteligencji
Współczesne
komputery, w tym nasze ukochane pecety, działają w myśl koncepcji Johna von
Neumanna – robią wyłącznie to, co nakazuje im program. Prawda, iż
programy można wymieniać, ale wcześniej należy je jednak… napisać.
Oznacza to, iż światem komputerów rządzi triada programowania: metoda
– algorytm – program. Jeżeli komputer ma rozwiązać określone
zadanie, to uprzednio człowiek musi ustalić właściwą metodę jego rozwiązania.
Komputerowy hardware i software uzupełnia ludzki wetware – mokry towar,
czyli nasz mózg. Ustaloną metodę rozwiązania zadania należy przekształcić
w pewną strukturę działań – nazywaną algorytmem. Bez żadnych
niejednoznaczności, niezdefiniowanych opcji i o wyraźnie określonym początku
(START) i końcu (STOP) procesu przetwarzania wprowadzonych danych. I do
tego sugestia, aby trwało to krótko, wymagało możliwie mało pamięci i
– co jest oczywiste – wynik był poprawny.
Dysponując algorytmem, należy
już tylko umieć przekształcić go w zakodowaną sekwencję instrukcji, które
odczyta komputer działający – jak wiadomo – jedynie na bitach.
Programista pisze więc kod źródłowy, a czynność tę ułatwiają mu istniejące
języki programowania. Pisanie programu wprost w kodzie zero-jedynkowym (kod
maszynowy) jest teoretycznie możliwe, lecz praktycznie nierealne; poważne
programy mają tysiące, jak nie miliony, linii kodu źródłowego. Opis języków
programowania, od asemblera do C++, a może nawet języka C# stworzonego
specjalnie w związku z platformą. NET Microsoftu – może być jedynie
przedmiotem wybranych zajęć dydaktycznych w toku studiów.
Od dawna podejmowane są próby,
aby maszyna nazywana komputerem nieco zmądrzała –- oficjalnie istnieje
nawet obszar informatyki nazywany sztuczną inteligencją (AI –
Artificial Intelligence). Cel ostateczny: upodobnienie komputera do umysłu człowieka,
szanse osiągnięcia celu, jak dotychczas, raczej – ambiwalentne.
Niejednoznaczność ma swoje podstawy; jedni mówią, iż stanowi to jedynie
kwestię czasu, zanim będziemy się zawzięcie np. kłócić z komputerem.
Inni jednak zdecydowanie twierdzą, że nigdy nie będzie to możliwe. I mają
argumenty: inteligencja nadal stanowi niezdefiniowany fenomen właściwy człowiekowi.
A bardziej konkretnie: jeżeli nawet komputer będzie wykazywał pewne cechy
inteligencji racjonalnej, logicznej (tej mierzonej wskaźnikiem IQ), to natrafi
na poważne trudności przy próbach wkroczenia w obszary inteligencji
emocjonalnej (EQ – Emotional Quality). Poszukujący teorii świadomości
Roger Penrose stwierdza (Cienie umysłu, Zysk i S-ka 2000, s. 513): Są
to bardzo głębokie problemy i daleko nam do ich pełnego zrozumienia.
Dodam: kunszt algorytmiki może nawet doprowadzić do taksonomiczno-numerycznego
symulowania emocji. Nadal jednak w oczach Harry’ego Pottera, komputer
pozostanie mugolem. Przecież świat magii niedostępny jest nawet dla wielu
ludzi, zwłaszcza dorosłych. Odrzucając jednak, raczej filozoficzne, aspekty
sztucznej inteligencji, można wskazać na pewne spektakularne rezultaty badań
i to o praktycznych już zastosowaniach. Przykładowo wymienię systemy
ekspertowe, w tym również te z rozmytymi regułami logicznego wyboru.
Dodatkowo wymienię pewne wyniki w obszarze przetwarzania języków naturalnych
(translacja itp.), automatyzację dowodzenia twierdzeń logiczno-matematycznych,
rozpoznawanie mowy itp.
Szczególnie eksponować należy
inspirowanie metod komputerowych przez samą naturę. Warto bowiem podpatrywać
naturę, gdyż komputery tworzymy praktycznie od około pół wieku, czyli jest
to nic nie znaczący okres z perspektywy ewolucji biologicznej. Pierwsze
organizmy tkankowe pojawiły się ca 900 mln lat temu (Proterozoik), a pierwsze
ssaki tylko 225 mln lat temu (Trias); człowiek to już tylko 100 tys. lat temu
(Czwartorzęd) – natura miała więc dość czasu na ewolucyjne
doskonalenie jej tworów.
Spektakularną imitację
doskonałego tworu natury, jakim jest mózg człowieka – i to, niestety
lub na szczęście, niesłychanie prymitywną – stanowią programy
komputerowe typu sieć neuronowa. Obecnie mamy już nawet oprogramowanie w
wersji dla pecetów (np. Neural Networks - STATISTICA). Ich cechą zasadniczą
jest odstąpienie od koncepcji Johna von Neumanna, gdyż w odniesieniu do pewnej
klasy zadań – zwłaszcza aproksymacji – program nie wykorzystuje
znanego wcześniej algorytmu rozwiązania, lecz po prostu sam się uczy –
na podstawie danych – jak ma rozwiązać postawione zadanie.
Naśladujemy też darwinowską
teorię doboru naturalnego, tworząc tzw. programy ewolucyjne (algorytmy
genetyczne/ewolucyjne), z powodzeniem radzące sobie – zwykle, lecz nie
zawsze – z nierozwiązywalnym numerycznie zadaniem optymalizacji globalnej
w ograniczonych obszarach. Ostatnio nawet programiści automatów obserwują...
mrówki. I uczą się od nich, jak zaprogramować np. na potrzeby lotów
kosmicznych wiele robotów zamiast jednego większego robota. Takie małe roboty
pracę wykonują efektywniej, a jak się któryś zepsuje, to inne go zastąpią;
muszą tylko umieć się dogadać wzajemnie. Wspomniałem już o monografii
Swarm Intelligence – inteligencja roju stanowi nową, raczej jeszcze mało
znaną koncepcję prowadzącą do nowych algorytmów optymalizacji.
Wszystko, co dotychczas
powiedziałem, stanowi tylko bardzo ogólny i fragmentaryczny zarys problematyki
prognostycznej. Nawiązując do istniejących sieci komputerowych, chciałbym
wymienione prognozy uzupełnić ważną informacją o tzw. systemach
rozproszonych (distributed system). Można z dużym prawdopodobieństwem
prognozować dalszy intensywny rozwój systemów rozproszonych. Rzecz w tym,
iż w klasycznej sieci komputerowej każdy użytkownik ma zapewniony dostęp do
wspólnych zasobów sieci i komunikację wzajemną; w tym z wykorzystaniem
Internetu. Można nawet pracować zdalnie na innym komputerze (Telnet), nadal
jednak widoczna jest ziarnista struktura autonomicznych komputerów połączonych
w sieć komputerową. Inaczej w systemie rozproszonym; komputery nadal są
połączone w sieć – zupełnie inne jest jednak oprogramowanie. Nie
wnikając w szczegóły, oprogramowanie rozproszone – ewentualnie też współbieżne
– stwarza użytkownikowi obraz jednego spójnego systemu –
wirtualnego komputera; sam o tym nie wiedząc użytkownik używa różnych
komputerów, rozproszonych gdzieś w różnych częściach kraju, czy nawet świata.
Warto o tym wiedzieć, gdyż znakomita większość profesjonalnych
zastosowań teleinformatyki oparta jest i będzie – właśnie na systemach
rozproszonych.
Tertio: konsekwencje
Cyfrowa cywilizacja – radykalne i szybkie zmiany
Cywilizację
określa się jako dorobek kultury materialnej (z akcentem na materialnej) osiągnięty
przez określone społeczeństwo w danej epoce historycznej. Alvin Toffler już
w 1970 roku, jako jeden z pierwszych, eksponował komputer jako główny
element Szoku przyszłości; to tytuł jego, klasycznej już książki –
światowego bestsellera. Na naszych oczach narodziła się technologia
informacyjna, która już jest prawie w każdej dziedzinie naszego życia: od
promu kosmicznego i sondy na Marsie do elementów życia codziennego:
telefon komórkowy, samochód, bankomat. Nawet mój pies ma szansę na
wszczepienie chipa identyfikacyjnego; chipa będę miał i ja – mam tylko
nadzieję, iż nie pod skórą, lecz w noszonym w portfelu dowodzie
osobistym. Techniki cyfrowe rozpoczęły proces cyfrowej metamorfozy
wszystkiego, co nas otacza. Samochód ma już komputer pokładowy i niewątpliwie
rozpowszechnią się satelitarne samochodowe systemy nawigacyjne. Komputer już
obecnie integruje się z telefonem komórkowym, a zbliża się nowy
standard – UMTS, m.in. rozpowszechnione SMS-y zmienią się w
multimedialne MMS-y. Przecież w Japonii już uruchomiona została pierwsza
na świecie sieć telefonii trzeciej generacji FOMA (Freedom of Mobile
Multimedia Access). Uczynił to operator: NNT DoCoMo, a docomo po japońsku
znaczy – wszędzie. Telewizja zmieni się oczywiście w telewizję
interaktywną. A wszystko razem, tj.: multimedialny komputer sieciowy, TV,
radio, telefon, faks itp. – będzie zintegrowane w jednym
multimedialnym kablu.
To wszystko dokonuje się w
szybkim tempie, już obecnie gospodarka – decydująca ostatecznie o prestiżu
państwa – zamienia się w cyfrową gospodarkę: e-business, e-commerce,
etc. Zmienia się proces adaptacji struktur prawno-organizacyjnych. W lipcu 2000
roku Bill Clinton, jako prezydent USA – podpisuje akt “S. 761”
– zalegalizowany zostaje podpis cyfrowy. W ślad za Ameryką idą inne
kraje, w tym i Polska; a to w przyszłości zmieni całkowicie obowiązujące
formy handlu, transakcji finansowych i procedur administracyjnych.
Ergo: cyfrowa szkoła przetrwania
Większość z
obecnych tu, słuchających tego wykładu, traktuje już okres powstawania III
RP i poprzedzające go czasy socjalizmu, którego końcowym akordem były sklepy
z pustymi półkami, jak historie o Piaście Kołodzieju, czy też bitwie pod
Grunwaldem. Wędrując po supermarkecie z telefonem komórkowym na pasku,
trudno wyobrazić sobie, iż były talony na samochód, a potem już kartki na
żywność; na telefon czekało się latami. Aby zrozumieć tempo zmian,
proponuję eksperyment myślowy. Osoby z rocznika 80. osiągną wiek emerytalny
pod koniec dekady 2040/2050 r. Jaki wtedy będzie świat, nikt właściwie
nie wie, pewne rzeczy można jednak przewidzieć. A zrozumienie procesu zachodzących
przemian może ułatwić pewien eksperyment myślowy, polegający na cofnięciu
w czasie. Ponownie uruchamiamy wehikuł czasu – lądujemy dość blisko
– 65 lat do tyłu od daty waszego urodzenia: koniec drugiej dekady XX
wieku. Skończyła się właśnie I wojna światowa, w Rosji obalony został car
Mikołaj II – Lenin głosi hasło “cała władza w ręce rad”.
A w Polsce przybywa do Warszawy Józef Piłsudski, przejmując pełnię władzy.
To był zupełnie inny świat. Ludzie nie tylko inaczej się ubierali; jeździli
też dorożkami, aczkolwiek samochód już istniał – przecież firma Ford
Motor Company powstała jeszcze w 1903 roku. Dopiero jednak wprowadzone w latach
1913-1914 metody masowej produkcji samochodów, w tym historycznego już modelu
T, zmieniły oblicze Ameryki i całego świata. Podobnie telewizja –
dyktator kształtujący mentalność wielu ludzi, w tym wzorce kulturowe
“Big Brothera” – powstała wprawdzie w USA jeszcze w 1929
roku, lecz rozpoczyna panowanie, tak naprawdę, dopiero po II wojnie światowej.
Początki telewizji kolorowej to lata 50., a pierwsza transmisja satelitarna
programów telewizyjnych datowana jest na 1962 rok. I jeszcze jedna ważna data:
Allan Turing opracowuje, na razie całkowicie teoretyczną, koncepcję komputera
w 1937 roku.
Teraz, po takim spojrzeniu w
przeszłość, wyraźnie widać, jak zmienił się świat przez okres 65 lat
przed waszym urodzeniem. Bez wątpienia spojrzenie w przeszłość upoważnia do
założenia, iż podobnie może być i w przyszłości. Świat również się
zmieni, a obserwując ogromne tempo zmian – z dużym prawdopodobieństwem
można przyjąć, iż zmiany te będą jeszcze bardziej radykalne. Nikt dokładnie
nie wie, jaka będzie cywilizacja lat 2040 – 2050; okresu końca waszej
pracy zawodowej – niewątpliwie będzie jednak zupełnie inna od obecnej.
Wiem, że nikt o tym teraz nie myśli – swego czasu ja też nie myślałem
– może jednak warto zastanowić się, jakie płyną stąd wnioski?
A wniosków jest wiele i to różnych;
przecież podjęte teraz decyzje ukształtują może całe wasze życie. To są
jednak osobiste sprawy każdego i dlatego ograniczę się tylko do
zaakcentowania jednego oczywistego wniosku, związanego bezpośrednio z dniem
inauguracji. Studia to dopiero początek edukacji, która – jeżeli chcemy
nadążać za zmianami – musi być edukacją permanentną, będziemy się
więc musieli nauczyć – ustawicznego uczenia się praktycznie aż do
emerytury. Od tego będzie bowiem zależeć wasz status, zwłaszcza materialny i
nie będę tu prawił żadnych morałów – każdy musi sam decydować. Kończąc
pozwolę sobie zauważyć, że ten przyszły świat, zwłaszcza w warstwie
humanitarnej, kulturowej będzie zależeć od was samych. Nie dopuście, aby
komputer kształtował wasze życie, użytkujcie go tylko rozsądnie – to
przecież ostatecznie tylko doskonała maszyna. Pewien charakterystyczny epizod:
ostatnio byłem w multikinie – wcześniej znałem animowaną postać Lary
Croft z gry komputerowej “Tomb Reider”, wersja bodajże
“Chronicles” – w kinie stwierdziłem, z pewnym zaskoczeniem, iż
autentyczna kobieta, należy przyznać niesłychanie dynamiczna, aktorka
Angelina Jolie, naśladuje postać wziętą z gry komputerowej.
Jak tak dalej pójdzie, okaże
się, iż wymieniony już poprzednio wizjoner McLuhan, miał wiele racji, gdy w
jednym z wywiadów (M. McLuhan: Wybór tekstów, Zysk i S-ka 2001, s. 379)
wspomina o karykaturze, na której mały chłopiec oznajmia zdumionej mamie: Gdy
dorosnę, będę komputerem. Kończę więc również słowami McLuhana: Humor
często bywa proroctwem. A nadzieję pokładam w tym, iż nie wszystkie złowieszcze
proroctwa muszą się zawsze spełniać.