Mikrobus sunie powoli po wąskich uliczkach przedmieść Londynu. Tysiące podobnych domów jednorodzinnych z czerwonej cegły otaczają nas jak ściany labiryntu. Jak wy, londyńczycy, znajdujecie drogę do właściwego adresu wśród setek podobnych uliczek? – pytam kierowcę, który z kamienną twarzą skręca na kolejnym skrzyżowaniu. Szofer odpowiada spojrzeniem dającym do zrozumienia, że nie powinienem był pytać, a w chwilę potem zdaję sobie sprawę, że znów przejeżdżamy obok tego samego miejsca.
W końcu dojeżdżamy do budynku wyjątkowego w tej fraktalnej okolicy, gdzie jeden motyw powtarza się w nieskończoność. To dom inteligentny, w którym oprócz tradycyjnej infrastruktury: gazu, wody, elektryczności zainstalowano mnóstwo elektronicznych gadżetów połączonych zintegrowaną siecią komputerową. Sieć za pośrednictwem serwera i rutera podłączona jest do Internetu. Podobno w Epoce Cyfrowej inaczej już żyć nie można, elektronika dostarcza mieszkańcowi wciąż nowych możliwości, a ten, gdy tylko z nich skorzysta, zdziwi się, że dotychczas mógł się bez nich obywać.
Na przykład przez Internet, a więc choćby z pracy, można za pośrednictwem kilku zainstalowanych w domu kamer obejrzeć posiadłość lub sprawdzić, co robią dzieci, jeśli są na tyle nierozsądne, by znaleźć się w polu widzenia. Przez Internet można również skontrolować i regulować parametry domowej automatyki: ustalić temperaturę w poszczególnych pokojach, zasunąć żaluzje, zmieniać oświetlenie, udając przed potencjalnym złodziejem, że ktoś jest w środku.
Dzięki Internetowi można, nie ruszając się z domu, załatwiać sprawy w banku albo w urzędzie. Dostępny w garażu posłuży do zdalnej diagnostyki samochodu – wystarczy połączyć kabelkiem odpowiednie gniazdko pod maską z gniazdkiem sieci komputerowej i „zalogować się” w warsztacie. W podobny sposób można wypełnić opustoszałą lodówkę, która sama kontroluje stan swoich zapasów i upomina się o nowe produkty w supermarkecie. Lodówka jest też na tyle sprytna, że sama zasugeruje przepis na danie, jakie można upichcić z dostępnych w domu składników.
W sieć połączone są wszystkie alarmy, telewizory, wzmacniacze i magnetowidy, którymi można sterować za pomocą bezprzewodowego nawigatora z dowolnego miejsca domu. Przewodnicy zastrzegają, że prezentowany budynek, choć już w pełni funkcjonalny, nie demonstruje wszystkich możliwości, jakie otworzą się przed nami w przyszłości. Większość poleceń będzie można wydawać za pomocą telefonu komórkowego i to głosem. Jadąc z pracy, wystarczy wówczas polecić ekspresowi do kawy, by po powrocie czekał świeży napar, zapalić światła i włączyć ogrzewanie.
Gdy wracam mikrobusem na lotnisko, zastanawiam się, podobnie jak dziesięć lat wcześniej podczas planiorki na „Antonim Czechowie”, gdzie przebiega granica między praniem mózgu a rzeczywistością, czy przez przypadek marketingowiec demonstrujący te wszystkie cuda to nie współczesna wersja radzieckiego komsomolca niosącego z podniesionym czołem wizję nowego, lepszego świata. Przejeżdżając obok wiaduktu, mijamy leżącego pod murem, wtulonego w śpiwór kloszarda. Do ucha przytyka komórkę, spod dawno niegolonej brody przeziera szeroki uśmiech – czyżby rozmawiał z ekspresem pełnym kawy?
Dziesięć lat wcześniej, w 1991 roku, cały Związek Radziecki pracowicie stukał na drewnianych liczydłach. Zbyt wiele roboty nie było, bo i liczyć nie było czego. Gospłan ustalał ceny na dwieście tysięcy pozycji asortymentu, który w zdecydowanej większości widoczny był tylko w gospłanowskich statystykach lub na czarnym rynku. W tym samym czasie Polska, już wyzwolona i płynąca na sprzyjającej fali, włączała się do Internetu. W sierpniu 1991 roku, akurat kiedy doszło do puczu Janajewa, który przyspieszył koniec ZSRR, polscy fizycy-zapaleńcy dokonywali pierwszej międzynarodowej transmisji w protokole TCP/IP, czyli mówiąc prościej, włączyli Polskę do globalnej sieci.
W 1991 roku w Finlandii uruchomiono pierwszą sieć cyfrowej telefonii komórkowej. Komórki wraz z Internetem stały się w ciągu kilku lat symbolem nowej rewolucji, tak dynamicznej i dalekosiężnej, że wkrótce znalazło się wielu proroków, którzy socjalistyczne wizje raju na ziemi zastąpili wizjami edenu zbudowanego dzięki technologii.
O tej rewolucji mówiło się już dużo wcześniej, Japończycy zaczęli budować społeczeństwo informacyjne jeszcze w latach sześćdziesiątych. Leonid Breżniew nie miał wątpliwości, że rewolucja naukowo-techniczna jest kluczem do zadania ostatecznego ciosu kapitalizmowi. Wielkie przemiany, będące skutkiem przełomowych odkryć naukowych i wynalazków, zapowiadali też w Stanach Zjednoczonych Alvin i Heidi Tofflerowie, publikując w 1970 roku Szok przyszłości, a w Polsce Stefan Bratkowski w Księdze wróżb prawdziwych. To w tej właśnie książce Bratkowski opisuje komputer K-202 inżyniera Jacka Karpińskiego, który ukazywał nowy paradygmat wykorzystania informatyki i otwierał drogę do idei komputera osobistego. Idea ta była w systemie komunistycznym na tyle niebezpieczna, że Karpiński, zamiast robić na swym pomyśle pieniądze, zmienił branżę i zaczął hodować świnie.
Przypadek Karpińskiego pokazuje tylko, że ziarno najlepszego nawet pomysłu padające na jałową ziemię nie przyniesie owoców. Manuel Castells, badacz społeczeństwa poprzemysłowego, analizował, dlaczego rewolucja informatyczna wybuchła tak naprawdę w jednym miejscu – w kalifornijskiej Krzemowej Dolinie, w latach siedemdziesiątych. Przemysł elektroniczny upatrzył sobie tę lokalizację znacznie wcześniej. Pierwszy „garaż”, od którego zaczęła się technologiczna epopeja, należał do Davida Packarda i Williama Hewletta i stał w Palo Alto nad zatoką San Francisco. Taki był rodowód jednej z największych firm komputerowych świata, Hewlett-Packard. Miejsce nadawało się doskonale ze względu na bliskość najlepszej uczelni w Stanach Zjednoczonych, Uniwersytetu Stanforda, który dostarczał doskonałych kadr i wspierał powstawanie firm typu spin-off, przekuwających wiedzę na technologie.
Przez kilkadziesiąt lat Kalifornia zyskała solidną reputację w dziedzinie nauk przyrodniczych i zaawansowanych technologii. W latach sześćdziesiątych stała się też epicentrum innej rewolucji – hippisowskiej alternatywy. To właśnie na kalifornijskich uczelniach miały miejsce najzaciętsze bitwy z policją. Nastąpił mariaż technologii z kontrkulturą. Robert Pirsig w Zen i sztuka obsługi motocykla pisał: Budda, Bóstwo, spoczywa tak samo wygodnie w obwodach komputera cyfrowego czy przekładniach roweru, jak na szczycie góry czy płatkach kwiatu..
Stąd już tylko krok, by uczynić komputer narzędziem kontrkultury. Erik Davis opowiada w TechGnozie: Niektórzy zwolennicy kontrkultury mieli bardziej polityczne powody zainteresowania się komputerami. W roku 1970 nieformalne ugrupowanie informatyków, którzy wypadli z obiegu, i radykalnych programistów z Berkeley zdało sobie sprawę, że komputery mogłyby stanowić potencjalną alternatywę wobec typowych dla mass mediów technokratycznych instytucji i odgórnej kontroli informacji.
Przy Uniwersytecie Stanforda działał Homebrew Computer Club, do którego zachodził młody geniusz Steve Wozniak i równie młody buddysta, amator LSD Steve Jobs. W garażu wyprodukowali komputer o wdzięcznej nazwie Apple, a logo powstającej firmy – nadgryzione jabłuszko – było czytelną aluzją do grzechu pierworodnego, obietnicy wyzwolenia spod władzy „starego”, dotarcia do prawdziwej wiedzy. Z ich doświadczeń i finansowego sukcesu komputerów Apple (które radzieccy inżynierowie, na podstawie przeszmuglowanych przez agentów KGB egzemplarzy, próbowali odtworzyć przez dziesięć lat) narodziła się idea komputera dla „reszty z nas”, przyjaznego macintosha. Ujrzał on światło dzienne w orwellowskim roku 1984, a jego inauguracji towarzyszyła reklama autorstwa Ridleya Scotta, w której rozpędzona atletka rozbijała rzuconym młotem ekran Wielkiego Brata. Trzy lata wcześniej IBM, dotychczas kojarzony z wielkimi komputerami typu mainframe, zdopingowany sukcesem Apple wprowadził na rynek maszyny o wdzięcznej nazwie PC, czyli komputer osobisty.
Fenomen wzajemnej inspiracji dwóch kalifornijskich rewolucji, technologicznej i kulturowej, jest niezwykle istotny dla zrozumienia atmosfery technooptymizmu i eschatologicznych wizji tworzonych pod wpływem fascynacji możliwościami techniki. Dotychczas wszelkie kontrkultury nastawione były antytechnologicznie. Wytwory techniki traktowano jako efekt dominacji klas panujących, kapitału nad wyalienowanym społeczeństwem (w kontrkulturowej krytyce relacji społecznych używano zazwyczaj Marksowskiej retoryki). Media masowe miały być instrumentami totalitarnej kontroli cynicznego establishmentu i skorumpowanych polityków nad ludem, kontroli właściwej dla masowego społeczeństwa przemysłowego, w którym sposób komunikacji odzwierciedlał sposoby produkcji.
Sytuacja skomplikowała się, gdy w latach pięćdziesiątych amerykańskie społeczeństwo zaczęło tracić charakter przemysłowy. Coraz mniej ludzi pracowało przy taśmie, coraz więcej przenosiło się do niematerialnych sektorów gospodarki, wytwarzając bogactwo poprzez działania symboliczne, przetwarzanie znaków: w reklamie, rozrywce, mediach, public relations, w usługach. W naturalny sposób samoświadomość takich ludzi była większa niż ogłupiałych od monotonnej pracy robotników. O wiele lepiej zdawali sobie sprawę z technik manipulacji i tego, że – jak pisał w swoich fundamentalnych pracach Marshall McLuhan – agresja symboliczna jest nie mniej groźna i realna niż gwałt fizyczny. Rozziew między praktyką społeczną z innej epoki a świadomością coraz większej rzeszy młodych ludzi żyjących już w zupełnie innym świecie doprowadził do rewolty.
Lata siedemdziesiąte były dokończeniem rewolucji rozpoczętej w Kalifornii pod koniec poprzedniej dekady. Wynalazek komputera osobistego był sygnałem, że nieodwracalnie nadchodzi zmierzch społeczeństwa masowego, jednostka zyskuje nowy oręż na drodze do emancypacji oraz że zmienia się model stosunków społecznych. Oto bowiem pojawiły się, jak nazwał je politolog z MIT, Ithiel de Sola Pool, technologie wolności, łamiące monopol establishmentu na komunikację i kontrolę symboli.
Lata siedemdziesiąte były też zapowiedzią tego, co tak naprawdę miało się wydarzyć dopiero dwadzieścia lat później. Gdzieś w zaciszach laboratoriów uczeni finansowani przez amerykańskie wojsko majstrowali przy Internecie, a przepełnieni ideałami kontrkultury studenci za wojskowe często pieniądze tworzyli pierwsze społeczności hakerskie, wersję high-tech wspólnot pierwotnych opartych na kulturze podarunku i zaufania.
Lata osiemdziesiąte to czas komputerów osobistych, francuskiego Minitela i amerykańskiej rewolucji w sprawach wojskowych (RMA – Revolution in Military Affairs). Pecety, macintoshe, atari i inne maszyny szturmem zdobywały rynek, milionami wypełniając nie tylko biura, ale też prywatne mieszkania i szkoły. Przenikające powoli do Polski komputery pomogły nieco i naszej rewolucji, ułatwiając życie podziemnym wydawnictwom. Gotowy skład czasopism lub książek przewoziło się na dyskietkach, małych i skutecznie chroniących treść przed wścibskim okiem milicjantów.
RMA oznaczało rozpoczętą na początku lat osiemdziesiątych przebudowę doktryny wojskowej Stanów Zjednoczonych. Między innymi pod wpływem Trzeciej fali Alvina Tofflera amerykańscy wojskowi zdecydowali się postawić na najnowsze technologie, w tym informatykę: inteligentne pociski, niewidoczne samoloty, broń elektroniczną (o tym szerzej w rozdziale „Wirtualna wojna”).
Wraz z początkiem lat dziewięćdziesiątych świat pogrążył się jednak w recesji, szczególnie dotkliwej w Stanach Zjednoczonych. Firmy sektora zaawansowanych technologii straciły inwestorów i zaczęły bankrutować, podobnie jak w 2001 roku przeinwestowane firmy internetowe, słynne dotkomy. Jean Gimpel, francuski historyk techniki, dobrze oddaje ten nastrój w książce U kresu przyszłości: Przez Krzemową Dolinę, uważaną dotychczas za jeden z cudów naszej planety i skupiającą „drobnych geniuszy” przygotowujących świat jutra, przeszła fala zwolnień z pracy. To już nie jest kalifornijski raj. Spółki ryzyka kapitałowego przestały tu inwestować, a czynsz za wynajem biur, w miarę jak wyprowadzają się z nich pracownicy, systematycznie spada. Owo załamanie okazało się niezwykłym szokiem dla przemysłu, który wierzył w swój nieograniczony rozwój. Dyrektorzy przedsiębiorstw zaczęli pojmować, że okres prosperity nieodwołalnie minął.
Gimpel wymienia całą listę niepowodzeń biznesu informatycznego: fiasko elektronicznego handlu, usług bankowych „z domu”, niechęć pracowników do pomysłu telepracy. Cała ta informatyzacja i moda na komputery osobiste nie ma, zdaniem autora, najmniejszego racjonalnego sensu, w związku z czym kryzys jest jak najbardziej uzasadniony i wróży, że w latach dziewięćdziesiątych nic się nie zmieni. Ciekaw jestem, jak Jean Gimpel oceniłby swoje prognozy pięć lat później?
Łatwiej natomiast mogę domyślić się frustracji szefostwa koncernu AT&T;, które w 1983 roku zamówiło w firmie analitycznej McKinsey opracowanie dotyczące sensowności inwestycji w rynek telefonii bezprzewodowej. Analitycy stwierdzili, że gra nie jest warta świeczki, bo do końca stulecia miało z telefonów komórkowych korzystać nie więcej niż dziewięćset tysięcy abonentów. Tymczasem korzystało ponad pół miliarda, a w roku 1999 liczba użytkowników komórek powiększała się o dziewięćset tysięcy co trzy dni!
Niewiele czasu musiało minąć, by stało się jasne, jak beznadziejnie błędne były prognozy sprzed kilku zaledwie lat. Sytuacja końca lat osiemdziesiątych była nieco podobna do stanu fizyki u progu XX stulecia. Wydawało się, że wszystko już jest zrobione, że w zasadzie nastąpił koniec nauki, kolejne pokolenia uczonych będą co najwyżej poprawiać szczegóły po swoich poprzednikach. Wystarczyła jedna publikacja Maksa Plancka, by zburzyć ten obraz, otworzyć zupełnie nowy, niezbadany świat, świat mechaniki kwantowej.
W latach osiemdziesiątych również wszystko już było: komputery osobiste, propozycje ich różnorodnych zastosowań, był już przecież nawet Internet, choć bardzo różny od tego, jaki znamy obecnie. Czegoś jednak brakowało, potrzebny był jakiś impuls wyzwalający lawinę, wywołujący to, co historyk nauki, Thomas Kuhn, nazwał zmianą paradygmatu. Otóż to wyczerpanie, zniechęcenie ludzi i rynków, o jakim pisał Jean Gimpel, było tylko przysłowiową ciszą przed burzą. Strumyki niosące zapowiedź zmian cicho łączyły się, formując potężną falę.
W symbolicznym 1989 roku w Europejskim Laboratorium Fizyki Atomowej CERN pod Genewą pracował angielski matematyk, Timothy Berners-Lee. Wielkim problemem badań współczesnej fizyki jest ogromna liczebność zespołów: nad jednym eksperymentem pracuje nawet kilkaset osób. Każda z nich ma swój wkład w końcowe wyniki, jak jednak wkład ten zamienić we wspólną, zwartą publikację? Jak w łatwy sposób wymieniać się informacjami, jak stworzyć techniczne narzędzie wspomagające tworzenie „inteligencji zbiorowej”?
Ideę takiego narzędzia przedstawił już w 1945 roku Vannevar Bush, doradca prezydenta USA do spraw naukowych. W głośnym eseju As We May Think (Jak możemy myśleć) opisał memex, urządzenie umożliwiające dostęp do różnych publikacji z jednego miejsca, prototyp idealnej biblioteki: czytamy jakiś artykuł, znajdujemy w nim odwołanie do innego artykułu. Chcemy go również przeczytać, więc przyciśnięcie odpowiedniego guzika wydobywa ten tekst z archiwum i umożliwia lekturę. Odkrywcza koncepcja Busha nie miała jednak szans realizacji w 1945 roku, epoce mechanicznej.
W 1989 roku sytuacja wyglądała już zupełnie inaczej. Artykuły pisano na komputerach, od razu więc dostępne były w wersji elektronicznej. Realizacja idei Busha polegała na tym, by te teksty, znajdujące się w różnych miejscach, połączyć ze sobą niewidzialnymi nićmi. To właśnie Berners-Lee napisał specjalny program, słynny dzisiaj język HTML, umożliwiający takie indeksowanie dokumentów elektronicznych, że tworzą one razem powiązaną, hipertekstową całość. Wszyscy uczestnicy eksperymentu prowadzonego w CERN, jeśli dokonywali modyfikacji w swoich opracowaniach, mieli obowiązek ogłaszania ich w wersji elektronicznej, program Bernersa-Lee tworzył zaś między nimi trwałe powiązania. Redaktor ostatecznego tekstu, jak również każdy uczestnik eksperymentu miał dostęp do wszystkich aktualnych i wcześniejszych rezultatów. Wystarczyło usiąść przy komputerze i „klikać” w odpowiednie miejsca. Takie były początki WWW, World Wide Web, czyli Globalnej Pajęczyny, będącej rodzajem wielkiego technicznego systemu porządkowania wiedzy.
dziekujemy za udostepnienie fragmentu wydawnictwu WAB