Jak nauczyliśmy maszyny liczyć i myśleć za nas? Część 33: Prehistoria internetu

Internet jest wszechobecny, a jego rozwój jest sumą bardzo wielu działań ogromnej liczby ludzi i instytucji, dlatego wydaje się, że istniał „od zawsze” i był wynikiem spontanicznych działań jego użytkowników, w żaden sposób niekoordynowanych.

Publikacja: 13.10.2022 21:00

Vinton Cerf podczas 23. dorocznego konkursu Webby Awards. Nowy Jork, 13 maja 2019 r.

Vinton Cerf podczas 23. dorocznego konkursu Webby Awards. Nowy Jork, 13 maja 2019 r.

Foto: Noam Galai/Getty Images

Dziś tak jest rzeczywiście. Internet jest przykładem systemu samoorganizującego się o rozmiarach i znaczeniu, które są absolutnie bez precedensu. Nikt nie jest w stanie nad nim zapanować – i to dobrze, bo internet stał się obszarem takiej wolności, jakiej w realnym świecie osiągnąć się nie da. Jednak ta jego zaleta jest również wadą, ponieważ ogromna liczba osób i instytucji nadużywa tej wolności.

Jak jest dziś, każdy widzi

Przy rozwijaniu mechanizmów internetu funkcjonuje nadal swoiste „pospolite ruszenie” programistów i administratorów sieci z różnych krajów, którzy (w większości przypadków całkiem bezinteresownie) opracowują i udoskonalają jego różne elementy, udostępniając je potem (najczęściej nieodpłatnie i także anonimowo) ogólnoświatowej społeczności internetu. Dzięki temu do sieci wciąż dołączają coraz to inne, nowe, zwykle pomysłowe i ciekawe komponenty. Zasób tych nowych propozycji wydaje się wręcz niewyczerpany, gdyż pomysłowość internautów i ich swobodna (to bardzo ważne: swobodna!) kreatywność jest generatorem postępu o niespotykanej sile.

Krytyczna, wymagająca, czasem złośliwa, ale też zdolna docenić (jak nikt inny!) każdy celny pomysł albo trafne rozwiązanie ogólnoświatowa, społeczność internetu pełni w stosunku do tych wszystkich propozycji rolę swoistego filtru. Te z nich, które zyskują uznanie wystarczająco wielu użytkowników, utrwalają się w sieci, przyjmując finalnie formę produktów ogólnie uznanych i powszechnie stosowanych. Czasem są zalążkiem wielkich instytucji, takich jak Amazon, Google, Facebook, Instagram, TikTok. Instytucje te zdobywają ogromny majątek na zasadzie oferowania różnych usług w zamian za informacje o użytkownikach, które potem mogą być sprzedane np. reklamodawcom. Inne, to znaczy te, które wbrew oczekiwaniom swego twórcy nie zyskały powszechnej akceptacji, popadają w zapomnienie i znikają z sieci.

Jak to się zaczęło?

Początki internetu dają się dobrze umiejscowić w czasie i w przestrzeni, a poznanie tych jego „korzeni” może być przydatne do tego, by sobie lepiej odpowiadać na pytania o to, dlaczego jest on taki, a nie inny i czego możemy się spodziewać w przyszłości.

Jest chyba powszechnie wiadome, że zalążkiem internetu była stworzona w 1969 r. z inicjatywy Departamentu Stanu USA (a dokładniej na polecenie US Air Force) sieć ARPANET. Sieć została stworzona przez organizację o nazwie ARPA (Advanced Research Projects Agency), która w Pentagonie zajmowała się projektami badawczymi wspieranymi przez wojsko. Znana jest „data narodzin” ARPANET-u: 29 października 1969 r., kiedy odbyła się pierwsza próba transmisji danych przez tę sieć: między Uniwersytetem Kalifornijskim w Los Angeles a ośrodkiem naukowym Stanford Research Institute.

Przyczyna zainteresowania wojska siecią komputerową była – z dzisiejszej perspektywy na to patrząc – dosyć niezwykła. Żeby ją dobrze zrozumieć, trzeba dodać, że planowane wykorzystanie sieci ARPANET początkowo wcale nie dotyczyło używania jej do komunikacji między ludźmi. Sieć ta miała być natomiast wykorzystywana głównie jako narzędzie wzajemnego porozumiewania się komputerów, a cele tej komunikacji były ściśle militarnej natury, chodziło bowiem o stworzenie spójnego systemu informatycznego, którego nie dałoby się obezwładnić jednym uderzeniem jądrowym.

Dla osiągnięcia zamierzonego celu militarnego konieczna była zbiorowość systemów przetwarzania informacji zorganizowana tak, by mogła działać niezależnie od tego, ile jej elementów jest sprawnych, a ile zniszczonych. Wcześniej były stosowane sieci komputerowe o budowie hierarchicznej. Komputery łączono w taki sposób, że mniej ważne z nich dołączano do tych ważniejszych, te zaś do jeszcze ważniejszych itd. Ale taki system łatwo było obezwładnić, uderzając w jego centralny punkt. Natomiast sieć komputerowa złożona z równoprawnych elementów potrafi skutecznie i sprawnie działać także po ewentualnych uszkodzeniach dowolnej liczby komputerów, węzłów i linii łączności. Koncepcję tę jako pierwszy wysunął w 1960 r. Joseph Licklider w artykule „Man-Computer Symbiosis” (Symbioza ludzi z komputerami).

Niezniszczalność sieci

Internet jako całość jest niezniszczalny. Potwierdziło się to w pełni w czasie wielu kataklizmów, jakie nawiedziły świat od czasu rozpowszechnienia się sieci. Przykładem wydarzenia, w którym internet spełnił swoją rolę, jest najsłynniejszy atak terrorystyczny z 11 września 2001 r. w Nowym Jorku na World Trade Center. Zniszczone zostały połączenia prądu, wody, gazu, sygnalizacji świetlnej i sieci komórkowej, lecz internet dalej działał!

Na mniejszą skalę my to także przerabialiśmy. Podczas tragicznych powodzi, jakie nawiedziły nasz kraj w 1997 r., internauci we Wrocławiu i w Opolu przekazywali wiadomości z zalewanych dzielnic znacznie sprawniej i stabilniej niż bezsilne wobec żywiołu grupy reporterów radiowych czy telewizyjnych.

Kluczem do rozwiązania problemu niezawodnej pracy sieci złożonej z zawodnych elementów okazał się protokół komunikacyjny TCP/IP, opracowany przez Vintona Cerfa w latach 1969–1972. Dzięki temu protokółowi można w sieci wysyłać i odbierać komunikaty, nie wiedząc ani tego, gdzie są nadawca i odbiorca, ani nie planując z góry trasy, po której komunikaty te dotrą od nadawcy do odbiorcy. Warto dodać, że Cerf oparł się na koncepcji sformułowanej wcześniej przez Paula Barana, którego możemy zaliczać do naszych rodaków, urodził się bowiem w 1926 r. w Grodnie (wtedy miasto to należało do Polski). Ale trzeba też wiedzieć, że w 1928 r. Paul Baran jako dwulatek wyjechał z rodziną do USA i całe jego życie związane było z Ameryką.

Wiadomości przesyłane w kawałkach

Poznajmy zasadę TCP/IP. Vinton Cerf wymyślił, że niezależnie od tego, jaki komunikat ma być przesłany przez sieć (tekst, obraz, dźwięk itp.), jest on w komputerze nadawczym dzielony na kawałki (ramki albo pakiety). Te poszczególne kawałki są oddzielnie adresowane, mogą więc wędrować w sieci różnymi drogami i docierać do odbiorcy w różnym czasie (również nie po kolei) – co jednak nie przeszkadza w skutecznej (ostatecznie) komunikacji, bo odbierający komputer składa cały komunikat z docierających do niego kawałków i prezentuje go odbiorcy dopiero po skompletowaniu.

Cała komunikacja w internecie odbywa się metodą „podaj dalej” – komputer wysyłający wiadomość przesyła ją we właściwym (generalnie) kierunku wiodącym do komputera odbiorcy, ale przesyła komunikat jedynie najbliższego sąsiada w sieci. Jak się jeden sąsiad nie odzywa, bo jest zajęty albo uszkodzony, wyszukuje się innego sąsiada i do niego wysyła ekspediowaną informację. Ten przesyła ją do następnego komputera, tamten do następnego i tak – od maszyny do maszyny – przekaz internetowy wędruje sobie przez świat, aż natrafi na komputer, do którego jest adresowany (każdy komputer w sieci ma swój unikatowy adres IP, co jest podstawą całego systemu). Operacja przesłania kawałka wiadomości (pakietu) jest na tyle prosta i elementarna, że może być wykonana pomiędzy dowolnymi dwoma komputerami, nawet jeśli są one całkiem różnie zbudowane, mają inne oprogramowanie, korzystają z innego systemu operacyjnego itd.

System nazw domen

Kolejny ważny element systemu ARPANET (który obecnie wykorzystuje internet) stworzył Jon Postel w 1983 r. Jest to DNS, czyli serwer nazw domen. Wyżej napisałem, że kierunek przesyłania pakietów ustalany jest na podstawie adresów IP. Ale te adresy są dla człowieka niewygodne, bo są w istocie numerami przypisanymi do komputerów, które ludziom trudno by było zapamiętywać i stosować. Dlatego dla wskazania konkretnego komputera w sieci używa się jego nazwy składającej się z nazw domen zagnieżdżanych jedna wewnątrz drugiej. Np. domena, w której mieści się mój komputer, ma nazwę „agh” (jak moja uczelnia) i jest zagnieżdżona w domenie „edu” obejmującej całą sferę edukacji, a tamta domena jest zagnieżdżona w domenie „pl”, czyli Polska. Gdyby więc ktoś chciał skierować do mnie e-mail z jakąś wiadomością, to musi wskazać mój adres zawierający owe nazwy domen: rtad@agh.edu.pl. Wtedy system współpracujących ze sobą serwerów DNS odnajdzie najpierw Polskę, potem resort edukacji, a następnie moją uczelnię. Wyszukaniem mojego adresu e-mail zajmie się już serwer obsługujący AGH.

Na poziomie protokołu TCP/IP oraz serwerów DNS nie próbuje się wiadomości rozkodowywać i interpretować, tylko się ją w całości przesyła, zatem różnice techniczne komputerów, przez jakie pakiet przechodzi po drodze, nie odgrywają istotnej roli. To dlatego internet łączy wszystkich ze wszystkimi, bez względu na używany język, alfabet czy nawet sposób kodowania symboli.

Odporność na uszkodzenia

Niektóre kawałki wiadomości mogą gubić się w sieci przy opisanym wyżej przesyłaniu. Na przykład może się zdarzyć, że komputer, który odebrał kawałek wiadomości adresowanej do sąsiada, „zginie” trafiony bombą (albo zostanie nagle wyłączony), zanim zdąży wysłać wiadomość dalej. Jednak protokół TCP/IP nakazuje w takim przypadku ponawianie transmisji aż do skutku, a przy każdej następnej transmisji komputery działające metodą „podaj dalej” pominą nieodpowiadającego na wezwania sąsiada, komunikat dotrze więc do celu inną drogą, czasem dłuższą, ale na pewno sprawną. Protokół komunikacyjny TCP/IP – prosty (niektórzy mówią nawet, że prymitywny), ale w sposób typowy dla każdego wojska pewny i niezawodny – stał się najpierw jądrem ARPANET-u, a obecnie jest najbardziej intymną i najbardziej istotną „esencją” działania dzisiejszego internetu.

Wszystko, co robimy w sieci – wysyłanie i odbieranie poczty, przeglądanie stron www, udział w serwisach społecznościowych itd. – odbywa się dzięki temu prostemu mechanizmowi, który, będąc całkiem niewidoczny dla użytkownika (tak bowiem z zasady funkcjonuje siedmiowarstwowa struktura „wnętrza” współczesnych sieci komputerowych), gwarantuje wykonanie usługi, chociaż nie gwarantuje jakości (szybkość przesłania informacji może zależeć od okoliczności).

Opisane wyżej zasady działania ARPANET-u (sieci wojskowej!) przeniosły się do internetu z chwilą, gdy w 1989 r. wojskowi zbudowali dla swoich potrzeb lepszą sieć, a ARPANET (który właśnie wtedy nazwano internetem) udostępniono uniwersytetom – najpierw tylko amerykańskim, potem także innym (w praktyce na całym świecie). Do 1991 r. zabraniano udostępniania internetu instytucjom innym niż naukowe, ale potem zakaz ten cofnięto i ogólnoświatowa sieć stała się dostępna dla wszystkich.

Autor jest profesorem AGH w Krakowie

Dziś tak jest rzeczywiście. Internet jest przykładem systemu samoorganizującego się o rozmiarach i znaczeniu, które są absolutnie bez precedensu. Nikt nie jest w stanie nad nim zapanować – i to dobrze, bo internet stał się obszarem takiej wolności, jakiej w realnym świecie osiągnąć się nie da. Jednak ta jego zaleta jest również wadą, ponieważ ogromna liczba osób i instytucji nadużywa tej wolności.

Jak jest dziś, każdy widzi

Pozostało 96% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Historia
Pomogliśmy im odejść z honorem. Powstanie w getcie warszawskim
Historia
Jan Karski: nietypowy polski bohater
Historia
Yasukuni: świątynia sprawców i ofiar
Historia
„Paszporty życia”. Dyplomatyczna szansa na przetrwanie Holokaustu
Historia
Naruszony spokój faraonów. Jak plądrowano grobowce w Egipcie