Gdy pod koniec lat 50. XX wieku komputery zaczęły być normalnie produkowane i sprzedawane (bo wcześniej były wykonywane w pojedynczych egzemplarzach do zadań specjalnych, głównie wojskowych), to pojawiło się pytanie: jak je budować? Dominująca wówczas na rynku firma IBM (opisana w „Rzeczy o Historii" z 28 maja 2021 r.) narzuciła wówczas kierunek rozwoju zmierzający do budowy coraz większych i coraz silniejszych komputerów, z których każdy zaspokajał potrzeby dużej liczby użytkowników. Takie komputery określano jako mainframe. Komputerami tego typu były już maszyny serii IBM 700 (jeszcze lampowe), a potem IBM 7000 (pierwsze całkowicie tranzystorowe). Ale rozwiązaniem, które rzuciło świat informatyczny na kolana, był IBM 360, czyli systemem komputerów – od najmniejszych, produkowanych od 1965 r. z numerami IBM 360/20, do największych, produkowanych od 1971 r. z numerami IBM 360/195. Każdy klient mógł sobie wybrać maszynę na miarę swoich potrzeb, ale one wszystkie były bardzo kosztowne. Na przykład najtańszy z tych komputerów w 1968 r. kosztował 235 tys. USD, co przy dzisiejszej wartości dolara odpowiadałoby cenie blisko 2 mln USD. Ale i tak mainframe dobrze się sprzedawały – od 1965 do 1968 r. sprzedano ich 14 tys. Można powiedzieć, że w owym czasie firma IBM skomputeryzowała USA.

Dlaczego te giganty były tak pożądane

Odpowiedź na tak postawione pytanie jest prosta: im większy komputer się posiadało, tym taniej wypadała jego eksploatacja w przeliczeniu na jednego klienta. Komputery te były tak szybkie, że z jednego mainframe mogło równocześnie korzystać bardzo wielu klientów. Popularnymi wtedy pojęciami były: wielozadaniowość (komputer równocześnie wykonywał bardzo wiele zadań) oraz wielodostęp (do komputera mogło dostarczać dane i odbierać wyniki równocześnie wielu klientów, czasem dołączonych za pomocą tzw. terminali z dużej odległości). Im mainframe był większy, tym więcej klientów mogło obsłużyć posiadające go centrum obliczeniowe. A to przynosiło zyski.

Komputery mainframe miały swoje wymagania. Ich wspólną cechą były duże rozmiary. System składał się z wielu szaf wypełnionych elektroniką i zajmował całe duże pomieszczenie. Podłoga w nim musiała być podwójna, ponieważ poszczególne moduły systemu musiały być połączone licznymi kablami, które – gdyby wiły się po podłodze – stanowiłyby tor przeszkód dla obsługujących komputer ludzi. Ale w związku z tym każdy moduł podłogi musiał być w razie potrzeby podnoszony za pomocą specjalnej przyssawki, żeby można było sprawdzić, czy wszystko pod podłogą dobrze działa. Znam to dobrze z własnego doświadczenia, bo pracując przy komputerze RIAD (będącym komunistycznym odpowiednikiem IBM 360), sam uganiałem się z taką przyssawką!

Komputery mainframe wymagały klimatyzacji. Było to kosztowne (klimatyzator zużywał więcej energii niż sam komputer!) oraz kłopotliwe dla obsługi (wchodzenie latem do takiej lodowej jaskini wymagało pospiesznego włożenia swetra).

Sukces przyciąga naśladowców

Ogromne dochody firmy IBM wynikające ze sprzedaży komputerów mainframe kusiły inne firmy, żeby spróbować zdobyć jakiś kawałek tego tortu. Komputery mainframe produkowała firma Control Data Corporation. Robiła świetne komputery – w latach 70. jeden komputer tej firmy, CDC 6600, nazywany Cyber 72, zaspokajał potrzeby wszystkich naukowców z całego Krakowa. Sam go intensywnie używałem z wykorzystaniem terminala na AGH, podczas gdy komputer stał w hali krakowskiego Cyfronetu. Ambitnie budowały mainframe także firmy Burroughs, General Electric, Honeywell, NCR, RCA i UNIVAC. Ale ich udział w rynku był tak niewielki, że utarło się wtedy powiedzenie „IBM and the Seven Dwarfs" („IBM i siedmiu krasnoludków").

Do produkcji mainframe włączyły się także firmy spoza USA. Były to: Siemens i Telefunken w Niemczech, ICL w Anglii oraz Fujitsu, Hitachi, Oki i NEC w Japonii. Kraje RWPG (zależne od ZSRR) produkowały na wzór IBM 360 wzmiankowane wyżej komputery RIAD. Ale nikt nie mógł zaprzeczyć, że IBM przodował.

Lekceważone maluchy pokonują gigantów

Firma IBM była tak pewna swojej niekwestionowanej pozycji lidera na rynku komputerów mainframe, że nie zwracała uwagi na to, co się działo poza tym sektorem. A działo się dużo!

Ilekroć o tym myślę, przychodzi mi do głowy analogia z zagładą dinozaurów. Były one ogromne i dominowały we wszystkich środowiskach. Nie zwracały zapewne uwagi na malutkie ssaki, które gdzieś tam kryły się w swoich norkach. Ale nastąpił kataklizm, który spowodował, że dinozaury wyginęły, a ssaki (zwłaszcza taki jeden, dwunożny...) opanowały Ziemię.

Kataklizmem, który de facto unicestwił dominację komputerów mainframe, był dalszy rozwój układów scalonych i ogromny wzrost możliwości mini- i mikrokomputerów.

Największą rolę odegrały minikomputery firmy Digital Equipment Corporation (DEC). Firma ta, korzystając z rozwoju technologii układów scalonych, zapoczątkowała budowę maszyn znacznie mniejszych niż mainframe (jedna zgrabna szafka w odróżnieniu od wielu potężnych szaf składających się na mainframe), niewymagających klimatyzacji, łatwych w obsłudze i mających wiele ciekawych zastosowań. Maszyny te nazwano minikomputerami. Początkowo dominowały na tym rynku minikomputery firmy DEC, zwłaszcza bardzo lubiany przez użytkowników PDP-11, który był produkowany nieprzerwanie od 1970 r. (oczywiście ze stałymi modyfikacjami) przez 20 lat – i wciąż znajdował chętnych nabywców. Łącznie sprzedano ponad 600 tys. tych minikomputerów. Gdy byłem doradcą ds. informatyki prezesa Banku BPH, to bank ten oparł działanie swojego zintegrowanego systemu informatycznego (to znaczy łączącego komputery we wszystkich blisko 100 oddziałach banku) na komputerach firmy DEC będących następcami PDP-11. Najpierw były to komputery VAX, a potem Alpha. System ten nazwano PROFILE – działał znakomicie przez wiele lat.

Minikomputery w systemach automatyki

W poprzednim felietonie („Rzecz o Historii" z 9 lipca 2021 r.) wspomniałem o pierwszych komputerach użytych do sterowania, ale były to komputery na statku kosmicznym Apollo lecącym na Księżyc, dlatego przy nich koszty nie miały znaczenia. Zapewne podobnie było w różnych zastosowaniach wojskowych, o których jednak z oczywistych powodów nic nie wiadomo.

Ale w normalnych zastosowaniach przemysłowych o wykorzystaniu ogromnych i kosztownych mainframe do automatycznego sterowania maszynami produkcyjnymi po prostu nie mogło być mowy. Gdy jednak pojawiły się minikomputery, sytuacja zmieniła się radykalnie. Ich cena nie była już barierą, jak w przypadku mainframe, ponadto szybkość była wystarczająca do zapewnienia pracy w tzw. czasie rzeczywistym (sygnał sterujący do pracującej maszyny trzeba wysłać w takim momencie, żeby powodował on jej właściwe działanie – ani wcześniej, ani później), osiągana niezawodność gwarantowała bezawaryjną pracę.

Doskonale w roli systemów sterujących złożonymi procesami sprawdzały się opisywane wyżej PDP-11 (sam miałem do czynienia z instalacją jednego PDP-11 w Zakładach Oponiarskich w Dębicy), a potem wykorzystywane były budowane w Polsce minikomputery Mera 400 (moja Katedra Automatyki AGH uczestniczyła w ich instalowaniu w Zakładach Chemicznych w Tarnowie). Nawiasem mówiąc, automatyka przemysłowa odeszła potem od stosowania w halach fabrycznych uniwersalnych minikomputerów w kierunku bardziej odpornych na warunki komputerów przemysłowych albo jeszcze prostszych i tańszych urządzeń nazywanych PLC (Programmable Logic Controller – programowalny sterownik logiczny). Ale to już temat na osobne opowiadanie...

Mikrokomputery i komputery osobiste

Zarówno komputery klasy mainframe, jak i minikomputery były i są stosowane do dziś – głównie jako tzw. serwery w bazach danych oraz w sieciach komputerowych – m.in. tych, które tworzą współczesny internet. Ale prawdziwą rewolucję wśród użytkowników komputerów zrobiły mikrokomputery. Nie ma dokładnej definicji tego, czym jest mikrokomputer, zwłaszcza że maszyny obecnie sprzedawane pod tą nazwą mają parametry techniczne miliony razy przewyższające parametry maszyn, które na przełomie lat 70. i 80. torowały drogę tej nowej kategorii narzędzi informatycznych. Ale roboczo można przyjąć, że mikrokomputer to komputer o miniaturowych rozmiarach i niewielkiej cenie, zwykle przeznaczony do mniej odpowiedzialnych zadań obliczeniowych.

Pierwszym szerzej znanym mikrokomputerem był zapewne ALTAIR 8800, zbudowany w 1974 r. w przedsiębiorstwie Micro Instrumentation and Telemetry Systems (MITS), założonym przez Eda Robertsa. Odniósł on niespodziewany sukces: maszyna, która przewidywana była do użytku dla kilku osób i traktowana jako ciekawostka techniczna, została ostatecznie sprzedana w ilości ponad 10 tys. egzemplarzy! Jeden z mikrokomputerów ALTAIR pojawił się podobno w Białym Domu, kariera tej niezwykłej maszyny (komputer ten nie miał klawiatury ani ekranu!) była więc naprawdę niezwykła.

Jednak mikrokomputerami, które autentycznie zapoczątkowały nową epokę, były urządzenia Apple'a. Pierwsze z nich powstało w 1976 r., a kolejne modele bardzo znacząco wpływały na rozwój informatyki. Na ich temat napisałem cały obszerny artykuł w „Rzeczy o Historii" (wydanie z 27 listopada 2020 r.). Jednak to nie mikrokomputery Apple'a były przyczyną klęski ogromnych mainframe. Kierunek rozwoju informatyki opartej na tych wielkich maszynach (w przeważającej większości produkowanych przez IBM) załamał się, gdy powstał komputer osobisty PC (od: Personal Computer). Skonstruował go... pracownik IBM, a jego rozpowszechnienie na całym świecie omal nie doprowadziło do upadku tej firmy. Ale o tym można więcej przeczytać w „Rzeczy o Historii" z 28 maja 2021 r.

Autor jest profesorem AGH w Krakowie