Zalew dalekowschodnich klonów komputerów PC (produkowanych na bazie udostępnionej do powszechnego użytku dokumentacji technicznej) „podmył fundamenty" firmy IBM. Każdy, kto mógł, produkował takie komputery, nazywane dla odróżnienia od oryginałów „kompatybilne z IBM PC". Mieliśmy także u nas w Polsce ambitną próbę produkowania takich „kompatybilnych" komputerów – pod nazwą Mazovia. Opowiem o tym, bo chociaż to była boczna gałąź w opisywanej tu historii ewolucji komputerów, to jednak warto o niej wspomnieć.

Komputer PC nieskutecznie spolonizowany

Mazovia została skonstruowana w 1986 r. przez grupę polskich konstruktorów związanych z Instytutem Maszyn Matematycznych w Warszawie, której szefem był mgr inż. Janusz Popko. Zawiązana przez nich spółka Mikrokomputery zaczęła produkować klony IBM PC uwzględniające polskie realia. Owe realia to była przede wszystkim konieczność oparcia konstrukcji komputerów na częściach produkowanych wyłącznie w krajach RWPG (czyli krajach komunistycznych, zależnych od ZSRR). Wynikało to z faktu, że import podzespołów elektronicznych z krajów spoza żelaznej kurtyny był bardzo utrudniony, a czasem wręcz niemożliwy. Niestety, części produkowane w krajach RWPG miały z reguły gorsze parametry niż ich amerykańskie odpowiedniki, dlatego cały komputer miał także gorsze parametry. Nie podobało się to potencjalnym klientom!

Atutem, który miał przekonać polskiego użytkownika do wyboru Mazovii, było umożliwienie mu wygodnego używania polskich znaków. Jak wiadomo, przy wykorzystaniu komputera do pisania i redagowania tekstów używa się specjalnych kodów zamieniających litery tekstu na numery zapamiętywane przez komputer. Zasady tego przypisania numerów do liter ustalono po raz pierwszy w 1963 r. Powstał wtedy standard ASCII (American Standard Code for Information Interchange) objęty amerykańską normą ASA X3.4-1963, który potem wielokrotnie modyfikowano. Kod ASCII był dopasowany tylko do alfabetu angielskiego, w którym oczywiście nie ma znaków charakterystycznych dla języka polskiego: ą, ę, ć itd.

Twórcy Mazovii w swoich komputerach wprowadzili sposób kodowania polskich liter, a także uwzględnili je na klawiaturze i w asortymencie znaków wyświetlanych na ekranie oraz drukowanych na drukarce. Mieli jednak pecha – zanim ich standard zdołał się utrwalić, pojawiły się inne propozycje kodowania polskich znaków. Międzynarodowa instytucja normalizacyjna ISO wydała normę ISO-8859-2, w której sposób kodowania polskich znaków (nazwany Latin-2) został zdefiniowany inaczej niż w Mazovii. Normę ISO przejęła polska norma PN-93 T-42118 i stała się ona obowiązującym prawem. Co więcej, potentat na rynku oprogramowania komputerów osobistych, twórca systemu Windows, firma Microsoft, też zajął się sprawą kodowania polskich (i innych słowiańskich) znaków, wprowadzając stronę kodową Windows 1250. Użytkownicy Mazovii stali się niekompatybilni z resztą świata... Planowano, że komputery Mazovia zaleją Polskę. Wyprodukowano na początek 3000 sztuk – ale bardzo źle się sprzedawały. Cała inicjatywa padła.

IBM przechodzi do kontrataku

Na skutek zalewu komputerów PC wielu klientów IBM, którzy wcześniej wykorzystywali należące do tej firmy komputery klasy mainframe, przeszło na samoobsługę z wykorzystaniem mikrokomputerów kompatybilnych z IBM PC. Zapotrzebowanie na mainframe firmy IBM dramatycznie spadło. To poważnie zagroziło finansom informatycznego giganta. Wrócił on więc do swojego „niechcianego dziecka" i w 1983 r. wypuścił nowy hit rynkowy: IBM PC/XT. Skrót XT pochodził od słowa extended (poszerzony, ulepszony).

To był rzeczywiście udany komputer. Niektóre wersje wyposażono w dysk twardy. Co prawda, w stosunku do tego, co mają współczesne komputery, był on żałośnie mało pojemny (najczęściej Seagate ST-225 o pojemności 10 MB lub 20 MB), lecz w pierwszej połowie lat 80. był to ogromny luksus. Ale warto dodać, że dla uboższych użytkowników produkowano także komputery IBM PC/XT z samymi tylko stacjami do odczytu i zapisu dyskietek. W Polsce popularna była nazwa „drewniak", używana na określenie takiego komputera pozbawionego kosztownego dysku twardego. „Drewniaki" były znacznie tańsze, mieliśmy więc na AGH całe laboratoria studenckie wyposażone w takie właśnie „zubożone" komputery, a prowadzący ćwiczenia pracownik miał całe paczki dyskietek z systemem operacyjnym i z programami potrzebnymi do przeprowadzenia zaplanowanych badań laboratoryjnych i rozdawał je studentom.

Oprócz komputerów IBM PC/XT zubożonych w wyżej opisany sposób były także wersje wzbogacone. Popularnością cieszyły się zwłaszcza wersje „turbo", pracujące znacznie szybciej niż standardowe komputery, bo napędzane zegarem pracującym z częstotliwością 10 MHz (w zwykłym XT zegar miał częstotliwość 4,77 MHz). Dzisiejsze komputery używają zegarów kilka tysięcy razy szybszych, ale w latach 80. wersja „turbo" była bardzo ceniona.

Oryginalne serce czy podróbka?

Wraz z modelem IBM PC/XT zaczęła się era ograniczonej kompatybilności klonów. Wynikało to głównie z faktu, że komputery produkowane przez IBM stosowały droższy, ale lepszy mikroprocesor. Jest to najważniejsza część komputera, bo w mikroprocesorze interpretowane są wszystkie rozkazy składające się na wykonywany program, a także prowadzone są wszystkie obliczenia, zarówno arytmetyczne, jak i logiczne. Mikroprocesor jest sercem komputera. W maszynach produkowanych przez IBM umieszczano procesor Intel 8088. Bardzo dobry, ale drogi. Natomiast wielu dalekowschodnich producentów naśladownictw komputerów IBM PC, by obniżyć cenę i pozyskać klientów, stosowało w swoich wyrobach procesory Intel 8086 albo NEC V20 – działające prawie tak samo jak oryginalny Intel 8088. Owo „prawie" powodowało jednak, że niektóre programy pisane dla oryginalnego IBM PC/XT nie działały na „klonach". Doprowadziło to do spadku zainteresowania komputerami „kompatybilnymi z IBM PC/XT" i wzrostu sprzedaży oryginalnych mikrokomputerów wytwarzanych przez samą firmę IBM.

A było o co walczyć! Pełnych statystyk sprzedaży nie ma, ale z wyrywkowych danych wynika, że w ciągu jednego tylko roku (1995) sprzedano na świecie blisko 50 mln mikrokomputerów osobistych. Oznacza to, że sprzedawano je w tempie 130 tys. maszyn dziennie.

W tym czasie nieoczekiwanie pojawił się konkurent amerykański. Obok mikrokomputerów markowych, produkowanych w zakładach należących do IBM (ale w większości lokalizowanych także w krajach Dalekiego Wschodu ze względu na niskie koszty siły roboczej), pojawiły się komputery IBM PC/XT produkowane w firmie Dell Computer Corporation. Firmę założył w maju 1984 r. 19-letni wtedy Michael Dell, który dążył do tego, żeby jego komputery cechowała wysoka jakość. Dell nie wprowadzał żadnych własnych innowacji technicznych, ale produkował maszyny, o których mawiano, że „są bardziej IBM niż produkty IBM". Ta projakościowa orientacja sowicie się opłaciła, bo firma Dell istnieje do dziś i sprzedaje komputery pozytywnie kojarzone na rynku ze względu na jakość i niezawodność. Właśnie na takim komputerze piszę dla państwa te felietony...

Dalsze etapy wyścigu

Po udanym wprowadzeniu na rynek modelu IBM PC/XT (bazującego na wzmiankowanych wyżej procesorach Intel 8086 i 8088, wspomaganych niekiedy przez tzw. koprocesor 8087) przyszła kolej na IBM PC/AT (Advanced Technology). Komputery te, wprowadzone na rynek w sierpniu 1984 r., szybko wyparły swoich poprzedników, bo miały lepsze mikroprocesory (Intel 80286), szybszy zegar i większą pamięć. Producenci klonów musieli się pogodzić z utratą rynku, ale wspomniana wyżej firma Dell gładko przeszła na produkcję modelu IBM PC/AT.

Potem pojawiały się kolejne modele, związane z kolejnymi mikroprocesorami o numerach 80386 i 80486, a następnie Pentium (od 1995 r.), ale wyliczanie tych wszystkich modeli komputera PC mija się z celem, podobnie jak wskazanie tego, który obecnie jest najlepszy – bo zanim ten artykuł dotrze do rąk czytelników, sytuacja na pewno znowu się zmieni.

Warto natomiast zwrócić uwagę na parametr, którego systematyczny wzrost w komputerach klasy PC prowadził do ich znaczącego doskonalenia. Tym parametrem była długość słowa maszynowego, czyli porcja informacji, jakiej może używać i jaką może przetwarzać w jednym kroku procesor komputera. W historii rozwoju komputerów klasy PC używane były architektury 16-, 32- i 64-bitowe. Im dłuższe słowo maszynowe, tym większy jest zakres liczb, które można przechować w jednym słowie i na których da się wykonywać wymagane operacje w ciągu jednego kroku pracy procesora. Liczbowo daje się to wyrazić natychmiast – w pierwszym przypadku zakres dozwolonych liczb wyraża się liczbą 2 do potęgi 16, w drugim 2 do potęgi 32, a w trzecim 2 do potęgi 64. Jak duże są jednak te liczby? Jak je porównać? Już pierwsza z nich (wynosząca 65 536) wydaje się bardzo duża, wyobraźnia może więc nie wystarczyć do tego, by ustalić, o ile większe jest 2 do potęgi 64 od 2 do potęgi 16.

Pewien „trik", pomagający wyrobić sobie właściwy pogląd na tę sprawę, to wyobrażenie sobie zbiorowości dozwolonych liczb jako zbioru kropek. Otóż gdyby takimi maleńkimi kropkami zapełnić pewien obszar na papierze, to dla 16-bitowego procesora dostalibyśmy zaczernioną powierzchnię o wielkości dużego znaczka pocztowego (3/4 cala kwadratowego). Procesor 32-bitowy pozwoliłby zapisać powierzchnię sporego biurka (16 stóp kwadratowych, czyli około półtora metra kwadratowego). Natomiast 64-bitowy procesor może używać tak wielu liczb, że po przedstawieniu ich w postaci kropek pokryłyby one w całości powierzchnię sporego państwa (np. Grecji – 51 tys. mil kwadratowych). To chyba daje jakiś pogląd na temat tego, jak wielki postęp osiągnięto w dziedzinie komputerów osobistych klasy IBM PC w związku z samym tylko zwiększaniem długości słowa maszynowego!

Autor jest profesorem AGH w Krakowie