Biznes

Historia kołem się toczy. Wracamy do rozwiązań sprzed 100 lat

Teraz elektromobilność wraca do łask, na zdj. premier Mateusz Morawiecki i Arrinera Hussarya
PAP
Po dekadach silnej industrializacji obserwujemy powrót do rozwiązań znanych 100 lat temu.

Żyjemy w przekonaniu, że to nasze pokolenie dokonuje przełomowej dla ludzkości rewolucji technologicznej. Zapominamy przy tym, że większość urządzeń, które są trybikami tej rewolucji, została wynaleziona wiele wieków lub dekad temu.

W jednym z najnowocześniejszych i najbardziej skomplikowanych technicznie samolotów świata – wysokościowym i rozpoznawczym Lockheedzie U-2 – umieszczono nad kokpitem pilota zwykłą linkę. Wskazuje ona, w jakiej pozycji leci samolot względem ziemi.

Ten niezwykle prosty pomysł ma już 115 lat. Jest wynalazkiem braci Wright, którzy po raz pierwszy zastosowali go w 1903 r. w konstrukcji Wright Flyera, swojego pierwszego, legendarnego samolotu z silnikiem spalinowym.

Zdumiewać może, że jedna z najnowocześniejszych maszyn świata, służąca do celów wywiadowczych sił powietrznych Stanów Zjednoczonych i Centralnej Agencji Wywiadowczej, ma tak prosty instrument do określania pozycji samolotu względem ziemi.

Wydawałoby się, że pod koniec drugiej dekady XXI wieku otacza nas skomplikowana technologia, która nie ma już nic wspólnego z wynalazkami z dawnych wieków.

W rzeczywistości dookoła nas nieustannie funkcjonują wynalazki, które powstały dawno temu. Nasza innowacyjność polega często jedynie na ich modernizacji.

Od koźlaka do farm wiatrowych

Jednym ze stałych elementów krajobrazu współczesnej Polski są farmy wiatrowe. To samodzielne elektrownie wytwarzająca energię elektryczną przez generatory napędzane przez prądy powietrzne. Koncepcja turbin wiatrowych nie jest jednak wcale współczesnym wynalazkiem. To zmodyfikowany pomysł Chińczyków z VII wieku. Do Europy dotarł dzięki Persom, którzy w IX wieku zaczęli budować wiatraki z osią pionową. 100 lat później Europejczycy udoskonalili perski wynalazek, budując wiatraki z osią poziomą. Służyły one pierwotnie do mielenia zboża na mąkę. Jednak nieustanne doskonalenie mechanizmu pozwoliło na zastosowanie wiatraków także do rozdrabniania skał, wyciskania oleju czy mielenia drewna na papier. Dzięki rozwojowi mechaniki już w XV wieku zaczęto stosować wiatraki do produkcji sznurów, a modernizacja tych urządzeń pozwoliła także zaopatrzyć w niezbędną energię mechaniczną zakłady tkackie. Żyjący na nadmorskich terenach depresyjnych Holendrzy zaczęli używać wiatraków do zasilania pomp osuszających poldery.

Wiatrak stał się niezwykle ważnym elementem gospodarki Starego Kontynentu. Także w Polsce był on ważnym trybikiem, a może wręcz fundamentem stabilnego rozwoju gospodarczego. Do dzisiaj zachowały się nieliczne zabytkowe wiatraki, wśród których wyróżnić można trzy typy takich urządzeń.

Zasada działania wiatraka generującego energię elektryczną przed II wojną, na zdj. gospodarstwo na Górnym Śląsku.... Fot. NAC

Najbardziej prymitywnym, choć najpopularniejszym, był wiatrak kozłowy, nazywany koźlakiem. Pierwsze tego typu wiatraki pojawiły się w Wielkopolsce i na Kujawach dopiero w XIV wieku. Wkrótce okazało się, że topografia naszego kraju idealnie nadaje się do zastosowania tego typu mechanizmów. W ciągu roku występuje bowiem u nas od 120 do 150 dni wietrznych. Szacuje się zatem, że jeden koźlak mógł w tym czasie zemleć od 60 do 90 ton ziarna. O wiele solidniejszym od koźlaka wiatrakiem był paltrak. Dzięki zastosowaniu wpuszczonych do ziemi, wzmocnionych żeliwem, zagłębień fundamentu wiatrak znacznie łatwiej obracał się wraz z całym mechanizmem w kierunku wiatru.

W XVII w. holenderski konstruktor Jan Andriansz Leeghwater stworzył wiatrak z nieruchomym, murowanym i okrągłym korpusem. Konstrukcja dachowa wraz ze śmigłami była obracana na potężnym łożysku. Urządzenie to zyskało nazwę wiatraka holenderskiego lub holendra, chociaż tak naprawdę w 1750 r. udoskonalił go szkocki inżynier Andrew Meikle. W jego młynie wiatrowym znajdziemy tzw. żagle sprężynowe (ang. spring sails), wstawione w miejsce skrzydeł z płótna żaglowego. Ramiona miały kształt migawek, których ruch był kontrolowany za pomocą specjalnych dźwigni. Służyło to do chronienia skrzydeł młynu przed gwałtownymi wiatrami i burzami.

Współczesne farmy wiatrowe wytwarzające energię elektryczną za pomocą turbin powietrznych niewiele się zmieniły w swojej pierwotnej konstrukcji od wynalazku chińskiego sprzed 1300 lat. Nadal konstrukcja wiatraka opiera się na tej samej zasadzie, choć nie służy już do mielenia ziaren czy wyciskania oleju z pestek roślin. Mimo że stosujemy nowoczesne materiały, przeznaczenie wiatraków jest podobne. Farmy wiatrowe wytwarzają energię elektryczną, która zasila nowoczesne młyny, wyciskarki oleju, urządzenia mielące drewno czy zasilające zakłady włókiennicze. W Holandii niezmiennie wiatraki służą do zasilania pomp usuwających nadmiar wody z kanałów do morza. Chociaż rodzaj energii zasilającej pompy, ich budowa i sam proces technologiczny jest nieporównywalnie nowocześniejszy i wydajniejszy niż wieki temu, to sama koncepcja technologiczna nie zmieniła się od czterystu lat.

...niewiele się różni od turbin wiatrowych, które obserwujemy obecnie, na zdj. farma wiatrowa pod Puckiem. Fotorzepa/Marta Bogacz

Trzystuletni silnik

Innym przykładem trwałości pomysłów stworzonych przez naszych przodków jest koncepcja silnika spalinowego. Bardzo dużo się teraz mówi o konieczności wprowadzenia przyjaznych środowisku naturalnemu środków transportu napędzanych silnikiem elektrycznym, ale niewielu producentów pali się do szybkiej zmiany linii produkcyjnych. Trudno się dziwić, skoro silnik spalinowy okazał się tak udaną i dochodową koncepcją.

Protoplastą silnika spalinowego był parowy silnik tłokowy skonstruowany w 1763 r. przez szkockiego inżyniera Jamesa Watta. Była to udoskonalona wersja atmosferycznego silnika parowego angielskiego kowala Thomasa Newcomena.

Ten stosunkowo prosty mechanizm wytwarzający parę wodną poruszającą pod niskim ciśnieniem tłoki stał się krokiem milowym prowadzącym do wybuchu rewolucji przemysłowej zmieniającej nasz świat. Stąd też Newcomena nie bez kozery nazywa się często ojcem chrzestnym epoki przemysłowej.

Przez blisko trzy stulecia mechanika przeszła ogromną drogę rozwoju od konstrukcji parowego silnika atmosferycznego do współczesnych silników rakietowych. Jednak nadal koncepcja działania jest ta sama, aby w wyniku sprężania i rozprężania substancji gazowych wytworzyć moment pędu obrotowego.

W 1801 r. francuski wynalazca Philippe Lebon zaprezentował termolampę wytwarzającą światło w wyniku spalania gazu pozyskanego z drewna. Pomysł się nie przyjął ze względu na wytwarzane spaliny. Lebon się jednak nie poddał i opracował konstrukcję silnika napędzanego przez gaz spalany w mieszance z powietrzem. Zapłon następował za pomocą iskry.

Ale i ten pomysł nie spodobał się jego recenzentom. Dlatego jego silnik spalinowy musiał czekać aż 59 lat, zanim zainteresował się nim inny Francuz – inżynier Jean-Joseph Étienne Lenoir, który skonstruował dwusuwowy silnik spalinowy wykorzystujący spalanie gazu miejskiego. 24 stycznia 1860 r. wynalazca otrzymał certyfikat patentowy nr 43 624.

Lenoir umieścił swój silnik w starym wozie konnym, a koła połączył z silnikiem łańcuchem. Ten pierwszy w dziejach samochód przejechał trasę z Paryża do Joinville-le-Pont, rozpoczynając burzliwą erę motoryzacji.

Dziesięć lat później austriacki mechanik Siegfried Marcus przedstawił wózek ręczny napędzany pierwszym w historii silnikiem benzynowym.

Jednak na pierwszą taśmową produkcję samochodów ludzkość musiała poczekać jeszcze 15 lat, do czasu, kiedy w 1885 r. niemiecki konstruktor Carl Benz zbudował swój trzykołowy automobil.

W tym samym czasie nad podobnymi pojazdami pracowali dwaj inni Niemcy, których nazwiska zostały upamiętnione w nazwach jednych z najlepszych samochodów świata: August Wilhelm Maybach i Gottlieb Wilhelm Däumler, którego nazwisko zostało później zmienione na Daimler.

Nigdy nie dojdziemy, komu należy się tytuł twórcy silnika o spalaniu wewnętrznym. Pewne jest natomiast, że jeszcze przez wiele lat doskonalona będzie koncepcja zapoczątkowana przez panów Benza, Maybacha i Daimlera.

Być może silnik elektryczny okaże się godnym następcą wynalazku XVIII- i XIX-wiecznych geniuszy, ale zasada jego działania pozostanie taka sama: niezależnie, czy jest to proces spalania paliwa czy przetwarzanie energii elektrycznej, będzie ona musiała zostać zamieniona w energię mechaniczną poruszającą tłoki silnika, tak jak życzył tego sobie w 1860 r. Étienne Lenoir.

Silniki elektryczne do samochodów zostały wyparte przez spalinowe. wikipedia

Ten poczciwy emeryt tranzystor

Ale czy w każdej dziedzinie korzystamy ze spuścizny intelektualnej naszych przodków? Wydaje się, że nie. Wcześniejsze pokolenia nie miały przecież nic wspólnego z naszą rewolucją komputerową. Czyżby?

George Harrison powiedział kiedyś: „Wszystko musi przeminąć". No, ale jak się zaraz przekonamy, niekoniecznie. W historii nauki jest wiele wynalazków niemal nieśmiertelnych.

Musimy pamiętać, że sukces rewolucji komputerowej opiera się na kilku ważnych zasadach fizyki. Nasze komputery dokonują obliczeń z szybkością zbliżoną do szybkości światła, a to, jak podkreślał Albert Einstein, prędkość graniczna we wszechświecie. Wybitny amerykański fizyk dr Michio Kaku podkreśla, że u podstaw rewolucji komputerowej leżą trzy czynniki: po pierwsze, kombinacja swobody elektronów i ich olbrzymia szybkość pozwalają nam przesyłać sygnały elektryczne w zawrotnym tempie, co wykreowało rewolucję elektryczną w poprzednim stuleciu; po drugie, nie ma ograniczeń w ilości informacji, jaką można zmieścić w wiązce lasera; po trzecie, siłą napędową rewolucji komputerowej była miniaturyzacja tranzystorów. Pierwszy czynnik jest wynikiem odkryć rozpoczętych przez angielskiego lekarza Williama Gilberta, który odkrył, że wiele materiałów w przyrodzie można naładować elektrycznie. I to on od greckiej nazwy bursztynu (elektron) nazwał tę dziedzinę fizyki elektryką. Innym krokiem milowym było odkrycie fal elektromagnetycznych przez Rudolfa Hertza w 1888 r. oraz odkrycie dziewięć lat później elektronu przez Josepha Thomsona.

Także laser nie jest wcale nowinką techniczną. Istnieje od 1952 roku. Co prawda urządzenie wymuszające wzmocnienie mikrofali, ze względu na zastosowanie amoniaku, nazwano maserem, ale zasada działania była podobna do lasera rubinowego uruchomionego pierwszy raz 16 maja 1960 r. przez amerykańskiego astrofizyka Theodore'a Maimana. Najważniejszym czynnikiem popychającym rozwój rewolucji kwantowej jest jednak chip komputerowy, który zawiera setki, tysiące, a nawet miliony tranzystorów ułożonych na maleńkiej krzemowej płytce. Chip stał się symbolem naszych czasów – epoki elektroniki i informatyki – ale przecież jest urządzeniem starszym od wielu naszych dziadków.

Już w 1926 r. powstała lampa próżniowa Loewe 3NF, która była prekursorem układu scalonego. Oprócz trzech triód, zawierała dwa kondensatory i cztery rezystory, dzięki czemu całość tego układu mogła posłużyć jako jednoobwodowy radioodbiornik reakcyjny.

Koncepcja bardziej znanego nam dzisiaj układu scalonego zrodziła się w genialnym umyśle angielskiego naukowca Geoffreya Dummera. Nie zbudował on co prawda pracującego układu, ale zaszczepił pomysł, który znakomicie rozwinęli w 1958 r. dwaj amerykańscy inżynierowie: Robert Noyce z Fairchild Semiconductor i Jack Kilby z Texas Instruments. Niezależnie od siebie zbudowali działające dwa modele układów scalonych. Nie wiemy do końca, który z tych panów naprawdę pierwszy opracował swój układ. Historia uznała jednak, że był nim Kilby, który zademonstrował swój wynalazek 12 września 1958 r., czyli pół roku przed Noyce'em. W dowód uznania za ten czyn w 2000 r. Jack Kilby otrzymał za pierwszy w historii działający układ scalony Nagrodę Nobla z fizyki.

Czas mechaniki kwantowej

Dzisiaj chipy, które znajdują się w naszych laptopach, można zobaczyć jedynie pod mikroskopem.

Czy ta miniaturyzacja jest procesem nieskończonym? Niestety nie. Wzrost mocy chipów jest zależny od regulacji długości światła ultrafioletowego. Im krótsza się ona staje, tym mniejsze tranzystory można zastosować w płytce krzemowej. Długość fali światła UV wynosi zaledwie kilka nanometrów, co oznacza, że najmniejszy tranzystor, jaki uda się stworzyć, będzie miał średnicę ok. 30 atomów. Amerykański fizyk dr Michio Kaku uważa, że niemożliwe będzie wytrawienie tranzystora o rozmiarze atomu. „Jeżeli nie zostanie wynaleziona zastępcza technologia – ostrzega dr Kaku – już w 2020 r. Dolina Krzemowa ulegnie stopniowej przemianie w Pas Rdzy".

Jeżeli chcemy uniknąć takiego scenariusza, to musimy przejść z epoki krzemowej w epokę postkrzemową. „Tranzystory będę tak małe, że odgrywać zacznie rolę teoria kwantowa i fizyka atomowa – podkreśla dr Kaku – a elektrony wyciekną poza obwody. Najcieńsza warstwa w komputerze będzie miała grubość pięciu atomów. W takiej sytuacji zgodnie z prawami fizyki zacznie decydować teoria kwantowa". I znowu o przyszłości rozwoju naszej cywilizacji decydować będzie teoria, której historia rozpoczęła się 118 lat temu, kiedy wielki niemiecki uczony Max Planck, obalając teorię Maxwella, odkrył, że energie fal elektromagnetycznych emitowanych przez ciała są skwantowane, czyli skokowe. Późniejsze odkrycia Alberta Einsteina, Nielsa Bohra, Artura de Brogliego, Wernera Heisenberga, Erwina Schrodingera, Paula Diraca i innych wielkich naukowców wprowadziły nasze myślenie w zupełnie inny wymiar poznawczy – mechaniki kwantowej, w której wszelka nasza dotychczasowa logika całkowicie się załamuje.

Źródło: Rzeczpospolita

REDAKCJA POLECA

NAJNOWSZE Z RP.PL