Czym jest supremacja kwantowa i komputer kwantowy?
Formalnie termin ten został zdefiniowany w 2012 r. przez profesora fizyki teoretycznej Johna Preskilla z California Institute of Technology. Jednak sama koncepcja takiej dominacji w świecie maszyn cyfrowych została zaproponowana przez rosyjskiego matematyka Jurija Manina w 1980 r., a rok później przez Richarda Feynmana. Stosuje się je w odniesieniu do określonego programowalnego komputera kwantowego, który może rozwiązać problem, którego żaden klasyczny komputer nie jest w stanie rozwiązać w żadnym możliwym czasie, niezależnie od przydatności problemu.
Koncepcja komputera kwantowego narodziła się jeszcze wcześniej, bo już w 1969 r., kiedy światowej sławy fizyk kwantowy z Massachusetts Institute of Technology, laureat Nagrody Nobla z fizyki, wspomniany profesor Richard Feynman przedstawił model nukleonów złożonych z partonów. Posłużył mu on do opisu wysokoenergetycznych zderzeń hadronów. Na podstawie tego modelu Feynman wysnuł podczas jednego ze swoich słynnych wykładów teoretyczny model działania urządzenia, które nazwał komputerem kwantowym. Feynman przekonywał słuchaczy, że do przekształcenia systemu kwantowego w klasyczny model komputerowy można wykorzystać wiele zjawisk wykazujących właściwości kwantowe. Jednym z nich było splątanie kwantowe.
Pierwotnie pomysł został potraktowany przez środowisko naukowe z przymrużeniem oka. Ale tam, gdzie naukowcy bawią się teoretycznymi rozważaniami, inżynierowie z Doliny Krzemowej widzą już przyszłość. Dlatego w odniesieniu do koncepcji Feynmana dwaj naukowcy z MIT, profesor Neil Gershenfeld, Isaac L. Chuang oraz Marc Kubineca z University of California zbudowali maszynę wykorzystującą zjawisko rezonansu magnetycznego (NMR). Urządzenie programowano za pomocą impulsów radiowych. Jądrowy rezonans magnetyczny jest jednym z tych zjawisk fizycznych, które obok kropek kwantowych i pułapkowania jonów może być użyte do budowy komputera kwantowego, który będzie miał więcej niż jedynie kilkadziesiąt kubitów.
Czym jest kubit?
Kubit jest kwantomechanicznym układem, do którego nie ma zastosowania opis klasyczny. Każdy jednak, kto słyszał o słynnym eksperymencie myślowym z kotem Schrödingera, może sobie wyobrazić, że kubit jest kwantową superpozycją zera i jedynki, co oznacza, że rozwiązanie może stanowić grupę lub półgrupę wielu ciągów zero-jedynkowych. Przez losowość pomiaru kwantowego możemy zatem otrzymać zupełnie różne rezultaty. Po co nam takie obliczenia, skoro nie mamy pewności co do słuszności wyniku takiego pojedynczego obliczenia komputera kwantowego? Otóż najważniejsze w tym wszystkim jest wykonanie całej serii ponownych obliczeń. Dopiero ich średnia wartość wskazuje na bardzo precyzyjny wynik.
Żeby zrozumieć różnice między bitami i kubitami, można się posłużyć następującym przykładem: 4 klasyczne bity dają w sumie 16 możliwych kombinacji, kiedy 4 kubity będące w stanie superpozycji mogą być we wszystkich 16 stanach naraz, a z każdym kolejnym dodanym kubitem liczba kombinacji wzrasta wykładniczo. Oznacza to, że 20-kubitowy komputer może jednocześnie przechowywać i analizować 1 000 000 wartości. Rozbudowana maszyna kwantowa przetwarza olbrzymie zbiory danych w bardzo krótkim czasie.
Ale do czego byłaby nam potrzebna taka maszyna o niewyobrażalnej mocy obliczeniowej, wymagająca ogromnie energochłonnego chłodzenia, której wyniki należy uśredniać, a losowość pojedynczego pomiaru nigdy nie daje pewnego rezultatu? W przeciwieństwie do komputerów klasycznych nie służy przecież do generowania obrazów, magazynowania plików, przetwarzania codziennych operacji informatycznych. Otóż urządzenie o mocy 1000 kubitów nie zdołałoby co prawda zerwać obecnych schematów szyfrowania w internecie, ale byłoby wystarczająco skuteczne, aby wykryć i skorygować niezliczone jego błędy.