Sztuczna inteligencja (AI – ang. artificial intelligence) znajduje coraz więcej zastosowań praktycznych. Regulacja AI w Unii Europejskiej nabiera coraz wyraźniejszych kształtów. Tymczasem świat szachów śledzi aferę, jaka wybuchła po ujawnieniu przygotowanego przy wykorzystaniu AI raportu o oszustwach, zarzucanych arcymistrzowi szachowemu Hansowi Niemannowi.

Sprawa pokazuje, jak technologia rozwinęła się od momentu, kiedy po raz pierwszy komputer pokonał człowieka w 1997 roku. Teraz sztuczna inteligencja nie tylko potrafi świetne grać w szachy, ale i jest już w stanie wykryć wykorzystanie podpowiedzi algorytmów przez zawodników. AI rozwiązuje więc problem, jaki sama stworzyła. Co więcej, uczy się nie tylko od człowieka, ale też od innych algorytmów.

Czytaj więcej

Nie taki piękny umysł

Oszustwa w szachach mają długą historie. W znanej partii rozegranej w roku 1978 pomiędzy Anatolijem Karpowem a Wiktorem Korcznojem padały m.in. oskarżenia o okultyzm i oślepianie okularami. Można zakładać, że samo wytworzenie atmosfery manipulacji miało na celu wybicie przeciwnika z rytmu i było elementem gry nerwów. Dopóki jednak gracze siedzieli na przeciwko siebie, pod czujnym okiem sędziego, repertuar działań oszukańczych, czy też sztucznego wspomagania gry, był mocno ograniczony. Sytuację zmieniły platformy do gry on-line oraz rozgrywanie turniejów w tej formule w czasie pandemii COVID -19. Jak się okazuje, podsyłanie podpowiedzi w jogurcie to był dopiero początek i prawdziwe wyzwania dotyczące stosowania dopingu pojawiły się dopiero w dobie cyfrowej.

Podejrzenia wobec Hansa Niemanna były skutkiem oskarżeń Magnusa Carlsena. Jak twierdził ten drugi, Niemann bez spięcia wykonywał ruchy, na które wpaść mogła tylko garstka szachistów na świecie. Wątpliwości wzbudzał zaskakujący szybki progres i wzrost pozycji w rankingach Niemanna. Sam Hans Niemann przyznał się do kilku oszustw w grze on-line w czasie gdy był nastolatkiem, ale dowiedzenie mu kontynuowania takich praktyk już w dorosłej karierze było trudne. Do czasu. Raport opublikowany przez Chess.com sugeruje bowiem, że proceder miał zdecydowanie większa skalę. Osobne postępowanie w tej sprawie prowadzi Międzynarodowa Federacja Szachowa (FIDE).

Na potrzeby raportu algorytm AI porównał krytyczne ruchy wykonane w czasie partii z tymi, jakie były sugerowane przez algorytmy szachowe, pozwalające pokonać człowieka za każdym niemal razem. Analizował też siłę i pozycję w rankingach, prawdopodobieństwo: statystyczne i naturalnego wystąpienia ruchu, a nawet czynniki behawioralne. Po tych wszystkich analizach, algorytm sztucznej inteligencji uznał, że... człowiek nie może być aż tak bystry.

Jak jednak określić granicę tego, jak bystry i błyskotliwy może być arcymistrz szachowy? Przecież arcymistrzem nie zostaje się bez powodu. W gruncie rzeczy nie są to więc twarde dowody, a jedynie poszlaki.

Przypadek arcymistrza szachowego Hansa Niemanna pokazuje, że algorytmy tworzone nawet w z pozoru mało ryzykownych obszarach, mogą mieć wpływ na nasze życie

To co wyróżnia algorytmy AI od innych algorytmów, to poziom ich wewnętrznego „chaosu”, który w niezrozumiały dla nas sposób prowadzi do najlepszych rozwiązań. Wiemy, że wyniki AI są ściśle określone, ale są dla nas nie do przewidzenia. Algorytm „wymaga” od nas jedynie podania zbioru danych, które uważamy za istotne i... nieingerowania w jego „wewnętrzne sprawy”. Tego typu rozwiązania nazywane są czarnymi skrzynkami (black box). Pytanie wiec, na ile jesteśmy w stanie zaufać algorytmowi i zaakceptować to, co z takiej czarnej skrzynki wypadnie.

Dlatego projekt rozporządzenia Unii Europejskiej w sprawie sztucznej inteligencji kładzie szczególny nacisk na przejrzystość rozwiązań. Zakłada on podział AI na pewne klasy ryzyka, z których najwyższe będą wymagały odpowiedniego certyfikatu, a ostateczna decyzja w kluczowych sprawach będzie należeć, mimo wszystko (na całe szczęście?), do człowieka. Pozostaje oczywiście pytanie o skuteczność zabezpieczeń w sytuacji, gdy algorytmy zaczną uczyć się same od siebie.

Przypadek arcymistrza szachowego Hansa Niemanna pokazuje, że algorytmy tworzone nawet w z pozoru mało ryzykownych obszarach, mogą mieć wpływ na nasze życie. W tym przypadku chodzi o rozstrzygnięcie rywalizacji sportowej (i o być albo nie być znanego sportowca), ale w niedalekiej przyszłości AI może w praktyce dostarczać dowodów w procesie karnym. Nie jest jasne, czy w takim przypadku zasada tłumaczenia niedających się usunąć wątpliwości na korzyść oskarżonego zadziała, lub choćby będzie wzięta przez czarną skrzynkę pod uwagę. Możliwości obrony byłyby przy tym w zasadzie iluzoryczne, bo wykazanie, że AI doszła do błędnych wniosków, wymagałoby wykonania przez człowieka obliczeń trwających kilkaset lat. Co więcej, jeśli algorytmy uczą się od siebie, to niewykluczone, że za jakiś czas (w miarę dostarczania nowych danych) wyniki mogą być inne. Nie jest więc tak, że algorytm nie może popełnić błędu.

Afera Niemanna jest chyba pierwszym głośnym przykładem na to, jak wyniki AI mogą wpłynąć na losy konkretnego człowieka. Szachy w niektórych częściach świata cieszą się szczególnym uznaniem, a arcymistrzowie szachowi darzeni są szacunkiem, jakiego pozazdrość mogą im nawet piłkarze. Dla arcymistrza szachowego oskarżenie o oszustwo oznacza infamię w środowisku. Cały dorobek szachowy i kariera stają pod znakiem zapytania, a cień podejrzeń pada nawet na te partie, w których zwycięstwo było zasłużone.

AI może być wykorzystana jako doping dla szachisty, ale dostarcza też narzędzi do wykrywania oszustw. Czy jednak jesteśmy w stanie zaufać jej na tyle, aby od jej wniosków uzależniać losy człowieka? Może prościej byłoby wrócić do starych metod – posadzić dwie osoby naprzeciwko siebie i pilnować, by „nie ściągały”? O wiele łatwiej przecież zajrzeć do podawanego graczowi jogurtu (by sprawdzić, czy nie ma tam małej karteczki z podpowiedzią), niż do czarnej skrzynki AI.

Krzysztof Czyżewski, Dariusz Tarabasz adwokaci z Czyżewscy kancelaria adwokacka