W listopadzie zeszłego roku Microsoft Research (badawcze ramię koncernu z Redmond) zaprezentował technologię tłumaczenia na żywo, bazującą na systemie rozpoznawania mowy. Na pokazie prelegent przemawiał po angielsku, a komputery wyświetlały na dwóch telebimach wypowiedziane sekundę wcześniej zdania. Na jednym – przesuwał się angielski oryginał wystąpienia, na drugim – jego tłumaczenie na żywo na język... mandaryński. – Badacze z Microsoft Research i Uniwersytetu w Toronto użyli do stworzenia tego mechanizmu technologii naśladującej zachowania ludzkiego mózgu, symulując aktywność neuronów i synaps. Nazwali to „głęboką siecią neuronową" – pisał na blogu Rick Rashid, szef badań Microsoftu. – Dzięki temu zredukowaliśmy omylność systemu o 30 proc. Zamiast niepoprawnego jednego słowa na cztery lub pięć, błąd zdarza się teraz raz na siedem–osiem słów.
W podobnym kierunku podążają prace Google'a. Już prawie trzy lata temu Franz Och, jeden z głównych specjalistów do spraw rozpoznawania mowy zatrudniany przez tę firmę, przyznawał, że koncern pracuje nad telefonem umiejącym tłumaczyć rozmowy.
Namiastkę świata, w którym telefony „tłumaczą" wypowiedź z jednego języka na drugi, mniej wymagający użytkownicy mają już dziś.
Czy maszyny zastąpią żywych tłumaczy? Lepiej postawione pytanie brzmi: kiedy. – To, że rynek tłumaczeń zostanie zautomatyzowany, jest pewne – mówi Agata Rybacka, dyrektor rozwoju w firmie tłumaczeniowej Skrivanek. – Jest tylko kwestią czasu, gdy świat zacznie wyglądać jak w filmach SF, gdzie dwie nacje porozumiewają się ze sobą za pomocą technologii. Wszyscy będziemy się musieli dostosować do tych zmian. Oczywiście trudno dziś przewidzieć o jakiej perspektywie czasowej mówimy – dodaje Rybacka.
Profesjonalne firmy tłumaczeniowe już dziś powszechnie korzystają z własnych, bardziej precyzyjnych systemów tłumaczeń maszynowych – tzw. narzędzi CAT. Nie obawiają się jednak o przyszłość, bo na razie nawet najsprawniejsza maszyna nie potrafi umieścić cytatu w kontekście kulturowym.