Czy maszyny zastąpią humanistów?

Kiedy dziesięć lat temu zaczynałem studia językowe, o tłumaczeniu maszynowym profesorowie mówili z lekceważeniem. Tymczasem dzięki Google Translate poczyniło ono niezwykłe postępy. Dziś wielu laików, a nawet zawodowych tłumaczy, korzysta z tej usługi.

Aktualizacja: 09.11.2013 08:11 Publikacja: 08.11.2013 00:01

Czy maszyny zastąpią humanistów?

Foto: Plus Minus, Mirosław Owczarek MO Mirosław Owczarek

Red

Znajomy inżynier wojskowy często powtarza, że obecne tempo przyrostu wiedzy technologicznej nie ma precedensu. Programy komputerowe zbliżają się do granicy przejścia testu Turinga. Przekraczają także granice wspólnot narodowych – te same dźwięki systemu Windows słyszy cały glob. Internet daje dostęp do wielkiej bazy ludzkiej wiedzy, co wpływa na treść i formę pracy intelektualnej, a także na mentalność naukowców. W obliczu globalizacji produkcja intelektualna i jej ochrona stają się więc głównym źródłem dochodu państw zachodnich.

Te wszystkie zjawiska rodzą pytania o etykę pracy człowieka. Czy sztuczna inteligencja może stać się doskonalszym (wydajniejszym, tańszym) użytkownikiem języka od człowieka? W jakim stopniu maszyny zastąpią w pracy humanistów? I wreszcie, jak cyfrowa globalizacja wpłynie na podział pracy i dochodu światowego?

Prognozować, jak będzie wyglądał homo digitalis za lat dziesięć, byłoby niedorzecznością, jednak na podstawie obecnych tendencji można wysnuć pewne wnioski. Jako osoba pisząca i przetwarzająca teksty na pierwszym miejscu wymieniłbym zjawisko plagiatu.

Wygląda na to, że mimo pojawienia się aplikacji kontrolnych plagiatów będzie coraz więcej. Przyczyną wydaje się lenistwo intelektualne spowodowane szybkim tempem przyrastania zasobów intelektualnych i łatwym dostępem do edytowalnych tekstów elektronicznych. Stara szkoła intelektualna stawiała na tworzenie własnej narracji. Melchior Wańkowicz w „Karafce La Fontaine'a" pisał o tradycyjnej formie przekazu treści, jaką jest gawęda, zahaczająca czasem o zmyślenie. Kto w epoce łatwej weryfikowalności faktów, goniących terminów i gotowych szablonów odważy się tworzyć oryginalne formy, w izolacji od innych narracji?

Era plagiatu

Odważyła się Agata Bielik-Robson w rozmowie z Tadeuszem Bartosiem wydanej jako „Kłopot z chrześcijaństwem". Dzięki nowym technologiom książka doczekała się mocnej krytyki na blogu Kompromitacje.blogspot.com, którego autor ukrywający się pod pseudonimem Ebenezer Rojt przy użyciu aparatu naukowego starał się wykazać (i raczej mu się to udało), że filozofka puszcza wodze fantazji, wymyślając na nowo biografię Barucha Spinozy i „nowy wspaniały judaizm". Diametralnie odmienne podejście do wiedzy źródłowej zaprezentował z kolei w II tomie „Historii filozofii XX wieku" Tadeusz Gadacz. Dość powiedzieć, że w nieżyczliwej recenzji naukowej Jan Woleński zarzucił mu plagiat, a na potwierdzenie wypisał kilka fragmentów dzieła wraz z ich niezaznaczonymi w tekście bardzo podobnie brzmiącymi źródłami.

Nie tyle idzie mi tu jednak o osądzanie wyżej wymienionych autorów, co nie byłoby zadaniem dla dziennikarza, tylko dla znawców tematu, ile o zarysowanie ogólnej tendencji: „humanistyczna" dowolność zastępowana jest przez nadmierną „cyfrową" wierność, przepisywanie z minimalnymi zmianami gotowych analiz innych autorów – co rodzi zarzut plagiatu. Być może w poszukiwaniu „własnej", niezapożyczonej struktury tekstu badacze z dziedziny nauk humanistycznych powinni zastosować znaną wśród programistów metodę „clean room design", która ściśle rozdziela analizę źródeł od tworzenia własnego dzieła. Pozwala ona uniknąć kontrowersji w kwestii  praw autorskich.

Pan tłumacz Google

Pod znakiem zapytania stoi też obecność tworzonych przez fachowców encyklopedii – zwłaszcza wobec istnienia „oddolnej", coraz kompletniejszej i lepiej uźródłowionej angielskiej Wikipedii. Polską edycję tego projektu dyskwalifikuje jej mniejsza skala i chyba jednak gorszy etos pisarski naszego narodu.

Można natomiast zauważyć, że Wikipedia jest encyklopedią zglobalizowaną, opartą w dużej mierze na międzynarodowych kategoriach pojęciowych, w przeciwieństwie do różnych encyklopedii PWN czy Wielkiej Encyklopedii Radzieckiej, które w większym stopniu były nośnikami tożsamości narodowej. Wikipedia ma też tę cechę, że teoretycznie się nie starzeje, a już na pewno nic z niej nie znika; każde nowe hasło pozostawia nas raz na zawsze z coraz lepiej ponazywanym, odczarowanym światem. Dożywotnia wzmianka w „ludowej" encyklopedii to dla jednych „bohaterów" takiego hasła błogosławieństwo, dla innych przekleństwo. Nie przypadkiem szef firmy Google stwierdził, że w Internecie brakuje przycisku „DELETE".

Drugim niezwykłym zjawiskiem jest ogromny skok jakościowy tłumaczenia maszynowego. Kiedy dziesięć lat temu zaczynałem studia językowe, profesorowie mówili o nim z lekceważeniem. „Od lat 50. stoi w miejscu. Nie ma co sobie tym głowy zawracać". Tymczasem dzięki Google Translate poczyniło ono niezwykłe postępy: leksykalnie produkt radzi sobie lepiej, a z pewnością szybciej, niż niejeden lingwista, a i gramatycznie coraz mu bliżej do wierności. Wielu laików, a nawet zawodowych tłumaczy, korzysta z tej usługi na zasadzie tłumaczenia wstępnego, które później wystarczy skorygować. Sęk w tym, że korygować trzeba coraz mniej.

Na szczęście od tej usługi giganta z Mountain View nasz zawód raczej nie zginie. Nie doczekamy się jej przekładu dzieł wszystkich Szekspira – w tej mierze dokonanie Macieja Słomczyńskiego pozostanie niedoścignione. Nie zniknie też popyt na nowe wersje, o czym świadczą przekłady Piotra Kamińskiego. Niemniej jednak tradycyjna rola tłumaczy tekstów użytkowych może z czasem ograniczyć się do weryfikacji wytworów sztucznych sieci neuronowych.

Można się oczywiście cieszyć, że życie staje się prostsze, jednak trudno oczekiwać, że innowacyjne firmy pozwolą ludzkości za darmo korzystać z takich udogodnień. Na pewno nie dla zastosowań biznesowych. Nowe API Google Translate jest płatne już od zapytania. Należy tu dodać, że systemów tłumaczenia maszynowego jest wiele. Nad podobną technologią – pod szyldem MT@EC – pracuje zespół w Komisji Europejskiej. Projekt, obecnie w fazie testów, ma zostać oddany do użytku w drugiej połowie 2013 roku.

Polska semantyka także nie stoi w miejscu. Specjaliści od lingwistyki komputerowej z Politechniki Wrocławskiej pracują nad dopasowaniem największej otwartej amerykańskiej bazy języka angielskiego WordNet na język polski. Trwają również prace nad przeniesieniem na polski grunt indeksu mglistości, tzw. skali FOG, która pozwala na podstawie analizy słownictwa ocenić poziom wykształcenia (definiowany „po amerykańsku" – liczbą lat nauki) potrzebny do zrozumienia danego tekstu. Być może w przyszłości wtyczka do edytora tekstu z taką funkcją znajdzie stałe miejsce w arsenale narzędzi medialnych gatekeeperów i łatwiej będzie dopasować „kontent" do „targetu".

Koniec gratisowych treści

Zmiany w funkcjonowaniu światowej sieci widać jak na dłoni – czas gratisu ma się ku końcowi. Konieczność wnoszenia opłat za korzystanie z sieci, zaprojektowane przez anarchistycznie i wspólnotowo nastawionych naukowców i kojarzone z nieskrępowaną wolnością wymiany dóbr, zawsze budziło opór internautów. Powoli staje się to faktem. Wydaje się zresztą nieuchronne, bo Zachód – poza produkcją intelektualną – ma coraz mniej do zaoferowania.

„Piractwo" nigdy nie zniknie, choć skala pewnie będzie mniejsza, ale za coraz więcej usług sieciowych trzeba będzie płacić.

Najwięcej kontrowersji budzi wprowadzany hurmem przez producentów oprogramowania comiesięczny model subskrypcyjny. Lepszy stały strumień dochodu niż falowy – od wersji do wersji. Zmiana licencyjna programów Photoshop, Illustrator i całego pakietu firmy Adobe dotknie całą branżę projektową. Dla rozchwytywanych profesjonalistów zapewne będzie mało odczuwalna, bo stałą opłatę wrzuci się w koszty, ale amatorzy fotografii i okazjonalni użytkownicy zostaną zmuszeni do poszukania sobie innych narzędzi pracy. Można rozważać, czy takie zmiany podyktowane są chciwością i bezkarnością monopolistów, czy przymus subskrypcji jest godziwy – przez analogię, nie każdy chciałby jeździć autem z leasingu. Z drugiej strony wydaje się, że era gratisu (w połączeniu z „piractwem") zepsuła internautów. Stworzyła złudzenie, że niektóre firmy komputerowe, dając nam za darmo różne narzędzia, prowadzą działalność dobroczynną, a nie szukają zysku.

Możemy przyjąć, że rewolucja czeka także rynek multimediów. Zapewne w przyszłości będziemy płacić za ilość dostępów do utworów muzycznych czy filmowych przechowywanych „w chmurze". Kupowanie własnej kopii z nośnikiem straci sens. Zwłaszcza w przypadku filmów, które zwykle ogląda się raz.

Warto się zastanowić, czy słynna maksyma Google'a „Don't be evil" pozostaje aktualna. Ostatnie posunięcia „dobrego monopolisty" stawiają to pod znakiem zapytania. Ten panoptykon przetwarzający nasze listy, kontakty, kalendarze, zdjęcia i zapytania wyszukiwarki stopniowo odchodzi od modelu czysto reklamowego. Nowością są pilotażowe płatne kanały YouTube. W samym opłacaniu usługi nie ma, rzecz jasna, nic złego – „godzien jest robotnik zapłaty swojej" – jednakże zwiastuje to nastanie wielkiego cyfrowego supermarketu. Ale przede wszystkim niepokój budzi odejście od niektórych otwartych standardów (XMPP, pośrednio RSS) i zwrot w stronę zamknięcia użytkowników w szczelnym ekosystemie, podobnym do systemu firmy Apple.

W interesie reklamodawców jest, by Internet upodabniał się coraz bardziej do telewizji. Internet tradycyjnie różnił się od niej tym, że był zdecentralizowany, anarchiczny i tworzony oddolnie. Dzięki technologii RSS internauta mógł (i wciąż może) w aktywny sposób automatycznie i bezpośrednio osobiście odbierać wybrane źródła informacji.

Większość internautów korzysta wszakże z Internetu na sposób pasywny – wchodząc na portal internetowy. Portal to odpowiednik dziennika telewizyjnego. Znajdziemy tam wszystko: mydło i powidło, wybrane przez innych ludzi, okraszone reklamami, przy czym istotne wiadomości zwykle nikną w gąszczu przyciągającej wzrok popeliny.

Google, zamykając swój czytnik RSS, daje wyraźny sygnał, za jakim sposobem korzystania z sieci się opowiada. Trend wyznaczany przez amerykańskiego giganta błędnie określa się mianem prostoty; bardziej pasowałoby tu słowo „uproszczenia".

Źródło dla wszystkich

Jeżeli zatem sieć lata dziecięce ma już za sobą i zaczyna być areną agresywnych działań rynkowych z okopanymi na pozycjach międzynarodowymi liderami, to czy w takim środowisku jest jeszcze przestrzeń na ruchy oddolne i na diametralne zmiany? Na poziomie rozwiązań korporacyjnych chyba nie, ale z perspektywy zwykłego użytkownika – jak najbardziej.

Jedną z nadziei jest działalność zwolenników open source, oprogramowania o otwartym kodzie źródłowym udostępnianym na wolnych licencjach. Niestety, etosowym programistom pozatrudnianym w różnych fundacjach trudno konkurować na równej stopie z biznesem – zwłaszcza tym opartym na modelu subskrypcyjnym. W związku z tym większość darmowych aplikacji tworzonych przez społeczność pozostaje kilka kroków za najlepszymi rozwiązaniami komercyjnymi i to się szybko nie zmieni. Przeciwnie, luka będzie się raczej pogłębiać. Niektórzy wolni twórcy również na różne sposoby starają się skłonić użytkowników do regularnych dotacji, jednak co do zasady wolność wyklucza przymus. Zatem rozwój open source zależy od dobrej woli społeczeństwa obywatelskiego, czy też, patrząc bardziej realistycznie, od dotacji bogatych sponsorów – takich jak Google – którym taka współpraca w pewnym stopniu się opłaca i które nie chcą być postrzegane jako nastawione wyłącznie na zysk, czyli „z gruntu złe".

Druga nadzieja w oczach Zachodu jest mniej oczywista – jest nią Trzeci Świat. Trzeci Świat to „synonim" najniższych kosztów pracy, najniższych praw pracowniczych i socjalnych oraz najmniejszej dbałości o ochronę praw autorskich i patentów. Zachodni monopoliści mają przed czym drżeć. Na przykład koncern z Redmond przed dofinansowanym przez rząd chiński pakietem biurowym Kingsoft Office, który jest dostępny za darmo do użytku domowego (nie ma jeszcze wersji polskiej). Mimo ewidentnego podobieństwa programu do Microsoft Office jego twórcy chwalą się złotą nagrodą za prawa autorskie i niezależną innowacją uzyskaną od Światowej Organizacji Własności Intelektualnej ONZ. To technologiczne potwierdzenie, że świat przyszłości będzie coraz bardziej wielobiegunowy.

Inną zmianą pośrednio wywołaną przez technologie informacyjne jest trzecioświatowy outsourcing. Wszyscy słyszeli o indyjskich centrach obsługi klienta, jednak w krajach rozwiniętych coraz częstsze jest korzystanie z „dalekomorskich" usług także w branżach, o których jeszcze niedawno filozofom by się nie śniło, czyli informatycznej, księgowej, architektonicznej, dziennikarskiej, edukacyjnej, projektowania inżynieryjnego, ekspertyz medycznych i prawnych...

W styczniu BBC opisało przypadek amerykańskiego programisty pracującego z domu, którego zadania za jedną piątą wynagrodzenia wykonywali zdalnie pracownicy chińskiej firmy konsultingowej, podczas gdy ten „buszował po sieci i oglądał filmiki z kotami".

Takie skutki globalizacji technicznej zmuszają nas na nowo do postawienia sobie pytania o sens i etykę pracy.

Autor jest tłumaczem i publicystą. Publikował m.in. w portalu Rebelya.pl

Znajomy inżynier wojskowy często powtarza, że obecne tempo przyrostu wiedzy technologicznej nie ma precedensu. Programy komputerowe zbliżają się do granicy przejścia testu Turinga. Przekraczają także granice wspólnot narodowych – te same dźwięki systemu Windows słyszy cały glob. Internet daje dostęp do wielkiej bazy ludzkiej wiedzy, co wpływa na treść i formę pracy intelektualnej, a także na mentalność naukowców. W obliczu globalizacji produkcja intelektualna i jej ochrona stają się więc głównym źródłem dochodu państw zachodnich.

Te wszystkie zjawiska rodzą pytania o etykę pracy człowieka. Czy sztuczna inteligencja może stać się doskonalszym (wydajniejszym, tańszym) użytkownikiem języka od człowieka? W jakim stopniu maszyny zastąpią w pracy humanistów? I wreszcie, jak cyfrowa globalizacja wpłynie na podział pracy i dochodu światowego?

Prognozować, jak będzie wyglądał homo digitalis za lat dziesięć, byłoby niedorzecznością, jednak na podstawie obecnych tendencji można wysnuć pewne wnioski. Jako osoba pisząca i przetwarzająca teksty na pierwszym miejscu wymieniłbym zjawisko plagiatu.

Wygląda na to, że mimo pojawienia się aplikacji kontrolnych plagiatów będzie coraz więcej. Przyczyną wydaje się lenistwo intelektualne spowodowane szybkim tempem przyrastania zasobów intelektualnych i łatwym dostępem do edytowalnych tekstów elektronicznych. Stara szkoła intelektualna stawiała na tworzenie własnej narracji. Melchior Wańkowicz w „Karafce La Fontaine'a" pisał o tradycyjnej formie przekazu treści, jaką jest gawęda, zahaczająca czasem o zmyślenie. Kto w epoce łatwej weryfikowalności faktów, goniących terminów i gotowych szablonów odważy się tworzyć oryginalne formy, w izolacji od innych narracji?

Pozostało 87% artykułu
Plus Minus
Tomasz P. Terlikowski: Adwentowe zwolnienie tempa
https://track.adform.net/adfserve/?bn=77855207;1x1inv=1;srctype=3;gdpr=${gdpr};gdpr_consent=${gdpr_consent_50};ord=[timestamp]
Plus Minus
„Ilustrownik. Przewodnik po sztuce malarskiej": Złoto na palecie, czerń na płótnie
Plus Minus
„Indiana Jones and the Great Circle”: Indiana Jones wiecznie młody
Plus Minus
„Lekcja gry na pianinie”: Duchy zmarłych przodków
Materiał Promocyjny
Bank Pekao wchodzi w świat gamingu ze swoją planszą w Fortnite
Plus Minus
„Odwilż”: Handel ludźmi nad Odrą