Reklama

Aleksandra Przegalińska: Niedofinansowana nauka blokuje rozwój AI w Polsce

Skrajne niedofinansowanie nauki, brak dobrych rozwiązań dla własności intelektualnej czy skomplikowany system grantowy – wylicza dr hab. Aleksandra Przegalińska, członkini Rady Przyszłości, wskazując bariery blokujące innowacyjny potencjał Polski. We wtorek premier pozna rekomendacje Rady.
Dr hab. Aleksandra Przegalińska, prof. ALK, ekspertka AI, badaczka na MIT i Harvardzie

Dr hab. Aleksandra Przegalińska, prof. ALK, ekspertka AI, badaczka na MIT i Harvardzie

Foto: materiały prasowe

Pod wpisem Sama Altmana w serwisie społecznościowym o zawarciu porozumienia z Pentagonem napisała pani „jesteście oficjalnie okropną firmą”. Pani po prostu nie lubi prezesa OpenAI, czy uważa go za groźną osobę?

Od wielu długich lat przyglądałam się organizacji OpenAI, a dzisiaj już firmie for profit. Jeszcze w 2020 r. moja magistrantka pisała pracę na temat wczesnego modelu GPT i wszyscy bardzo ekscytowaliśmy się jego przyszłymi możliwościami. Nie chcę nadmiernie psychologizować, ale z całą pewnością jest we mnie element zwyczajnego rozczarowania. Myślałam, że to będzie gracz, który nieco skruszy technologiczny oligopol i pokaże nową wartość. Zwłaszcza ten ostatni rok uświadomił mi, że chyba tak nie jest. To raczej gracz, który chce iść śladem wielkich spółek technologicznych: wprowadzać reklamy i często zachowywać się w sposób wątpliwy. Mówię chociażby o ogłoszeniu „erotycznego” ChatGPT, przy jednoczesnym braku rozpracowanego systemu weryfikacji wieku. Taki chatbot mógłby trafić do małoletnich, a nie wydaje się, by specjalnie się tym Altman przejmował. Chyba liczy, że to będzie kura znosząca złote jajka.

Wydawało mi się, że OpenAI będzie firmą o charakterze badawczym, projektującą nowoczesne rozwiązania dla nauki i pracy analitycznej. A zamiast rozwiązywać problemy kryzysu klimatycznego czy rewolucjonizować ochronę zdrowia, dostaliśmy narzędzia do generowania nieskończonej ilości deepfake'ów i tzw. slopu, czyli AI-owego szlamu. Do tego dochodzi celowe uzależnianie użytkowników - budowanie iluzji AI companion po to tylko, by generować więcej interakcji i sprzedawać spersonalizowane reklamy.

No i wisienką na torcie jest to, co wydarzyło się po odstąpieniu przez firmę Anthropic od umowy z Pentagonem. Tego samego dnia OpenAI z dumą ogłosiło, że zajmie jej miejsce.

Jak odbiera pani wejście Altmana we współpracę z Pentagonem? To niebezpieczne?

Tak, zwłaszcza jeśli wciąż nierozstrzygnięte są kwestie, o które rozbiła się umowa z Anthropic. Współpraca Pentagonu z Anthropic trwała już długo. Rozumiem jednak, że od czasu, gdy Departamentem Obrony kieruje nowa administracja, z racji swoich ambicji geopolitycznych, zażądano więcej. Pewne zaawansowane zastosowania technologii miały zostać udostępnione wojsku.

Anthropic to ciekawa firma. W przeciwieństwie do ChatGPT, który ma być „dla każdego i do wszystkiego”, buduje wyspecjalizowane modele dla finansów, prawa czy akademii. Gdyby przystali na nowe żądania Pentagonu - dotyczące np. masowego nadzoru algorytmicznego, przetwarzania najróżniejszych danych czy broni autonomicznej - zraziliby do siebie inne sektory, z którymi współpracują na bazie zaufania. Powołali się na swój moralny kościec, ale pewnie była w tym też biznesowa kalkulacja i odstąpili od umowy.

Reklama
Reklama

Czytaj więcej

Czego się spodziewać po Radzie Przyszłości Donalda Tuska? „Rzeczpospolita” zapytała ekspertów

I jeśli tego samego dnia Sam Altman podpisuje umowę z Pentagonem, twierdząc, że „nie ma żadnego problemu”, to jest to coś niebywałego - przecież to niewiarygodne, by Pentagon nagle wycofał się ze swoich żądań wobec technologii. Potem Altman zorganizował w mediach społecznościowych sesję AMA (Ask Me Anything), odpowiedział na okrągło na cztery pytania, zaczął udzielać wywiadów, w których robił z siebie ofiarę, ale nie rozwiał żadnych wątpliwości. To nie budzi zaufania. Jeżeli hiperpersonalizowane logi konwersacyjne z naszych czatów mogą być wykorzystywane bez obwarowań, to raczej rodzi to zgrozę.

Ale czy istota konfliktu Anthropic - Pentagon nie sprowadza się do tego, kto w praktyce powinien decydować o kwestiach bezpieczeństwa państwa: rząd czy Big Techy?

To dobre pytanie. Gdybym miała bardziej libertariańskie poglądy, powiedziałabym, że to państwo decyduje o militarnej agendzie, a nie kontraktor. Jeśli państwo życzy sobie technologii do broni autonomicznej, to ma do tego prawo. Jeśli firma odmawia, szuka innej. Zgadzam się, że w ostatecznych, egzystencjalnych sytuacjach militarnych - np. gdy lecą na kraj rakiety - nie można dzwonić do prezesa firmy technologicznej z pytaniem, czy wolno nam się bronić. To prerogatywa państwa. Ale nie wierzę, że spór rozbił się o takie kwestie. Problem nadzoru algorytmicznego nad społeczeństwem i swobodnego wykorzystywania danych obywateli nie dotyczy już tylko państwa, ale praw nas wszystkich. Nawet dla amerykańskiego libertarianina sytuacja, w której państwo nadużywa swoich prerogatyw i zbiera o nim wszystkie możliwe dane, jest niedopuszczalna. Dotarliśmy do punktu potężnego dylematu, a OpenAI zdaje się nie widzieć w tym żadnego problemu.

Wykorzystywanie danych obywateli powinno polegać na umowie, jakimś kontrakcie między społeczeństwem a państwem?

Pytacie o coś, co powinno wydarzyć się już sporo wcześniej, ale nigdy się nie wydarzyło. Mamy dziwny tercet: społeczeństwo, państwo i Big Tech. Przez ostatnie 15 lat Big Techy drastycznie rozszerzały swoje możliwości wpływu, a próby zawarcia nowego, trójstronnego kontraktu się nie powiodły. Dziś próbujemy jedynie mitygować negatywne skutki, choćby te wywołane przez media społecznościowe.

W USA zawsze wygrywała logika: trzeba rozwijać technologię i być konkurencyjnym, bo jak przeregulujemy rynek, to wygrają Chińczycy. Brałam udział w warsztatach Rand Corporation na Harvardzie, poświęconych superinteligencji i głównym tłem dyskusji było to, jak sprawić, by Ameryka osiągnęła ją szybciej niż Chiny. Ten styl myślenia powoduje, że w USA nadal nie ma wspólnej, uniwersalnej regulacji dotyczącej AI. Dekret Bidena został de facto cofnięty, część polityków wręcz blokuje regulacje w imię absolutnego technokapitalizmu, a to, co obecnie mamy, to chaos regulacyjny na poziomie poszczególnych stanów.

Została pani członkinią Rady Przyszłości przy premierze. Zapowiedziano szybkie i konkretne działanie. To jakie są pierwsze konkrety?

Opracowujemy już kilka rekomendacji, które, mam nadzieję, będą bardzo „soczyste”. Działamy w kilku podgrupach, ja intensywnie pracuję w grupie zajmującej się komercjalizacją badań naukowych, czyli tym, jak tworzyć więcej akademickich spin-offów, oraz w grupie ds. skalowania start-upów technologicznych, by nie tylko tworzyć w Polsce jednorożce, ale też zatrzymywać je u nas lub w Europie. Mamy już dobry przegląd głównych problemów.

Reklama
Reklama

Czytaj więcej

Alarmujący raport Banku Światowego. Polska w ogonie innowacji w Europie

Jakie to problemy?

Po pierwsze: skrajne niedofinansowanie nauki w Polsce, zwłaszcza w strategicznych obszarach. Po drugie: brak dobrych rozstrzygnięć dotyczących własności intelektualnej. Znak zapytania wciąż wisi nad tym, jakie prawa zostają przy naukowcu, który chciałby przekuć swoje badania w produkt. Mamy też spory gąszcz w systemie grantowym - część środków jest w gestii niezależnych agencji przyznających je w drodze konkursów, a część zależy od decyzji stricte politycznych.

Jeśli chodzi o skalowanie start-upów, problemem jest „drabina finansowania”. Mamy relatywnie dużo kapitału na najwcześniejszym etapie (pre-seed), jesteśmy dobrzy w budowaniu małych firm, ale, niestety, brakuje funduszy na kolejne rundy dla projektów, które wpadają w tak zwaną „dolinę śmierci” i potrzebują skalowania. W efekcie nasze najlepsze spółki rejestrują się w stanie Delaware w USA, gdzie Amerykanie pracują na utartych schematach i zupełnie innej skali.

Kluczowa jest też kwestia zatrzymania i przyciągania nowych talentów.

Mówi się, że przez zawirowania geopolityczne jest szansa, że ten drenaż mózgów można zatrzymać.

Tak, obserwuję, że transfer zaczyna działać w drugą stronę - wiele osób przebywających w USA obawia się niestabilności politycznej. Bardzo skuteczna w przechwytywaniu uciekającego z Ameryki talentu jest teraz Francja, która celowo tworzy wielkie mechanizmy i programy stypendialne, by przyciągać globalnych badaczy. Chciałabym, żeby Polska również na tym trendzie coś ugrała. Mamy Narodową Agencję Wymiany Akademickiej (NAWA), moglibyśmy stworzyć dedykowany budżet na ściągnięcie do Polski większej grupy wybitnych naukowców ze świata. Stare motory wzrostu oparte na taniej pracy już się wyczerpują, nowe muszą opierać się na innowacjach.

Wracając do start-upów, czy problemem, który trudno przeskoczyć, nie jest nasz podzielony na 27 państw rynek? Za oceanem po prostu łatwiej się skalować.

Racja, o ile w nauce europejskie mechanizmy (takie jak granty ERC czy Horyzont) działają dobrze, o tyle w biznesie nie mamy wspólnych mechanizmów inkubowania start-upów, Europa jest tutaj mocno zapóźniona. Projekt Unii Rynków Kapitałowych (z ang. Capital Markets Union), o którym mówiła Ursula von der Leyen, zakładający instrumenty do skalowania technologicznego w Europie, jest bezwzględnie potrzebny. Inaczej świetne projekty i tak będą szukały gotówki w Stanach Zjednoczonych.

Reklama
Reklama

Co jest problemem w budowaniu polskich jednorożców? Chodzi wyłącznie o pieniądze, czy może po prostu sam system, jak w służbie zdrowia, nie jest wydolny? Może w jednym i drugim przypadku pompowanie miliardów nie da efektu bez zmiany paradygmatu.

Coś w tym jest. Na wielu uczelniach mamy do czynienia z pewną skostniałą kulturą organizacyjną, a zdrowa współpraca na linii nauka-biznes nie leży jeszcze w naszym DNA. W USA uczelnie zachowują niezależność i zobowiązują się do rzetelnego wykonania zadań badawczych, a firmy to szanują i nie wymuszają wyników z góry. U nas wciąż bywa z tym różnie, biznes jest podejrzliwy wobec naukowców, a naukowcy przerażeni presją na założony z góry, biznesowy wynik.

Oczywiście kopiowanie amerykańskich rozwiązań wprost się nie uda, bo opierają się one na innym podglebiu kulturowym. Fascynuje mnie droga Francji - agresywnie inwestują we własny model językowy Mistral z publicznych pieniędzy podatników, ich państwowe spółki otrzymują wręcz rekomendacje pracy z tym modelem, wycofują się z zagranicznych komunikatorów na rzecz własnych rozwiązań. Oni budują swoją suwerenność technologiczną. Wydaje mi się, że w Polsce jesteśmy w tej kwestii jeszcze odrobinę pogubieni.

Skoro Francja ma Mistrala, to może my powinniśmy postawić na naszego Bielika?

Z tego, co słyszę, są w tym obszarze ciekawe ruchy. Bielik dostał kontrakt w resorcie obrony - to poważna praca na ważnych danych. Mamy też państwowy model PLLuM rozwijany na potrzeby administracji publicznej. Potrzebujemy jednak strategicznego przeglądu: jakim celom te projekty mają konkretnie służyć i czy w perspektywie pięciu lat zainwestujemy w nie na poważnie. To są trudne zagadnienia, ale niezwykle ważne, jeśli chcemy posiadać lokalne i bezpieczne rozwiązania.

Tania i dobrze wykwalifikowana siła robocza już nas nie poniesie i, jeśli nie odnajdziemy nowych motorów wzrostu, czeka nas dryf. W obecnym konfundującym, potężnym świecie nowych sojuszy technologicznych i geopolitycznych, to bardzo niebezpieczne.

Kiedy przedstawicie te rekomendacje premierowi?

Mamy spotkać się we wtorek (17 marca - red.), będzie to spotkanie wewnętrzne, podczas którego zaprezentujemy konkretne propozycje. Pracujemy społecznie, często w weekendy, w bardzo intensywnych sprintach. Jesteśmy też po szerokich konsultacjach m.in. z ministerstwami i agencjami, by nie duplikować ich pracy. Interesują nas „quick wins” - rozwiązania precyzyjne, niepolaryzujące, nadające się do sprawnego wdrożenia, a nie chodzi o wsadzanie kija w mrowisko.

Reklama
Reklama

A jeśli premier nie weźmie waszych rekomendacji sobie do serca, to jaka przyszłość nas czeka?

Obiecano nam, że to zrobi. Ale mówiąc poważnie: tania i dobrze wykwalifikowana siła robocza już nas nie poniesie i jeśli nie odnajdziemy nowych motorów wzrostu, czeka nas dryf. W obecnym, konfundującym świecie nowych sojuszy technologicznych i geopolitycznych, to bardzo niebezpieczne. Mamy kolosalny talent technologiczny, widoczny już w liceach czy na studiach, więc jeśli państwo nie zagwarantuje mu warunków do rozwoju w kraju, ten potencjał ucieknie. Skonsumujemy sukces ostatnich dekad, ale nie pójdziemy dalej.

Co może być polską specjalnością technologiczną w Europie?

Osobiście fascynuje mnie sektor rolniczy - technologie do przewidywania suszy, optymalizacji przetwórstwa. To mogłoby być ciekawe. Natomiast naturalnym, strategicznym kierunkiem jest dziś tzw. dual use, czyli technologie podwójnego zastosowania: komercyjnego i militarnego. Jesteśmy państwem przyfrontowym, wschodnią flanką NATO, za naszą granicą toczy się wojna, a inwestowanie w te technologie wydaje się bezsporne i budzi polityczny konsensus. Wypracowane tu rozwiązania mogłyby z powodzeniem służyć innym państwom w Europie.

Zataczając koło: czy istnieje jakaś „dobra” sztuczna inteligencja? Pytam o przyszłość i rosnące poczucie, że technologia idzie w stronę zawładnięcia naszym światem.

Zgadzam się z tymi obawami. Z pewnością dobrą alternatywą są modele open source - mniejsze, uruchamiane lokalnie, zapewniające pełną prywatność i kontrolę nad danymi. W Europie robimy to całkiem nieźle. Świetnym, prospołecznym zastosowaniem byłaby też sytuacja, w której rządowy model PLLuM sam przypomina mi o kończącym się paszporcie i end-to-end pomaga złożyć wniosek. Szukajmy technologii, które wzmacniają człowieka, a nie go eliminują - chodzi o tzw. ProWorker AI. Niestety, w Stanach Zjednoczonych widzę narastającą wściekłość na AI i fundamentalne poczucie braku bezpieczeństwa egzystencjalnego.

Czytaj więcej

Były inżynier Google: AI zniszczy nas na 95 proc. „Jak auto bez hamulców”

Tzw. dolina niesamowitości przenosi się z robotów na rynek pracy?

Zdecydowanie, tyle że to nie jest już strach przed robotem, który dziwnie wygląda, to strach o przetrwanie: „czy będę miał za co żyć?”. Potwierdzonym już w danych trendem jest drastyczny spadek ofert pracy stażowej i juniorskiej, widać też wyraźny hiring freeze - firmy w USA zawiesiły zatrudnianie nowych osób, starając się maksymalizować produktywność obecnych kadr poprzez AI.

Reklama
Reklama

Brak pracy dla młodych ludzi, którzy zainwestowali ogromne pieniądze w edukację, to idealne zarzewie rewolucji społecznej. Wielu młodych traci złudzenia co do „American Dream”. Jeśli państwo milczy, a zapatrzony w siebie Big Tech ogłasza, że za pięć lat zniknie praca „białych kołnierzyków”, to tworzy się grunt pod radykalizację społeczeństw. Uważam, że to najwyższy czas na interwencję polityki, przebudowę modelu edukacji i znalezienie odpowiedzi na pytanie, jak przygotować nowe pokolenia na wejście w ten bezlitosny rynek.

Kiedy nadejdzie ta słynna generalna inteligencja czy też superinteligencja?

Dla mnie te terminy straciły już swoje znaczenie operacyjne. Jesteśmy w paradoksalnej sytuacji, w której model potrafi wygenerować niesamowity raport analityczny, a chwilę później wyłożyć się na kompletnie głupim pytaniu. Stoję na stanowisku, że dopóki AI nie zyska ciała fizycznego - pewnej intuicji fizycznej i oporu środowiska - stworzenie superinteligencji będzie niezwykle trudne.

CV

Aleksandra Przegalińska

filozofka, ekspert nowych technologii, sztucznej inteligencji i robotyki. Dr hab. Aleksandra Przegalińska to absolwentka Uniwersytetu Warszawskiego i The New School for Social Research w Nowym Jorku, badaczka na MIT i Harvardzie, profesorka Akademii Leona Koźmińskiego.

Biznes
Kolejny zastrzyk z PFR. Pieniądze zasilą innowacje kwantowe, dual-use, czy AI
Materiał Promocyjny
Jak zostać franczyzobiorcą McDonald’s?
Materiał Promocyjny
OTOMOTO rewolucjonizuje dodawanie ogłoszeń
Biznes
Trump wzywa sojuszników, InPost wchodzi w e-commerce
Biznes
Miliardy z programu SAFE. Które polskie spółki mogą na tym najwięcej zarobić
Biznes
AI w Polsce najpierw w domu, dopiero potem w pracy. Firmy nie nadążają
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama