Pod wpisem Sama Altmana w serwisie społecznościowym o zawarciu porozumienia z Pentagonem napisała pani „jesteście oficjalnie okropną firmą”. Pani po prostu nie lubi prezesa OpenAI, czy uważa go za groźną osobę?
Od wielu długich lat przyglądałam się organizacji OpenAI, a dzisiaj już firmie for profit. Jeszcze w 2020 r. moja magistrantka pisała pracę na temat wczesnego modelu GPT i wszyscy bardzo ekscytowaliśmy się jego przyszłymi możliwościami. Nie chcę nadmiernie psychologizować, ale z całą pewnością jest we mnie element zwyczajnego rozczarowania. Myślałam, że to będzie gracz, który nieco skruszy technologiczny oligopol i pokaże nową wartość. Zwłaszcza ten ostatni rok uświadomił mi, że chyba tak nie jest. To raczej gracz, który chce iść śladem wielkich spółek technologicznych: wprowadzać reklamy i często zachowywać się w sposób wątpliwy. Mówię chociażby o ogłoszeniu „erotycznego” ChatGPT, przy jednoczesnym braku rozpracowanego systemu weryfikacji wieku. Taki chatbot mógłby trafić do małoletnich, a nie wydaje się, by specjalnie się tym Altman przejmował. Chyba liczy, że to będzie kura znosząca złote jajka.
Wydawało mi się, że OpenAI będzie firmą o charakterze badawczym, projektującą nowoczesne rozwiązania dla nauki i pracy analitycznej. A zamiast rozwiązywać problemy kryzysu klimatycznego czy rewolucjonizować ochronę zdrowia, dostaliśmy narzędzia do generowania nieskończonej ilości deepfake'ów i tzw. slopu, czyli AI-owego szlamu. Do tego dochodzi celowe uzależnianie użytkowników - budowanie iluzji AI companion po to tylko, by generować więcej interakcji i sprzedawać spersonalizowane reklamy.
No i wisienką na torcie jest to, co wydarzyło się po odstąpieniu przez firmę Anthropic od umowy z Pentagonem. Tego samego dnia OpenAI z dumą ogłosiło, że zajmie jej miejsce.
Jak odbiera pani wejście Altmana we współpracę z Pentagonem? To niebezpieczne?
Tak, zwłaszcza jeśli wciąż nierozstrzygnięte są kwestie, o które rozbiła się umowa z Anthropic. Współpraca Pentagonu z Anthropic trwała już długo. Rozumiem jednak, że od czasu, gdy Departamentem Obrony kieruje nowa administracja, z racji swoich ambicji geopolitycznych, zażądano więcej. Pewne zaawansowane zastosowania technologii miały zostać udostępnione wojsku.
Anthropic to ciekawa firma. W przeciwieństwie do ChatGPT, który ma być „dla każdego i do wszystkiego”, buduje wyspecjalizowane modele dla finansów, prawa czy akademii. Gdyby przystali na nowe żądania Pentagonu - dotyczące np. masowego nadzoru algorytmicznego, przetwarzania najróżniejszych danych czy broni autonomicznej - zraziliby do siebie inne sektory, z którymi współpracują na bazie zaufania. Powołali się na swój moralny kościec, ale pewnie była w tym też biznesowa kalkulacja i odstąpili od umowy.