18 kwietnia na kontach społecznościowych firmy Palantir pojawił się wpis, będący rodzajem manifestu ideowego. W 22 punktach streszczono w nim główne tezy książki „Republika technologiczna” napisanej przez Alexa Carpa, prezesa Palantira oraz przez Nicholasa Zamiskę, szefa działu ds. korporacyjnych tej spółki.
Czytaj więcej
Donald Trump nakazał w piątek każdej agencji rządowej Stanów Zjednoczonych natychmiastowe zaprzestanie korzystania z technologii firmy Anthropic za...
„Granice miękkiej siły i samej tylko wzniosłej retoryki zostały obnażone. Zdolność wolnych i demokratycznych społeczeństw do zwycięstwa wymaga czegoś więcej niż moralnego apelowania. Wymaga twardej siły, a twarda siła w tym stuleciu będzie budowana na oprogramowaniu. Pytanie nie brzmi, czy broń oparta na sztucznej inteligencji zostanie zbudowana; pytanie brzmi, kto ją zbuduje i w jakim celu. Nasi przeciwnicy nie będą zwlekać, oddając się teatralnym debatom na temat zalet rozwijania technologii o kluczowym znaczeniu militarnym i dla bezpieczeństwa narodowego. Oni będą działać. (...) Jeśli amerykański Marines prosi o lepszy karabin, powinniśmy go zbudować; to samo dotyczy oprogramowania. (...) Era atomowa dobiega końca. Jedna era odstraszania – era atomowa – kończy się, a nowa era odstraszania zbudowana na sztucznej inteligencji właśnie się zaczyna” – mówił tam wpis.
Czytaj więcej
Dziennikarskie śledztwo wykazało, że Izrael wykorzystuje technologię Microsoftu do masowej inwigilacji Palestyńczyków. Władze Microsoftu początkowo...
Były tam jeszcze m.in. wzmianki o pozytywnej roli USA w utrzymywaniu globalnego porządku oraz o tym, że niektóre kultury są znacznie lepsze od innych. Część użytych tam sformułowań zszokowała zachodnią lewicę. Wstrząs przeżył też m.in. Aleksander Dugin – rosyjski propagandzista pozujący na filozofa. Napisał, że książka „Republika technologiczna” jest „manifestem technofaszyzmu”. Widać więc, że tak jednoznaczne opowiedzenie się przez Palantir po stronie amerykańskiej potęgi wzbudziło poważne obawy wrogów USA.
Broń autonomiczna i AI. Nowa era wojny już trwa
Stwierdzenie, że sztuczna inteligencja ma coraz większe zastosowanie militarne, to straszny banał. Możemy się bowiem o tym dowiedzieć z codziennych wiadomości. Wiadomo, że AI pomogła Ukraińcom w zeszłorocznej operacji „Pajęczyna”, polegającej na uderzeniach dronowych w rosyjskie bombowce strategiczne. Wiadomo również, że została wykorzystana zarówno do przeprowadzenia amerykańskiej operacji wojskowej w Wenezueli, jak i do wyboru celów podczas bombardowań Iranu. Na Ukrainie prowadzone są już doświadczenia z dronami, które po zaakceptowaniu celu przez operatora będą sterowane przez AI w trakcie ataku na cel. Tego typu technologie na pewno będą się dalej rozwijały, a będą temu towarzyszyły coraz większe obiekcje natury moralnej.
Czytaj więcej
Prezes OpenAI Sam Altman ogłosił późnym wieczorem w piątek, że jego firma podpisała umowę z Pentagonem dotyczącą wykorzystania jej narzędzi sztuczn...
Problem z ograniczeniami etycznymi dotyczącymi militarnych zastosowań sztucznej inteligencji dał już o sobie znać choćby w przypadku sporu pomiędzy Pentagonem a firmą Anthropic. Opracowany przez tę spółkę model sztucznej inteligencji Claude został wykorzystany w styczniu przez siły zbrojne USA w czasie operacji specjalnej w Caracas, w ramach której pojmano wenezuelskiego socjalistycznego prezydenta Nicolasa Maduro. Nie wiadomo, do czego konkretnie użyty został ten program. Co prawda licencja użytkownika modelu Claude wyklucza jego wykorzystywanie do działań przemocowych, ale Pentagon obszedł to ograniczenie, korzystając z partnerstwa pomiędzy Anthropic a Palantirem. Później doszło do negocjacji pomiędzy Anthropic a Departamentem Wojny USA dotyczących zasad wykorzystania modelu Claude. Zakończyły się one fiaskiem, bo spółka sprzeciwiała się wykorzystaniu go do tworzenia broni autonomicznych (dokonujących uderzeń bez decyzji człowieka) oraz do masowej inwigilacji. Pentagon ogłosił więc firmę Anthropic zagrożeniem dla łańcuchów dostaw, co teoretycznie oznacza, że amerykańskie siły zbrojne oraz inne instytucje rządowe nie powinny przyznawać jej kontraktów, ani korzystać z jej produktów. W marcu Anthropic złożyła pozew przeciwko Departamentowi Wojny. Sąd pierwszej instancji przychylił się do jej argumentów, ale federalny sąd apelacyjny nie zgodził się na to, by czasowo zablokować oznaczenie Anthropic jako „zagrożenia dla łańcuchów dostaw”.
Czytaj więcej
Ministerstwo Obrony Ukrainy sięga po najnowocześniejszą technologię z USA – Clearview AI. Zaawansowane narzędzie ma rozpoznawać m.in. twarze rosyjs...
Niedawno jednak relacje Anthropic z administracją Trumpa wyraźnie się poprawiły. 17 kwietnia Dario Amodei, prezes Anthropic, spotkał się ze Scottem Bessentem, sekretarzem skarbu USA i Susie Wiles, szefową personelu Białego Domu. Rozmowy miały być „produktywne i konstruktywne”, a dotyczyły one nowego modelu sztucznej inteligencji o nazwie Claude Mythos. Ten model jest przedstawiany jako „zbyt niebezpieczny”, by można go było powszechnie udostępniać.
Claude Mythos budzi obawy. AI może zmienić cyberwojnę
Niebezpieczeństwo związane z Mythosem ma się wiązać przede wszystkim z tym, że doskonale radzi on sobie ze znajdowaniem luk w zabezpieczeniach cybernetycznych. Może więc zarówno być świetny w cyberobronie, jak i stać się niezwykle potężną bronią w rękach hakerów. Amodei podczas rozmowy z Bessentem miał m.in. wskazywać na czynniki ryzyka z tym związane dla sektora bankowego.
Czytaj więcej
Agencja Uzbrojenia podpisała umowę na zakup 360 sztuk amunicji krążącej Warmate od Grupy WB. Dostawy rozpoczną się jeszcze przed świętami, a zakońc...
Anthropic jak dotąd udostępnił model Claude Mythos jedynie 40 firmom i organizacjom. Ujawnił nazwy tylko 12 z nich. Serwis Axios doniósł jednak, że Mythosa używa już Agencja Bezpieczeństwa Narodowego (NSA), czyli główna amerykańska służba wywiadu zagranicznego. Wykorzystuje ona ten model sztucznej inteligencji, pomimo tego, że Departament Wojny (czyli instytucja, której NSA jest bezpośrednio podległa) oficjalnie uznał Anthropic za „zagrożenie dla łańcuchów dostaw”. Jak widać, pokusa sięgnięcia po najnowocześniejszy model sztucznej inteligencji okazała się silniejsza od biurokratycznych zakazów. Nie wiadomo, do czego NSA go wykorzystuje, ale do zadań tej agencji należy również zdobywanie informacji poprzez włamywanie się do komputerów wrogich (i nie tylko wrogich) rządów, służb oraz organizacji pozapaństwowych. Jeśli Claude Mythos jest rzeczywiście tak groźny, jak jest reklamowany, to NSA ma szansę zdobyć dzięki niemu przewagę m.in. nad chińskimi oraz rosyjskimi hakerami.
AI sprawi też zapewne, że podczas przyszłych wojen ataki hakerskie będą odgrywały dużo ważniejszą rolę niż podczas dotychczasowych konfliktów.