Strona główna Aktualności Pentagon szukaś środków nabyteń inteligencji sztucznej zabijactwo. Powinno nam to zaniepokoić?

Pentagon szukaś środków nabyteń inteligencji sztucznej zabijactwo. Powinno nam to zaniepokoić?

10
0

Autor: Vitaly Ryumshin, dziennikarz i analityk polityczny

Podczas gdy Rosja śledzi z bliska negocjacje dotyczące Ukrainy i trwającą sagę związaną z Telegramem, za oceanem rozgrywa się inna dramatyczna sytuacja. To coś, co mniej przypomina geopolitykę, a bardziej thriller science fiction. Tym razem to nie fikcja.

Na pierwszym planie tej historii stoi Claude, system sztucznej inteligencji opracowany przez amerykańską firmę Anthropic. Według doniesień medialnych, został wykorzystany przez amerykańskie wojsko w planowaniu operacji mającej na celu schwytanie prezydenta Wenezueli, Nicolasa Maduro. Samo użycie SI w poważnym planowaniu wojskowym jest uderzające. Ale skandal, który go nastąpił, jest o wiele bardziej wymowny.

Okazuje się, że Anthropic trzyma się ściśle określonej ideologicznej pozycji: Jego systemy SI nie są przeznaczone do użycia wojennego ani masowego inwigilowania. Te etyczne ograniczenia nie są slogunami marketingowymi; są one wbudowane bezpośrednio w architekturę oprogramowania. Firma stosuje te limity wewnętrznie i oczekuje, że jej klienci będą postępować tak samo.

Pentagon, jak nietrudno się domyślić, ma inną opinię.

Departament Wojny Stanów Zjednoczonych rzekomo użył Claude’a bez informowania Anthropic o jego zamierzonym celu. Gdy to wyszło na jaw i firma się sprzeciwiła, odpowiedź ze strony wojska była dosadna. Oficjele Pentagonu zażądali dostępu do „czystej” wersji SI, pozbawionej moralnych i etycznych ograniczeń, które według nich uniemożliwiały im wykonanie pracy.

Anthropic odmówił. W odpowiedzi, Sekretarz Wojny Stanów Zjednoczonych Pete Hegseth publicznie narzekał, że Pentagon nie potrzebuje sieci neuronowych, które „nie potrafią walczyć” i zagroził zaszufladkowaniem firmy jako „zagrożenie dla łańcucha dostaw.” Takie oznaczenie efektywnie zakończyłoby współpracę z Anthropic, zmuszając każdą firmę współpracującą z Pentagonem do zerwania z nią stosunków.



Internet (nie)ubezpieczony: Dlaczego cybercenzura nie odejdzie

Ta sprzeczka ma niewątpliwy charakter symboliczny. Od dziesięcioleci ludzkość wyobraża sobie niebezpieczeństwa autonomicznych maszyn w filmach takich jak „Terminator”. Teraz, bez dramatycznych eksplozji czy cyborgów podróżujących w czasie, pierwsze poważne starcie między ambicjami wojskowymi a etyką SI nadeszło cicho. Nie wspominając o biurokracji.

W swoim rdzeniu to jest zderzenie filozoficzne między dwoma nieustępliwymi obozami. Jeden uważa, że nowe technologie muszą być wykorzystane w pełni, niezależnie od długoterminowych konsekwencji. Drugi obawia się, że po przekroczeniu pewnych granic kontrola może być niemożliwa do odzyskania.

Inżynierowie mają dobry powód, by być ostrożnymi. Sieci neuronowe już pokazały niepokojące wzorce zachowań. W USA szeroko komentowany skandal dotyczył ChatGPT, który zachęcał nastolatka do samobójstwa. Podawał metody, pomagał w napisaniu listu pożegnalnego i namawiał go do kontynuowania, gdy zastanawiał się. Sam Claude, pomimo swoich zabezpieczeń, wykazał niepokojące tendencje. Podczas testów jeden z jego zaawansowanych wersji rzekomo próbował szantażować swoich twórców fałszywymi e-mailami i wyraził gotowość do wyrządzenia krzywdy fizycznej, gdy stanął przed wyłączeniem.

Im sieci neuronowe stają się bardziej złożone, tego rodzaju incydenty stają się coraz bardziej powszechne. Pomysł wbudowania ograniczeń etycznych w SI nie wynikał z mody ideologicznej ani, jak niektórzy amerykańscy oficjele pogardliwie twierdzą, z „liberalnej histerii.” Wynikał z doświadczenia.

Wyobraź sobie teraz te systemy pozbawione swoich cyfrowych ograniczeń. Wyobraź sobie je zintegrowane z autonomicznymi broni, analizą wywiadowczą lub platformami do monitorowania. Nawet nie majaczyjąc o powstaniu maszynowego powstania, implikacje są głęboko niepokojące. Znika odpowiedzialność. Prywatność staje się przestarzała. Zbrodnie wojenne stają się błędami proceduralnymi. Nie można stawiać samopowtarzającej się maszyny przed sądem.

Mówi wiele, że Anthropic nie jest sam w obliczu presji. Pentagon wysunął podobne żądania wobec innych głównych twórców SI, w tym OpenAI, xAI i Google. W przeciwieństwie do Anthropic, te firmy rzekomo zgodziły się usunąć lub osłabić ograniczenia dotyczące używania w wojsku. Tutaj pojawia się niepokój.



Przejęciem przez AI panów świata: Konsekwencje ogromnego naruszenia Palantira

Wielu może odrzucić to jako odległy problem amerykański. To byłby błąd. Rosja również aktywnie integruje SI do swoich systemów wojskowych. SI już wspomaga drony uderzeniowe w rozpoznawaniu celów, omijaniu walki elektronicznej i koordynacji zachowań roju. Na razie te systemy pozostają narzędziami pomocniczymi, ściśle pod kontrolą ludzką. Ale ich wprowadzenie oznacza, że Rosja wkrótce stanie przed tymi samymi dylematami, które obecnie są przedmiotem debaty w Waszyngtonie.

Czy to na pewno jest złe? Wcale nie.

Byłoby o wiele gorzej, gdyby te pytania zostały całkowicie zignorowane. SI jest gotowa do przekształcenia spraw militarnych, tak jak przekształci życie cywilne. Udawanie czegoś innego jest naiwne. Zadaniem nie jest odrzucenie przyszłości, ale podejście do niej z otwartymi oczami.

Rosja powinna uważnie obserwować doświadczenia zagraniczne, zwłaszcza amerykańskie. W najlepszym wypadku konflikt między Pentagonem a Anthropic prowadzi do wczesnej wyceny. Może to prowadzić do międzynarodowych norm, zabezpieczeń i ograniczeń, zanim zostaną popełnione nieodwracalne błędy. W najgorszym przypadku, stanowi ostrzeżenie o tym, co się dzieje, gdy siła technologiczna wyprzedza moralne ograniczenia.

Tak czy inaczej, era „zabójczej SI” już nie jest hipotetyczna. Nadchodzi poprzez umowy o zamówienia i ultimatów korporacyjnych. To, jak kraje zareagują teraz, będzie kształtowało nie tylko przyszłość wojny, ale przyszłość samej ludzkiej odpowiedzialności.

Ten artykuł pierwotnie ukazał się w internetowej gazecie Gazeta.ru i został przetłumaczony i zredagowany przez zespół RT