Firmy AI zatrudniają ekspertów ds. broni w obliczu rosnących obaw o bezpieczeństwo

3

Wiodące firmy zajmujące się sztuczną inteligencją, Anthropic i OpenAI, aktywnie angażują ekspertów w dziedzinie broni i materiałów wybuchowych, aby ograniczyć ryzyko katastrofalnych nadużyć w ich zaawansowanych modelach sztucznej inteligencji. Działania te podkreślają rosnącą świadomość branży, że niekontrolowany dostęp do potężnej sztucznej inteligencji może mieć niszczycielskie konsekwencje.

Znajdowanie specjalistycznego doświadczenia

Obie firmy zamieściły ogłoszenia o pracę, poszukując osób posiadających dogłębną wiedzę z zakresu broni chemicznej, materiałów wybuchowych i urządzeń do rozpraszania radiologicznego (brudnych bomb). Anthropic poszukuje w szczególności eksperta ds. polityki, który opracuje i monitoruje „mechanizmy bezpieczeństwa” dla swoich systemów sztucznej inteligencji, zapobiegające ich wykorzystaniu do złośliwych celów. Rola ta wymaga minimum pięcioletniego doświadczenia w branży zbrojeniowej i umiejętności szybkiego reagowania na eskalujące zagrożenia identyfikowane w zgłoszeniach użytkowników.

Tymczasem OpenAI powiększa swój zespół „Prepare” o badaczy zajmujących się identyfikowaniem i przewidywaniem „granicznych zagrożeń” związanych z najpotężniejszymi modelami sztucznej inteligencji. Kluczowe stanowisko, specjalista ds. modelowania zagrożeń, będzie centralizować ocenę ryzyka w obszarach technicznych, zarządczych i politycznych.

Rosnące napięcia z agencjami rządowymi

Pracownicy ci są następstwem niedawnych starć pomiędzy Anthropic a Departamentem Wojny Stanów Zjednoczonych (DOW). DOW zażądał nieograniczonego dostępu do chatbota Anthropic Claude, czemu Anthropic sprzeciwił się ze względu na obawy związane z masową inwigilacją i integracją z autonomicznymi systemami uzbrojenia. Dyrektor generalny Dario Amodei wyraził zdecydowany sprzeciw wobec umów, na mocy których Claude byłby wykorzystywany do takich celów.

Z kolei OpenAI zawarło już umowę z DOW w sprawie wdrożenia sztucznej inteligencji w zamkniętych środowiskach, aczkolwiek z narzuconymi przez siebie czerwonymi liniami przeciwko masowej inwigilacji i autonomicznej broni. Rozbieżność podkreśla rosnące napięcie między firmami zajmującymi się sztuczną inteligencją, które chcą kontrolować wykorzystanie swojej technologii, a rządami pragnącymi wykorzystać ją dla bezpieczeństwa narodowego.

Szersze implikacje

Zatrudnianie ekspertów ds. broni stanowi wyraźne potwierdzenie rzeczywistych zagrożeń, jakie stwarza niekontrolowany rozwój sztucznej inteligencji. Fakt, że firmy aktywnie przygotowują się na najgorsze scenariusze, sugeruje, że postrzegają ryzyko nadużyć jako wiarygodne i bezpośrednie. Rodzi to fundamentalne pytania dotyczące zarządzania sztuczną inteligencją, równowagi między innowacjami a bezpieczeństwem oraz roli prywatnych firm w zarządzaniu zagrożeniami egzystencjalnymi.

Odpowiedź branży na te wyzwania ukształtuje przyszłość sztucznej inteligencji, określając, czy stanie się ona narzędziem postępu, czy katalizatorem katastrofy.