Společnosti AI si najímají odborníky na zbraně uprostřed rostoucích bezpečnostních obav

7

Přední společnosti zabývající se umělou inteligencí Anthropic a OpenAI aktivně zapojují odborníky na zbraně a výbušniny, aby snížili potenciál katastrofického zneužití svých pokročilých modelů umělé inteligence. Tyto akce zdůrazňují rostoucí povědomí v oboru, že nekontrolovaný přístup k výkonné umělé inteligenci může mít zničující následky.

Hledání specializovaných zkušeností

Obě společnosti zveřejnily pracovní inzeráty hledající lidi s hlubokými znalostmi o chemických zbraních, výbušninách a radiologických rozptylovacích zařízeních (špinavé bomby). Společnost Anthropic konkrétně hledá odborníka na politiku, který by vyvíjel a monitoroval „bezpečnostní mechanismy“ pro své systémy umělé inteligence, které by zabránily jejich použití ke škodlivým účelům. Tato role vyžaduje minimálně pět let zkušeností v zbrojním obranném průmyslu a schopnost rychle reagovat na eskalující hrozby identifikované v požadavcích uživatelů.

OpenAI mezitím rozšiřuje svůj tým „Přípravy“ o výzkumníky věnující se identifikaci a předpovídání „hraničních rizik“ spojených s jejími nejvýkonnějšími modely umělé inteligence. Klíčová pozice, Threat Modeler, bude centralizovat hodnocení rizik napříč technickými, manažerskými a politickými funkcemi.

Rostoucí napětí s vládními agenturami

Tyto nábory následují po nedávných střetech mezi Anthropic a americkým ministerstvem války (DOW). DOW požadoval neomezený přístup k chatbotovi Anthropic Claude, čemuž se Anthropic bránil kvůli obavám z hromadného sledování a integrace do autonomních zbraňových systémů. Generální ředitel Dario Amodei vyjádřil silný odpor vůči kontraktům, které by Clauda nasadily pro takové účely.

Naproti tomu OpenAI již uzavřela dohodu s DOW o nasazení své AI v uzavřených prostředích, i když s vlastními červenými liniemi proti hromadnému sledování a autonomním zbraním. Divergence podtrhuje rostoucí napětí mezi společnostmi s umělou inteligencí, které se snaží kontrolovat používání svých technologií, a vládami, které se snaží je používat pro národní bezpečnost.

Širší důsledky

Najímání odborníků na zbraně je jasným uznáním skutečných hrozeb, které představuje nekontrolovaný vývoj AI. Skutečnost, že se společnosti aktivně připravují na nejhorší možné scénáře, naznačuje, že riziko zneužití považují za důvěryhodné a okamžité. To vyvolává zásadní otázky týkající se správy AI, rovnováhy mezi inovacemi a bezpečností a role soukromých společností při zvládání existenčních hrozeb.

Reakce průmyslu na tyto výzvy bude utvářet budoucnost umělé inteligence a určí, zda se stane nástrojem pokroku nebo katalyzátorem katastrofy.