ИИ-Компании Нанимают Экспертов по Оружию на Фоне Растущей Опасения по Поводу Безопасности

23
ИИ-Компании Нанимают Экспертов по Оружию на Фоне Растущей Опасения по Поводу Безопасности

Ведущие компании в области искусственного интеллекта, Anthropic и OpenAI, активно привлекают специалистов по вооружению и взрывчатым веществам для снижения потенциала катастрофического злоупотребления их передовыми моделями ИИ. Эти действия подчеркивают растущее осознание в отрасли того, что бесконтрольный доступ к мощному ИИ может иметь разрушительные последствия.

Поиск Специализированного Опыта

Обе компании разместили объявления о вакансиях, ищущих людей с глубокими знаниями в области химического оружия, взрывчатых веществ и радиологических устройств распыления (грязных бомб). Anthropic конкретно ищет эксперта по политике для разработки и мониторинга «защитных механизмов» для своих ИИ-систем, предотвращая их использование в злонамеренных целях. Эта роль требует не менее пяти лет опыта работы в сфере обороны вооружений и способности оперативно реагировать на эскалацию угроз, обнаруженных в запросах пользователей.

OpenAI, тем временем, расширяет свою команду «Подготовки» исследователями, занимающимися выявлением и прогнозированием «фронтирных рисков», связанных с его самыми мощными моделями ИИ. Ключевая позиция, «Моделировщик Угроз», будет централизовать оценку рисков между техническими, управленческими и политическими подразделениями.

Растущая Напряженность с Государственными Структурами

Эти наймы последовали за недавними столкновениями между Anthropic и Министерством Войны США (DOW). DOW потребовал неограниченного доступа к чат-боту Claude от Anthropic, чему Anthropic сопротивлялся из-за опасений массовой слежки и интеграции в автономные системы вооружений. Генеральный директор Дарио Амодей выразил резкую оппозицию контрактам, которые предусматривали бы развертывание Claude для таких целей.

В отличие от этого, OpenAI уже заключил с DOW сделку о развертывании своего ИИ в закрытых средах, хотя и с самоналоженными «красными линиями» против массовой слежки и автономной вооруженности. Это расхождение подчеркивает растущую напряженность между ИИ-компаниями, стремящимися контролировать использование своих технологий, и правительствами, стремящимися использовать их для национальной безопасности.

Более Широкие Последствия

Найм экспертов по вооружению является резким признанием реальных угроз, исходящих от бесконтрольного развития ИИ. Тот факт, что компании активно готовятся к наихудшим сценариям, говорит о том, что они считают риск злоупотребления достоверным и немедленным. Это ставит фундаментальные вопросы об управлении ИИ, балансе между инновациями и безопасностью и роли частных компаний в управлении экзистенциальными угрозами.

Реакция отрасли на эти вызовы сформирует будущее ИИ, определяя, станет ли он инструментом прогресса или катализатором катастрофы.