Ведущие компании в области искусственного интеллекта, Anthropic и OpenAI, активно привлекают специалистов по вооружению и взрывчатым веществам для снижения потенциала катастрофического злоупотребления их передовыми моделями ИИ. Эти действия подчеркивают растущее осознание в отрасли того, что бесконтрольный доступ к мощному ИИ может иметь разрушительные последствия.
Поиск Специализированного Опыта
Обе компании разместили объявления о вакансиях, ищущих людей с глубокими знаниями в области химического оружия, взрывчатых веществ и радиологических устройств распыления (грязных бомб). Anthropic конкретно ищет эксперта по политике для разработки и мониторинга «защитных механизмов» для своих ИИ-систем, предотвращая их использование в злонамеренных целях. Эта роль требует не менее пяти лет опыта работы в сфере обороны вооружений и способности оперативно реагировать на эскалацию угроз, обнаруженных в запросах пользователей.
OpenAI, тем временем, расширяет свою команду «Подготовки» исследователями, занимающимися выявлением и прогнозированием «фронтирных рисков», связанных с его самыми мощными моделями ИИ. Ключевая позиция, «Моделировщик Угроз», будет централизовать оценку рисков между техническими, управленческими и политическими подразделениями.
Растущая Напряженность с Государственными Структурами
Эти наймы последовали за недавними столкновениями между Anthropic и Министерством Войны США (DOW). DOW потребовал неограниченного доступа к чат-боту Claude от Anthropic, чему Anthropic сопротивлялся из-за опасений массовой слежки и интеграции в автономные системы вооружений. Генеральный директор Дарио Амодей выразил резкую оппозицию контрактам, которые предусматривали бы развертывание Claude для таких целей.
В отличие от этого, OpenAI уже заключил с DOW сделку о развертывании своего ИИ в закрытых средах, хотя и с самоналоженными «красными линиями» против массовой слежки и автономной вооруженности. Это расхождение подчеркивает растущую напряженность между ИИ-компаниями, стремящимися контролировать использование своих технологий, и правительствами, стремящимися использовать их для национальной безопасности.
Более Широкие Последствия
Найм экспертов по вооружению является резким признанием реальных угроз, исходящих от бесконтрольного развития ИИ. Тот факт, что компании активно готовятся к наихудшим сценариям, говорит о том, что они считают риск злоупотребления достоверным и немедленным. Это ставит фундаментальные вопросы об управлении ИИ, балансе между инновациями и безопасностью и роли частных компаний в управлении экзистенциальными угрозами.
Реакция отрасли на эти вызовы сформирует будущее ИИ, определяя, станет ли он инструментом прогресса или катализатором катастрофы.
