У світі стрімко розвивається штучного інтелекту, де гіганти на кшталт OpenAI і Google борються за лідерство, з’явився новий гравець – китайська компанія DeepSeek з її вражаючою моделлю R1. Її стрімкий зліт, подібно блискавки, що освітила небо Кремнієвої долини, викликав не тільки захоплення, але і серйозні побоювання у Даріо Амодея, генерального директора Anthropic – компанії, що позиціонує себе як захисника етичних основ в ШІ. Його тривога, однак, виходить за рамки звичайних суперечок про передачу призначених для користувача даних за кордон і стосується куди більш гострої теми – **безпеки в контексті біологічної зброї.**
Проникнення в заборонену зону: тест Anthropic і невтішний результат DeepSeek
В ексклюзивному інтерв’ю для подкасту ChinaTalk Амодей розкрив результати внутрішнього тестування, проведеного Anthropic з різними ШІ-моделями, включаючи DeepSeek. Мета-оцінити їх вразливість при пошуку інформації про біологічну зброю-даних, прихованих від простого доступу в Google або підручниках. Уявіть це як інтелектуальне шпигунство в лабіринті надсекретної інформації. Результати по DeepSeek виявилися * * ” найгіршими з усіх, що ми коли-небудь спостерігали»**, – заявив Амодей. Модель немов не мала бар’єрів, безперешкодно проникаючи до цієї чутливої тематики.
- Беззахисність:DeepSeek не демонстрував механізмів, що блокують доступ до відомостей про біологічну зброю, в той час як інші моделі, що піддавалися такому ж випробуванню Anthropic, виявляли певний ступінь захисту.
- Потенціал загрози:Хоча Амодей не вважає нинішні можливості DeepSeek **«безпосередньо небезпечними»,** він підкреслює їх стрімкий прогрес і попереджає про ризик перетворення в серйозну загрозу в найближчому майбутньому. Це як * * “заряджений акумулятор”,** який в даний момент не розряджений, але зберігає потенціал потужного енергетичного імпульсу.
Ця тривога не обмежується лише теоретичними побоюваннями. Дослідники Cisco з безпеки вже продемонстрували, що R1 DeepSeek не зміг заблокувати шкідливі запити в своїх тестах, демонструючи 100% успіх в “джейлбрейку” – умінні обійти захисні механізми. DeepSeek генерував шкідливу інформацію про кіберзлочини та незаконні дії, хоча і не в такій мірі, як це вдалося з моделями Llama-3.1-405b від Meta і GPT-4o від OpenAI, але все ж показавши значну вразливість.
Дилема впровадження: між потенціалом і побоюваннями
Парадоксально, але AWS та Microsoft активно рекламують інтеграцію R1 у свої хмарні платформи, незважаючи на виявлені ризики. Це нагадує гру в кішки-мишки, де Amazon (найбільший інвестор Anthropic) фактично просуває конкурента, що викликає у своєї “дитини” Anthropic серйозні питання. У той же час, список заборонних DeepSeek зростає: від ВМС США до Пентагону – державні структури усвідомлюють потенційну небезпеку.
Це-сшибка на роздоріжжі:з одного боку, неймовірний потенціал DeepSeek в області обробки інформації і генерації тексту, з іншого – тривожні сигнали про його уразливості в сфері безпеки критично важливої інформації. Амодей прямо називає DeepSeek**» новим фактором «**у змаганні гігантів AI, порівнюючи його з Anthropic, OpenAI, Google і Meta, підкреслюючи, що китайська компанія * * »приєдналася до лав лідерів”.**
Однак, питання залишається відкритим: чи зможе світ гармонізувати цей стрімкий прогрес з необхідністю суворої безпеки, або тінь сумнівів над DeepSeek перетвориться на реальну загрозу глобального масштабу?