Американская компания Anthropic, разработчик ИИ-модели Claude, заявила о масштабных атаках со стороны трех китайских лабораторий искусственного интеллекта.
Речь идет о компаниях DeepSeek, Moonshot и MiniMax, которые, по версии истца, незаконно извлекали возможности Claude для улучшения собственных моделей.
В официальном заявлении на платформе X компания использовала формулировку «масштабные кампании» и «масштабные атаки».

По данным Anthropic, лаборатории совершили более 16 миллионов транзакций с Claude примерно через 24 тысячи мошеннических аккаунтов.
Таким образом злоумышленники нарушали условия обслуживания и региональные ограничения доступа.
В качестве основного инструмента использовалась методика «дистилляции» — процесс обучения менее совершенной модели на основе результатов работы более продвинутой.
Сама по себе дистилляция является легитимным и широко используемым методом.
Однако, как подчеркивают в Anthropic, методика может использоваться и в незаконных целях.
Конкуренты получают возможность приобрести мощные технологии за гораздо меньшее время и по значительно более низкой цене по сравнению с самостоятельной разработкой.
В компании отмечают, что интенсивность и изощренность таких кампаний растет.
Там призвали к быстрым и скоординированным действиям со стороны участников отрасли, политиков и мирового сообщества ИИ, подчеркнув, что угроза выходит за пределы отдельной компании или региона.
Спецпредставитель президента РФ по экономическому сотрудничеству, глава РФПИ Кирилл Дмитриев назвал ситуацию «первой мировой войной моделей ИИ».











