Anthropic обвиняет трёх китайских компаний за «дистилляцию» своих ИИ‑моделей

Anthropic обвиняет трёх китайских компаний за «дистилляцию» своих ИИ‑моделей

19 hardware

Китайские компании обвиняются в «дистилляции» моделей Claude

*OpenAI уже в этом месяце предупреждала законодателей о том, как китайский стартап DeepSeek использует метод дистилляции для ускорения собственного развития ИИ‑моделей. Теперь к списку подозреваемых попали ещё два конкурента – MiniMax Group и Moonshot.*


Что говорят представители Anthropic

Согласно Bloomberg, Anthropic обвиняет три китайских фирмы в нарушении правил использования своих моделей семейства Claude. По оценкам компании:

- Более 16 млн сессий обмена данными между этими компаниями и моделями Claude.
- Взаимодействие осуществлялось через тысячи поддельных учётных записей и прокси‑серверы, что позволило минимизировать риск обнаружения.

Anthropic подчёркивает, что метод дистилляции позволяет быстро «взломать» обученные модели: разработчики используют данные, полученные от чужих систем, чтобы ускорить собственный прогресс.


Почему это важно

- Ускорение конкуренции. Китайские компании активно внедряют более доступные ИИ‑модели для работы с текстом, видео и изображениями, обходя дорогие западные решения.
- Риск монетизации. Компании, полагающиеся на закрытую экосистему, сталкиваются с трудностями в защите своих интеллектуальных активов.

Anthropic отмечает, что действия китайских разработчиков становятся всё более изощрёнными, а «окно для ответных действий» сокращается. Угроза выходит за пределы одной компании и региона.


Примеры нарушений

КомпанияОценка количества обменов
DeepSeek~150 000
MiniMax>13 млн

*DeepSeek уже год назад представила модель R1, которая при сопоставимой результативности обошлась в разы дешевле западных конкурентов. С тех пор китайский рынок насыщен доступными ИИ‑решениями.*


Как Anthropic реагирует

- Новые методы защиты от дистилляции.
- Готовность делиться ими с партнёрами и отраслью в целом: «Ни одна компания не справится с этим в одиночку. Достигнуть устойчивой защиты нужно совместными усилиями ИИ‑компаний, облачных провайдеров и регуляторов».

Таким образом, Anthropic поднимает вопрос о необходимости координированных мер по защите интеллектуальной собственности в быстро развивающейся индустрии искусственного интеллекта.

Комментарии (0)

Оставьте отзыв — пожалуйста, будьте вежливы и по теме.

Пока нет комментариев. Оставьте комментарий — поделитесь своим мнением!

Чтобы оставить комментарий, войдите в аккаунт.

Войти, чтобы комментировать