شرکت آنتروپیک، سازنده هوش مصنوعی Claude، سه غول هوش مصنوعی چین را متهم کرده که با ساخت ۲۴ هزار اکانت جعلی و ارسال ۱۶ میلیون درخواست، اطلاعات کلاود را برای ارتقای مدلهای بومی خود «تقطیر» کردهاند.
فرایند «تقطیر» (Distillation) شبیه تقلب از روی دست شاگرد اول کلاس است. در این روش مدل زبانی ضعیفتر با بمباران سوالات هدفمند، خروجیهای مدل قویتر را استخراج میکند و از آن برای ارتقای دانش خود بهره میبرد. اینکار غیرمجاز است اما هزینه و زمان تحقیق و توسعه مدلهای زبانی را برای رقبای چینی به شدت کاهش میدهد.
سهم هر شرکت از این سرقت چقدر است؟
طبق گزارش آنتروپیک حجم و هدف حملات انجام شده توسط هر شرکت متفاوت بوده:
- دیپسیک (DeepSeek): با ارسال بیش از ۱۵۰ هزار درخواست روی بهبود منطق و پیدا کردن راههایی برای دور زدن محدودیتهای سانسور تمرکز داشته است.
- مونشات (Moonshot AI): با ثبت ۳.۴ میلیون درخواست به دنبال یادگیری توانایی استدلال، کدنویسی و تحلیل داده بوده است.
- مینیمکس (MiniMax): با حدود ۱۳ میلیون درخواست متهم ردیف اول است و هدفش تقویت کدنویسی و بهکارگیری ابزارها عنوان شده.
این شرکتها برای دور زدن معیارهای امنیتی کلاود، الگوهای تکراری خود را با درخواستهای عادی کاربران ترکیب میکردند.
خطرات مدلهای کپی شده
خطر واقعی فراتر از کپیرایت است. شرکتهایی مثل آنتروپیک روی مدلهای خود لایههای امنیتی سختی قرار میدهند تا کسی نتواند از هوش مصنوعی برای ساخت بدافزارها یا سلاحهای بیولوژیک استفاده کند؛ اما وقتی سیستم کپی یا «تقطیر» میشود، این لایههای محافظتی از بین میروند.
آنتروپیک هشدار میدهد که مدلهای کپیشده و بدون محدودیت، پتانسیل بالایی برای تبدیل شدن به سلاحهای سایبری، ماشینهای تولید اخبار جعلی و ابزارهای نظارت همگانی دارند.
آنتروپیک در این ادعا تنها نیست و شرکت OpenAI هم اخیراً در نامهای رسمی به کنگره آمریکا، دیپسیک را به استفاده از همین تکنیک برای مهندسی معکوس محصولاتش متهم کرده بود.

نظر بدهید
نشانی ایمیل شما منتشر نخواهد شد.