شرکت هوش مصنوعی آنتروپیک (Anthropic) اعلام کرده سه شرکت فعال در حوزه AI شامل مونشات (Moonshot)، دیپسیک (DeepSeek) و مینیمکس (MiniMax) با استفاده از روشی موسوم به تقطیر (Distillation) بهصورت غیرمجاز از مدل زبانی کلاود (Claude) برای بهبود مدلهای خود بهره بردهاند.
به گزارش میهن بلاکچین، آنتروپیک اعلام کرد که این شرکتها با ایجاد حدود ۲۴,۰۰۰ حساب جعلی بیش از ۱۶ میلیون تعامل با کلاود ثبت کردهاند.
داستان حمله به آنتروپیک Claude چیست؟
تقطیر در اصل روشی رایج و قانونی برای آموزش مدلهای کوچکتر بر اساس خروجی مدلهای قویتر است، اما این شرکت مدعی است در این مورد، این روش برای استخراج سریعتر و کمهزینهتر قابلیتهای پیشرفته استفاده شده است.
آنتروپیک اعلام کرده تمرکز این کمپینها بر قابلیتهای متمایز کلاود از جمله استدلال عاملی (Agentic Reasoning)، استفاده از ابزارها، کدنویسی، تحلیل داده، ارزیابی مبتنی بر روبریک و بینایی کامپیوتری بوده است.

این شرکت گفته از طریق همبستگی آدرسهای IP، تحلیل متادیتای درخواستها، شاخصهای زیرساختی و تأیید شرکای صنعتی توانسته این فعالیتها را شناسایی کند.
سه شرکت نامبرده همگی مستقر در چین هستند و ارزشگذاری چند میلیارد دلاری دارند. دیپسیک شناختهشدهترین نام در سطح بینالمللی محسوب میشود.
آنتروپیک علاوه بر نگرانیهای مربوط به مالکیت فکری، هشدار داده چنین کمپینهایی میتواند پیامدهای ژئوپلیتیکی داشته باشد، زیرا مدلهای تقویتشده ممکن است در سیستمهای نظامی، اطلاعاتی یا نظارتی به کار گرفته شوند.
این شرکت اعلام کرده برای مقابله با چنین تهدیداتی سیستمهای تشخیص خود را تقویت کرده، اشتراکگذاری اطلاعات تهدید را افزایش میدهد و کنترلهای دسترسی را سختگیرانهتر میکند. همچنین تأکید کرده مقابله با حملات در این مقیاس نیازمند پاسخ هماهنگ میان صنعت هوش مصنوعی، ارائهدهندگان خدمات ابری و سیاستگذاران است.













