شرکت تحلیل بلاکچینی Elliptic، ضمن شناسایی پنج شیوه جدید کلاهبرداری با استفاده از هوش مصنوعی در حوزه ارزهای دیجیتال، به چگونگی تسهیل حملات سایبری و ایجاد طرحهای کلاهبرداری در حوزه رمزارزها با AI اشاره کرد.
شرکت تحلیل بلاکچين الیپتیک (Elliptic) به تازگی گزارشی جامع با عنوان وضعیت جرایم رمزارزی مبتنی بر هوش مصنوعی: گونهشناسیهای نوظهور و روندهایی که باید به آنها توجه کرد» را منتشر کرده است. این گزارش نگرانکننده، پرده از سوءاستفاده از هوش مصنوعی (AI) برای تسهیل انواع جرایم رمزارزی برمیدارد.
امروزه هوش مصنوعی برای بسیاری از صنایع، ابزاری تحولآفرین و انقلابی به شمار میرود، اما سوءاستفاده از آن در حوزه رمزارز به دغدغهای جدی تبدیل شده است.
هوش مصنوعی چگونه جرایم رمزارزی را متحول میکند: یافتههای الیپتیک
گزارش الیپتیک پنج شیوه اصلی استفاده از هوش مصنوعی در جرایم رمزارزی را شناسایی کرده است.
اولین و شاید بدنامترین آنها، استفاده از دیپفیک (Deepfake) ساختهشده توسط AI است. در این نوع از کلاهبرداری، اغلب از تصاویر یا ویدیوهای جعلی با حضور افراد مشهور برای متقاعد کردن افراد استفاده میشود، برای مثال، کلاهبرداران به کمک دیپفیکِ چهرههایی مانند ایلان ماسک و نخستوزیر سابق سنگاپور، لی هسئین لونگ، برای تبلیغ طرحهای سرمایهگذاری فریبکارانه سوءاستفاده کردهاند. این مجرمین، دیپفیکها را در پلتفرمهای رسانههای اجتماعی مانند تیکتاک و ایکس (توییتر سابق) منتشر میکنند و سرمایهگذاران بیخبر را فریب میدهند. الیپتیک برای مقابله با این کلاهبرداریها، توصیه میکند به نشانههای هشداردهنده خاصی توجه شود:
خوشبختانه، تعدادی نشانه هشداردهنده وجود دارد که میتواند به شما در جلوگیری از قربانی شدنِ کلاهبرداریهای دیپفیک کمک کند. برای تأیید صحت ویدیو، میتوانید بررسی کنید که آیا حرکات لب و صدا همزمان هستند یا خیر، مطمئن شوید که سایهها در جای مورد انتظار ظاهر میشوند و فعالیتهای صورت مانند پلک زدن هم طبیعی به نظر برسند.
ایجاد توکنهای کلاهبرداری، یکی دیگر از جرایم رایج تسهیلشده توسط هوش مصنوعی است. در بسیاری از بلاکچینها، ایجاد توکنی جدید به نسبت آسان است. کلاهبرداران از این موضوع برای ایجاد هیجان کاذب و افزایش مصنوعی قیمتها سوءاستفاده میکنند و سپس با اجرای طرحهای راگ پول (Rug Pull) یا پامپ و دامپ (Pump and Dump) سرمایهگذاران را متضرر میکنند. توکنهایی با نامهایی که به هوش مصنوعی اشاره دارند، مانند «GPT»، بهطور ویژه مورد توجه قرار گرفتهاند. تحقیقات الیپتیک، موارد متعدد کلاهبرداریها را با چنین توکنهایی برجسته میکند که بر لزوم احتیاط در سرمایهگذاری روی توکنها تأکید دارد.
مجرمین سایبری برای پیشبرد فعالیتهای غیرقانونی خود، به سراغ مدلهای زبانی بزرگ (Large Language Models) مانند چتجیپیتی (ChatGPT) نیز رفتهاند. این ابزارهای هوش مصنوعی میتوانند کدهای جدید تولید کرده یا کدهای موجود را بررسی کنند که از آنها میتوان برای شناسایی و سوءاستفاده از نقاط ضعف سیستمها استفاده کرد. اگرچه شرکتهایی مانند مایکروسافت و OpenAI گزارش دادهاند که بازیگران دولتی از روسیه و کره شمالی از این تکنولوژی برای اهداف مخرب استفاده کردهاند، اما هوش مصنوعی هنوز به جایی نرسیده است که بتواند به طور مداوم حملات سایبری موفق را تسهیل کند. با این وجود، ظهور ابزارهای هوش مصنوعی غیرقانونی مانند HackedGPT و WormGPT در انجمنهای دارک وب، تهدیدی جدی به شمار میرود. این ابزارها خدماتی برای فیشینگ، ساخت بدافزار و هک ارائه میدهند.
یکی دیگر از حوزههایی که هوش مصنوعی در آن تأثیرگذار است، خودکارسازی اجرای کلاهبرداری است. برخی از عملیاتهای کلاهبرداری شامل ایجاد وبسایتهای جعلی برای سرمایهگذاری، دریافت رایگان ارز دیجیتال (ایردراپ) یا هدیه است که به طور گسترده از طریق شبکههای اجتماعی و برنامههای پیامرسان تبلیغ میشوند. پس از افشا شدن، این سایتها رها شده و فرآیند با سایتها و بازاریابی جدید آغاز میشود. از هوش مصنوعی برای سادهسازی این فرآیند چرخهای استفاده میشود و این کار باعث میشود ردیابی کلاهبرداریها سختتر شود.
سرقت هویت و جعل اسناد، مدتهاست که از ارکان اصلی دارک وب به شمار میرود. اکنون، برخی از سرویسها هوش مصنوعی را برای گسترش عملیات خود به کار میگیرند. برای مثال، سرویس جعل سندی با استفاده از هوش مصنوعی برای تولید کارتهای شناسایی و گذرنامههای تقلبی با کیفیت بالا تبلیغ میکرد. این شرکت همچنین اضافه کرد:
الیپتیک آدرس رمزارزی را که برای پرداخت به این سرویس استفاده میشده، شناسایی کرده است؛ این آدرس برای تولید حدود ۵۰۰۰ سند جعلی در یک ماه، وجوه دریافت کرده است.
کمیسیون معاملات آتی کالایی (CFTC) در ژانویه، هشداری در مورد کلاهبرداریهای مبتنی بر هوش مصنوعی صادر کرد. این سازمان در مورد طرحهایی هشدار داد که با استفاده از الگوریتمهای آربیتراژ