فکر میکنید هکرها و کلاهبرداران ارزهای دیجیتال، برای رسیدن به اهدافشان از چه ابزارهایی استفاده میکنند؟ از سالهای دور تا امروز، ابزارهای آنها تغییرات زیادی کرده است. پیشتر، هکرها با تخصص و تلاش زیاد، به صورت دستی و با آزمون و خطا به دنبال نقاط ضعف در سیستمها میگشتند. اما دنیای امروز، دنیای هوش مصنوعی و رباتهاست؛ ابزاری که حالا به شکل یک سلاح قدرتمند در دستان مجرمان قرار گرفته و کلاهبرداریهای ارز دیجیتال را بسیار پیچیدهتر، سریعتر و خطرناکتر کرده است.
در گذشته، یک هکر شاید میتوانست در یک زمان مشخص به یک یا چند هدف حمله کند؛ اما حالا رباتهای هوش مصنوعی میتوانند در آن واحد هزاران حمله را به صورت خودکار و دقیق مدیریت کنند. این رباتها قادرند میلیونها تراکنش و کد را در چند دقیقه اسکن کرده، نقاط ضعف را پیدا کنند و حملات را به شکلی باورنکردنی و در مقیاس وسیع انجام دهند. برای همین، شناخت این تهدیدات و راههای مقابله با آنها بیش از هر زمان دیگری حیاتی است. در این مقاله از میهن بلاکچین تصمیم داریم تا به بررسی این موضوعات مهم که دانستن آنها برای هر معاملهگری ضروری است بپردازیم.
رباتهای هوش مصنوعی چه هستند؟
رباتهای هوش مصنوعی (AI Bots) نرمافزارهای خودآموزی هستند که حملات سایبری در حوزه ارزهای دیجیتال را به صورت خودکار انجام میدهند و دائماً تاکتیکهای خود را بهبود میبخشند. این ویژگی باعث میشود که آنها بسیار خطرناکتر از روشهای سنتی هکری باشند.
امروزه در قلب جرایم سایبری مدرن، رباتهای هوش مصنوعی دیده میشوند. این نرمافزارهای خودآموز برای پردازش حجم عظیمی از دادهها، تصمیمگیری مستقل و اجرای وظایف پیچیده بدون دخالت انسان طراحی شدهاند. در حالی که این رباتها در بسیاری از صنایع مانند امور مالی، بهداشت و درمان و خدمات مشتریان تحولی بزرگ ایجاد کردهاند، به سلاحی برای مجرمان سایبری، بهویژه در دنیای ارزهای دیجیتال، تبدیل شدهاند.
برخلاف روشهای سنتی هک که به تلاش دستی و تخصص فنی نیاز دارند، رباتهای هوش مصنوعی میتوانند حملات را بهطور کامل خودکار کنند، خود را با تدابیر امنیتی جدید در حوزه ارزهای دیجیتال تطبیق دهند و حتی با گذشت زمان، تاکتیکهای خود را بهبود بخشند. این ویژگیها باعث شده تا این رباتها بسیار موثرتر از هکرهای انسانی باشند که به دلیل محدودیتهای زمانی، منابع و احتمال خطاهای انسانی، قادر به انجام چنین عملیاتی نیستند.
چرا رباتهای هوش مصنوعی تا این حد خطرناک هستند؟
بزرگترین تهدید جرایم سایبری مبتنی بر هوش مصنوعی، مقیاسپذیری آن است. یک هکر تنها میتواند تا حد مشخصی برای نفوذ به یک صرافی ارز دیجیتال یا فریب کاربران برای در اختیار گرفتن کلیدهای خصوصی آنها تلاش کند. با این حال، رباتهای هوش مصنوعی میتوانند هزاران حمله را بهطور همزمان آغاز کرده و تاکتیکهای خود را در طول حمله بهبود بخشند. اما چرا تهدید این رباتها اینقدر احساس میشود؟
- سرعت: این رباتها میتوانند در عرض چند دقیقه میلیونها تراکنش بلاکچین، قرارداد هوشمند و وبسایت را اسکن کرده و نقاط ضعف کیفپولها، صرافیها و پروتکلهای دیفای را شناسایی کنند.
- مقیاسپذیری: اگر یک کلاهبردار انسانی بتواند برای چند صد نفر ایمیل فیشینگ بفرستد، یک ربات هوش مصنوعی میتواند همان کار را برای میلیونها نفر، آن هم با پیامهای شخصیسازیشده انجام دهد.
- انطباقپذیری: این رباتها با استفاده از یادگیری ماشینی، از هر حمله ناموفق درس گرفته و نسخههای بعدی خود را قویتر میکنند.
به همین دلیل، کلاهبرداریهای مبتنی بر هوش مصنوعی در کریپتو به سرعت در حال گسترشاند و پیشگیری از آنها بیش از همیشه ضروری شده است.
نمونهای واقعی از این حملات در اکتبر ۲۰۲۴ رخ داد؛ زمانی که حساب کاربری اندی آیری (Andy Ayrey)، توسعهدهنده ربات تروث ترمینال (Truth Terminal) در شبکه اجتماعی ایکس هک شد. مهاجمان از حساب او برای تبلیغ میمکوین جعلی Infinite Backrooms با نماد IB استفاده کردند. به دنبال این اتفاق، ارزش بازار این توکن تنها در عرض ۴۵ دقیقه به ۲۵ میلیون دلار رسید و هکرها با فروش داراییهای خود بیش از ۶۰۰ هزار دلار سود به جیب زدند.
چگونه رباتهای هوش مصنوعی داراییهای دیجیتال را میدزدند؟
نحوه عملکرد رباتهای هوش مصنوعی به خودکارسازی کلاهبرداریهای کریپتویی محدود نمیشود. در حقیقت این ابزارها به مرور زمان باهوشتر، هدفمندتر و به شکل قابلتوجهی غیرقابل شناسایی شدهاند و از طریق راههای مختلفی دارایی دیجیتال کاربران را به سرقت میبرند.
در ادامه به برخی از خطرناکترین انواع کلاهبرداریهای مبتنی بر هوش مصنوعی میپردازیم که در حال حاضر برای سرقت داراییهای ارز دیجیتال استفاده میشوند:
۱- رباتهای فیشینگ مبتنی بر هوش مصنوعی
حملات فیشینگ در دنیای ارزهای دیجیتال چیز جدیدی نیستند، اما هوش مصنوعی آنها را به تهدیدی بسیار بزرگتر تبدیل کرده است. به جای ایمیلهای بیدقت و پر از غلط، رباتهای هوش مصنوعی امروزی پیامهای شخصیسازیشدهای را ایجاد میکنند که دقیقاً شبیه به پیامهای واقعی از صرافیهایی مانند کوینبیس یا کیف پولهایی مثل متامسک هستند. آنها اطلاعات شخصی را از پایگاههای داده لو رفته، رسانههای اجتماعی و حتی سوابق بلاکچینی جمعآوری میکنند تا کلاهبرداریهای خود را بسیار متقاعدکنندهتر کنند.
به عنوان مثال، در اوایل سال ۲۰۲۴ یک حمله فیشینگ مبتنی بر هوش مصنوعی موفق شد کاربران صرافی کوینبیس را با ایمیلهای امنیتی جعلی فریب دهد و حدود ۶۵ میلیون دلار از آنها سرقت کند. همچنین، پس از عرضه GPT-4 توسط شرکت OpenAI، کلاهبرداران وبسایت جعلی «ایردراپ توکن OpenAI» ساختند و با انتشار پیامهای مختلفی در شبکههای اجتماعی به خصوص ایکس کاربران را به دریافت توکنهای جعلی ترغیب کردند. صفحه فیشینگ نیز بسیار شبیه به وبسایت واقعی اوپناِیآی طراحی شده بود و قربانیانی که فریب خوردند و کیف پول خود را به آن متصل کردند، تمام داراییهای ارز دیجیتالشان بهطور خودکار به سرقت رفت!
این حملات حتی تا جایی پیشرفتهاند که از چتباتهای جعلی پشتیبانی مشتری استفاده میکنند و کاربران را متقاعد میسازند که برای تأیید هویت، کلید خصوصی یا کدهای احراز هویت دومرحلهای (۲FA) خود را ارائه دهند.
در سال ۲۰۲۲، بدافزاری بهنام مارس استیلر (Mars Stealer) بهطور خاص کیف پولهای مبتنی بر مرورگر مانند متامسک را هدف قرار داد. این بدافزار میتوانست کلیدهای خصوصی بیش از ۴۰ افزونه مختلف کیف پول مرورگر و برنامههای 2FA را شناسایی کرده و هرگونه دارایی دیجیتالی که در سر راهش قرار میگرفت را به سرقت ببرد. چنین بدافزارهایی اغلب از طریق لینکهای فیشینگ، دانلود نرمافزارهای جعلی یا ابزارهای کرکشده ارز دیجیتال منتشر میشوند.
۲- رباتهای اسکن آسیبپذیری قراردادهای هوشمند
آسیبپذیریهای قراردادهای هوشمند یک معدن طلا برای هکرها به شمار میروند و رباتهای هوش مصنوعی حالا سریعتر از همیشه آنها را پیدا میکنند. این رباتها به صورت مداوم بلاکچینهایی مثل اتریوم یا بیانبی اسمارت چین را اسکن میکنند و به دنبال باگ در پروژههای جدید دیفای میگردند و به محض پیدا کردن یک آسیبپذیری، به صورت خودکار از آن استفاده کرده و در عرض چند دقیقه داراییهای دیجیتال را به سرقت میبرند.
به گفته محققان، چتباتهای هوش مصنوعی مانند آنهایی که از نسخه سوم چت جیپیتی (GPT-3) استفاده میکنند میتوانند کد قراردادهای هوشمند را تحلیل کرده و باگهای آن را پیدا کنند. نمونه مشابه این آسیبپذیری در حمله به پروتکل Fei رخ داد که منجر به ضرر ۸۰ میلیون دلاری شد.
۳- حملات بروتفورس تقویتشده با هوش مصنوعی
حملات بروتفورس در گذشته بسیار زمانبر بودند اما رباتهای هوش مصنوعی امروزه آنها را به طرز خطرناکی کارآمد کردهاند. این رباتها با تجزیه و تحلیل نقصهای امنیتی رمزهای عبور قبلی، به سرعت الگوها را شناسایی میکنند تا رمزهای عبور و عبارتهای بازیابی را در مدتزمان کوتاهی بشکنند. مطالعهای در سال ۲۰۲۴ نشان داد که کیفپولهای دسکتاپی با رمزهای ساده، بهراحتی در برابر حملات بروتفورس هوش مصنوعی شکست میخورند.
۴- رباتهای جعل هویت (دیپفیک)
تصور کنید که ویدیویی از یک اینفلوئنسر یا مدیرعامل معروف در دنیای کریپتو را تماشا میکنید که از شما میخواهد در یک پروژه سرمایهگذاری کنید اما آن ویدیو کاملا دروغین است. با ظهور فناوری دیپفیک امروزه شاهد انتشار خیل گستردهای از ویدیوهای این چنینی هستیم که برای فریب سرمایهگذاران کریپتو طراحی شدهاند و میتوانند قربانیان بسیاری را فریب دهند.
۵- باتنتهای شبکههای اجتماعی
در شبکههای اجتماعی مثل ایکس و تلگرام، تعداد زیادی از رباتهای هوش مصنوعی در مقیاسی وسیع مشغول تبلیغ کلاهبرداریهای کریپتویی هستند. به عنوان مثال، باتنتهایی مانند فاکس-۸ (Fox8) از چتجیپیتی برای تولید صدها پست متقاعدکننده در مورد توکنهای اسکم و پاسخدهی به کاربران استفاده میکنند.
در یک نمونه، کلاهبرداران از نامهای ایلان ماسک و چتجیپیتی سوءاستفاده کرده و حتی یک ویدیوی دیپفیک از ماسک ساختند تا یک ایردراپ جعلی را تبلیغ کنند. همین روش باعث شد افراد زیادی فریب خورده و داراییهای خود را برای این کلاهبرداران ارسال کنند.
در سال ۲۰۲۳، محققان شرکت امنیتی سوفوس (Sophos) مدعی شدند که کلاهبرداران عاشقانه (Romance Scammers) از چتجیپیتی برای گفتگو همزمان با چندین قربانی استفاده میکنند؛ بهطوری که پیامهای احساسی آنها بسیار طبیعیتر و قانعکنندهتر به نظر میرسید و قربانی را به سادگی به دام میانداخت.
شرکت متا نیز گزارش داده که تعداد لینکهای آلوده و فیشینگ که خود را بهعنوان چتجیپیتی یا ابزارهای هوش مصنوعی جا میزنند، بهشدت افزایش یافته است. بسیاری از این لینکها با طرحهای کلاهبرداری ارز دیجیتال گره خوردهاند.
یکی از مسائلی که هوش مصنوعی به آن کمک قابلتوجهی کرده، عملیات موسوم به کشتار خوکی (Pig Butchering) است. در این روش کلاهبرداری طولانیمدت، فرد کلاهبردار ابتدا رابطهای عاطفی با قربانی ایجاد کرده و در ادامه او را به سرمایهگذاری در پروژههای جعلی رمزارزها ترغیب میکند. یک مورد قابل توجه در سال ۲۰۲۴ در هنگکنگ اتفاق افتاد و پلیس یک باند جنایتکار را دستگیر کرد که از طریق کلاهبرداری رمانتیک با کمک هوش مصنوعی، ۴۶ میلیون دلار از مردان سراسر آسیا کلاهبرداری کرده بودند.
آیا کلاهبرداری با رباتهای معاملاتی خودکار ممکن است؟
هوش مصنوعی فقط در تبلیغات شبکههای اجتماعی نقش ندارد؛ بلکه در حوزه رباتهای معاملاتی هم به ابزاری محبوب برای فریب سرمایهگذاران تبدیل شده است. پروژههایی با نامهای پرزرقوبرق، وعده سودهای نجومی میدهند و از برچسب «AI-powered» تنها بهعنوان طعمه استفاده میکنند.
برای مثال، در سال ۲۰۲۳ پروژهای به نام YieldTrust.ai ادعا کرد ربات معاملاتی مبتنی بر هوش مصنوعی آن میتواند روزانه ۲.۲٪ سود ثابت به کاربران بدهد؛ سودی نجومی و غیرقابل باور. در ادامه، نهادهای نظارتی چند ایالت این پروژه را بررسی کردند و مشخص شد اصلاً هیچ رباتی در کار نیست. این طرح چیزی جز یک پانزی کلاسیک نبود که از کلمه «هوش مصنوعی» بهعنوان یک واژه جادویی برای جلب اعتماد سرمایهگذاران استفاده میکرد. این پروژه قربانیان زیادی را به دام انداخت و در نهایت توسط مقامهای نظارتی تعطیل شد.
البته حتی اگر ربات واقعاً وجود داشته باشد، باز هم معمولاً بهاندازهای که تبلیغ میشود سودده نیست. شرکت آرکهام اینتلیجنس (Arkham Intelligence) یک نمونه واقعی را بررسی کرد: یک ربات آربیتراژ که با وامی سریع به ارزش ۲۰۰ میلیون دلار، زنجیرهای پیچیده از معاملات را انجام داد، اما در نهایت فقط ۳ دلار سود به دست آورد! این مثال نشان میدهد حتی پیشرفتهترین رباتها هم تضمینی برای پولسازی ندارند.
بسیاری از پروژههای موسوم به «ربات معاملاتی هوش مصنوعی» فقط نقش یک ویترین دارند. آنها پول شما را میگیرند، شاید چند معامله تصادفی انجام دهند (یا اصلاً هیچ معاملهای نکنند) و وقتی برای برداشت اقدام کنید، بهانههای مختلف میآورند. بعضی از گردانندگان این طرحها حتی از رباتهای شبکههای اجتماعی برای ساختن سابقه جعلی استفاده میکنند؛ مثلاً اکانتهای فیک در ایکس (X) که مدام «معاملات موفق» را پست میکنند تا وانمود کنند سیستمشان واقعاً کار میکند.
از سوی دیگر، کلاهبرداران از رباتهای خودکار (نه لزوما رباتهای هوش مصنوعی؛ اگرچه گاهی از این عنوان برای جذب کاربران سادهلوح استفاده میشود) برای سو استفاده از بازارها و زیرساختهای کریپتویی استفاده میکنند. به عنوان مثال رباتهای فرانترانینگ در دیفای میتوانند خود را میان تراکنشهای کاربران قرار دهند و بخشی از ارزش معامله را بدزدند (حمله ساندویچی) یا رباتهای وام سریع (Flash Loan Bots) در چند ثانیه وامهای کلان میگیرند، معاملات پیچیده انجام میدهند و از اختلاف قیمتها یا آسیبپذیری قراردادهای هوشمند سوءاستفاده میکنند.
این رباتها نیاز به مهارت کدنویسی بالایی دارند و معمولاً به مردم فروخته نمیشوند؛ بلکه ابزارهایی برای سرقت مستقیم توسط هکرها هستند. هوش مصنوعی هم میتواند این فرآیند را بهینهتر کند و سرعت و دقت این حملهها را بالا ببرد.
نکته مهم این است که حتی پیشرفتهترین رباتها هم نمیتوانند آینده بازار را پیشبینی کنند. بازار رمزارزها پرنوسان و غیرقابلپیشبینی است و هیچ الگوریتمی—حتی با هوش مصنوعی—نمیتواند تضمینکننده سود باشد.
چگونه بدافزارهای مجهز به هوش مصنوعی کاربران کریپتو را هدف میگیرند؟
تا به اینجا فهمیدیم که هوش مصنوعی دیگر صرفا یک ابزار برای توسعهدهندگان نیست بلکه مجرمان سایبری هم از آن برای طراحی حملات خود استفاده میکنند. امروزه AI به هکرها آموزش میدهد چگونه به پلتفرمهای کریپتو نفوذ کنند و همین موضوع باعث شده موجی از حملات گستردهتر، سازمانیافتهتر و حتی توسط افراد کمتجربهتر آغاز شود.
این همان دلیلی است که در سالهای اخیر شاهد رشد چشمگیر حملات فیشینگ و بدافزار علیه کاربران ارزهای دیجیتال بودهایم. هوش مصنوعی به کلاهبرداران اجازه میدهد تا سناریوهای فریب را خودکار کنند، مدام آنها را بهبود دهند و براساس بازخورد حملات قبلی نسخههای پیچیدهتری بسازند.
در حال حاضر یکی از نگرانیهای بزرگ، ظهور بدافزارهای تولیدشده با هوش مصنوعی است؛ برنامههای مخربی که میتوانند خودشان را تغییر دهند تا توسط سیستمهای امنیتی شناسایی نشوند.
به عنوان مثال در سال ۲۰۲۳ پژوهشگران بدافزاری آزمایشی به نام BlackMamba معرفی کردند. این بدافزار یک keylogger (ضبطکننده کلیدهای فشردهشده روی کیبورد) بود که با کمک مدلهای زبانی شبیه ChatGPT هر بار کد خودش را بازنویسی میکرد. نتیجه چه بود؟ هر بار که BlackMamba اجرا میشد، یک نسخه کاملاً جدید از خودش را در حافظه تولید میکرد و بهراحتی از دید آنتیویروسها و سیستمهای امنیتی عبور میکرد.
در آزمایشها، این بدافزار توانست حتی از سیستمهای تشخیص پیشرفتهی امنیتی هم فرار کند و در صورت فعال شدن، همه چیز را مخفیانه ثبت کند؛ از رمز عبور حساب صرافی گرفته تا عبارت بازیابی کیف پول.
هرچند BlackMamba فقط یک نمونهی آزمایشگاهی بود، اما پیام واضحی داشت:
مجرمان میتوانند با استفاده از AI بدافزارهایی «شکلپذیر» بسازند که حسابهای کاربری کریپتو را هدف بگیرند و بهمراتب خطرناکتر از بدافزارهای سنتی باشند.
نکته مهم اینجاست که لازم نیست همیشه پای بدافزارهای فوقپیچیده وسط باشد. خیلی از مهاجمان از محبوبیت هوش مصنوعی برای انتشار بدافزارهای سنتی استفاده میکنند.
یکی از نمونههای رایج وبسایتهای جعلی هستند که خودشان را به شکل سایت سایت رسمی چت جیپیتی یا دیگر رباتهای هوش مصنوعی معروف جا میزنند و دکمهای تحت عنوان دانلود نسخه ویندوز قرار میدهند. زمانی که کاربر ناآگاه روی آن کلیک میکند، یک تروجان سارق رمزارز روی سیستم او نصب میشود که میتوان در آن واحد کیف پول او را خالی کند! به همین سادگی، برچسب «AI» میتواند باعث شود کاربران گاردشان را پایین بیاورند و قربانی شوند.
یکی دیگر از ابعاد خطرناک ماجرا این است که هوش مصنوعی سطح مهارت موردنیاز برای هک را به شدت کاهش داده است. در گذشته، طراحی یک صفحه فیشینگ یا نوشتن یک ویروس نیازمند دانش برنامهنویسی بود. اما امروز در انجمنهای دارکوب، ابزارهایی تحت عنوان AI-as-a-service عرضه میشوند که همه کار را برای مجرمان انجام میدهند.
WormGPT و FraudGPT دو نمونه معروف هستند که در ازای پرداخت هزینه، ایمیلهای فیشینگ، کدهای مخرب یا حتی راهنمای حملات هکری تولید میکنند. این یعنی حتی افراد بیتجربه هم میتوانند با کمک این ابزارها حملاتی حرفهای طراحی کنند و بهسرعت وارد دنیای جرایم سایبری شوند!
چطور از داراییهای خود در برابر حملات AI محافظت کنیم؟
با پیچیدهتر شدن تهدیدات مربوط به هوش مصنوعی، کاربران هم باید روشهای محافظتی خودشان را ارتقا دهند. از جمله کارهایی که میتوان برای مقابله با این حملات استفاده کرد عبارتند از:
۱- استفاده از کیف پول سختافزاری: بدافزارها و حملات فیشینگ بیشتر کیف پولهای آنلاین را هدف میگیرند. در مقابل، کیف پولهای سختافزاری مثل Ledger یا Trezor کلیدهای خصوصی را آفلاین نگه میدارند و تقریباً دسترسی از راه دور به آنها غیرممکن است.
۲- فعالسازی تأیید هویت دو مرحلهای (MFA): هوش مصنوعی میتواند پسوردهای ضعیف را با الگوریتمهای یادگیری ماشین کرک کند. بنابراین باید MFA را فعال کنید و ترجیحاً از اپلیکیشنهایی مثل Google Authenticator یا Authy استفاده کنید. بههیچوجه به کدهای پیامکی اکتفا نکنید، چون حملات SIM Swap نشان دادهاند که پیامک روش مطمئنی نیست.
۳- احتیاط در برابر فیشینگهای هوش مصنوعی: ایمیلها و پیامهای تولیدشده توسط AI میتوانند کاملاً واقعی به نظر برسند. هرگز روی لینکهای ناشناس کلیک نکنید، آدرس سایتها را خودتان بهصورت دستی وارد کنید و هیچوقت کلید خصوصی یا عبارت بازیابی را حتی اگر درخواست خیلی قانعکننده بود با کسی به اشتراک نگذارید.
۴- بررسی دقیق هویت برای جلوگیری از دیپفیکها: فناوری دیپفیک میتواند صدای یک فرد یا تصویر او را شبیهسازی کند. اگر کسی، حتی آشنا، در پیام ویدیویی یا صوتی از شما خواست در جایی سرمایهگذاری کنید، حتما پیش از عمل به درخواست او هویتش را از طریق روشهای دیگر تایید کنید.
۵- بهروز ماندن در زمینه تهدیدات امنیتی بلاکچین: منابع معتبری مثل CertiK، Chainalysis یا SlowMist گزارشهای منظم از تهدیدات جدید منتشر میکنند. دنبال کردن این منابع کمک میکند همیشه از آخرین شیوههای کلاهبرداری و راههای مقابله با آنها آگاه باشید. البته ما در میهن بلاکچین همواره این گزارشات را پوشش میدهیم تا کاربران ایرانی به سادگی بتوانند از آخرین تهدیدات مطلع شوند.
جمعبندی؛ آینده هوش مصنوعی در کنار جرایم سایبری و امنیت ارز دیجیتال
با سرعت پیشرفت حملات، روشن است که نقش AI در جرایم سایبری علیه کریپتو روزبهروز پررنگتر خواهد شد. در آینده نزدیک، شاهد حملاتی خواهیم بود که بهطور خودکار آسیبپذیری قراردادهای هوشمند را شناسایی و در همان لحظه سوءاستفاده میکنند، یا با استفاده از دیپفیک افراد مشهور را برای تبلیغ طرحهای جعلی شبیهسازی میکنند.
در طرف مقابل، پروژههای مختلف نیز از سیستمهای هوش مصنوعی برای تامین امنیت خود استفاده میکنند. به عنوان مثال پلتفرم CertiK از الگوریتمهای یادگیری ماشین استفاده میکند تا میلیونها تراکنش را در لحظه بررسی کند و کوچکترین اتفاقات غیرعادی را شناسایی کند.
به زبان ساده، آینده امنیت رمزارزها در حال تبدیل شدن به نبردی دوطرفه است: مجرمان از AI برای ساخت حملات پیشرفته استفاده میکنند و شرکتهای امنیتی هم از AI برای شناسایی و دفع همین حملات.