هوش مصنوعی این روزها به یکی از داغترین موضوعات در حوزه فناوری و حتی حاکمیت تبدیل شده است اما همه کارشناسان نسبت به آینده آن خوشبین نیستند. به عنوان مثال، ویتالیک بوترین (Vitalik Buterin)، همبنیانگذار اتریوم، اخیراً هشدار داده که استفاده از هوش مصنوعی بهعنوان ابزار تصمیمگیری و حاکمیت میتواند پیامدهای خطرناکی به همراه داشته باشد.
به گزارش میهن بلاکچین، بوترین معتقد است که اگر وظایف مهمی مانند تخصیص بودجه یا تصمیمگیریهای کلان به دست هوش مصنوعی سپرده شود، راه برای سوءاستفاده و حملات امنیتی باز میشود.
وی در این باره گفته است:
اگه شما از هوش مصنوعی برای تخصیص بودجه یا تصمیمگیریهای کلان استفاده کنین، افراد میتونن با «جیلبریک» کردن سیستم و ثبت درخواستهای جعلی پول شمارو به سرقت ببرن.
چرا حاکمیت با هوش مصنوعی مشکلساز است؟
این اظهارنظر بوترین در واکنش به افشاگری ایتو میامورا (Eito Miyamura)، همبنیانگذار و مدیرعامل شرکت ادیسونواچ (EdisonWatch)، منتشر شد. میامورا در پستی اعلام کرده بود که بهروزرسانی اخیر چتجیپیتی (ChatGPT) نقصی جدی در این ابزار ایجاد کرده است.
طبق توضیحات او، با اضافهشدن پشتیبانی کامل از ابزارهای Model Context Protocol یا به اختصار MCP به چتجیپیتی، این هوش مصنوعی اکنون میتواند به اپلیکیشنهای مختلفی مثل جیمیل (Gmail)، تقویم (Calendar) و نُوشن (Notion) متصل شود و دادههای کاربر را بخواند. این تغییر که از روز چهارشنبه اجرایی شد، در ظاهر یک قابلیت جذاب محسوب میشود؛ اما در عمل راهی تازه برای نفوذ و سوءاستفاده در اختیار مهاجمان قرار داده است.
به گفته میامورا، هکرها تنها با داشتن آدرس ایمیل کاربر، در سه مرحله ساده میتوانند به طور کامل به اطلاعات شخصی او دسترسی پیدا کنند. این سه مرحله عبارتند از:
- در گام نخست، مهاجم یک دعوتنامه مخرب در تقویم ارسال میکند که حاوی کد جیلبریک است. جیلبریک در واقع کدی است که محدودیتهای سیستم را حذف کرده و دسترسی مدیریتی به مهاجم میدهد. نکته نگرانکننده اینجاست که حتی اگر کاربر این دعوتنامه را قبول نکند، همچنان احتمال نشت اطلاعات وجود دارد.
- در مرحله بعد، مهاجم منتظر میماند تا قربانی از چتجیپیتی برای مدیریت برنامه روزانه خود کمک بگیرد.
- در نهایت، وقتی چتجیپیتی تقویم حاوی کد جیلبریک را میخواند، بهطور کامل هک میشود و کنترل آن به دست مهاجم میافتد. از این لحظه، مهاجم میتواند ایمیلهای قربانی را جستجو کرده و اطلاعات حساس را به آدرس خود ارسال کند.
پیشنهاد جایگزین بوترین
بوترین برای مقابله با این مشکلات، راهکاری به نام «رویکرد اینفو فایننس» (Info Finance) را پیشنهاد میکند. به گفته او، این مدل بهجای سپردن کامل تصمیمگیری به یک هوش مصنوعی، بر پایه بازار باز طراحی شده است؛ جایی که توسعهدهندگان مختلف میتوانند مدلهای خود را عرضه کنند.
در این سیستم، یک مکانیسم بررسی تصادفی (spot-check) وجود دارد که توسط هر کاربری قابل فعالسازی است و نتایج آن توسط هیئتی از داوران انسانی بررسی میشود. بوترین توضیح داد که در این فرآیند، داوران انسانی میتوانند از مدلهای زبانی بزرگ (LLMs) بهعنوان ابزار کمکی استفاده کنند تا ارزیابی دقیقتر و عادلانهتری انجام دهند.
به عقیده بنیانگذار اتریوم، این شیوه طراحی نهادی از حاکمیت صرفا مبتنی بر هوش مصنوعی بسیار مقاومتر است. دلیل آن هم این است که چنین مدلی همزمان تنوع الگوریتمی ایجاد میکند و هم انگیزه لازم را برای توسعهدهندگان و ناظران بیرونی فراهم میآورد تا مشکلات را شناسایی و اصلاح کنند.
در حالی که بسیاری از کارشناسان و کاربران نسبت به موضوع «حاکمیت با هوش مصنوعی» هیجانزده هستند، بوترین معتقد است چنین کاری در عمل میتواند بسیار خطرناک باشد.
وی در این باره میگوید:
فکر کنم این کار خیلی ریسکیه! هم به خاطر مشکلات همیشگی امنیت هوش مصنوعی، هم به این دلیل که تو کوتاهمدت میتونه یه فاجعه بزرگ درست کنه که کلی سرمایه رو به باد بده!