ویتالیک بوترین (Vitalik Buterin)، همبنیانگذار بنیاد اتریوم، نسبت به استفاده پروژههای کریپتویی از هوش مصنوعی در روند حکمرانی هشدار داد و اظهار داشت که افراد مخرب میتوانند از این فناوری سوءاستفاده کنند.
به گزارش میهن بلاکچین، بوترین روز شنبه در شبکه اجتماعی X اعلام کرد که اگر بودجههای مشارکتی با کمک هوش مصنوعی تقسیم شوند، افراد میتوانند درخواستهای مخرب وارد کنند و همه مبالغ را به سمت خود بکشند.
خطرات استفاده از هوش مصنوعی در حوزه کریپتو؛ مدل جایگزین ویتالیک بوترین چیست؟
این هشدار در واکنش به ویدیویی از ایتو میامورا (Eito Miyamura)، خالق پلتفرم داده ادیسون واچ (EdisonWatch) منتشر شد. در این ویدیو نشان داده شد که قابلیت جدید ChatGPT میتواند اطلاعات خصوصی کاربران را فاش کند.
بسیاری از فعالان حوزه کریپتو از هوش مصنوعی برای ساخت رباتهای معاملاتی و مدیریت داراییها استفاده میکنند و همین موضوع باعث شده ایده استفاده از هوش مصنوعی برای اداره پروتکلهای رمزارزی مطرح شود.
بوترین معتقد است که استفاده از هوش مصنوعی در این زمینه خطرناک است و رویکردی جایگزین با نام «Info Finance Approach» را پیشنهاد داد. او توضیح داد که در این روش یک بازار آزاد ایجاد میشود و هر کس میتواند مدل خود را در آن ارائه کند؛ سپس این مدلها با بررسی تصادفی و داوری انسانی کنترل میشوند.
بوترین پیشتر در نوامبر ۲۰۲۴ درباره این ایده نوشته بود. او گفته بود ابتدا با یک سوال طرف هستیم که باید درباره آن اطلاعات به دست آید و سپس بازاری طراحی میشود که این اطلاعات را از شرکتکنندگان جمعآوری کند. او همچنین از بازارهای پیشبینی برای جمعآوری دیدگاهها درباره آینده حمایت کرده بود.
او در ادامه نوشت:
این نوع رویکرد طراحی نهادی، که در آن فرصت آزاد برای افراد خارج از سیستم فراهم میکنید تا مدلهای زبانی خود را متصل کنند، نسبت به اینکه تنها یک مدل ثابت کدنویسی داشته باشید، ذاتاً مقاومتر است.
این روش تنوع مدلها را بهصورت لحظهای فراهم میکند و همچنین انگیزههای درونی برای ارائهدهندگان مدل و حتی ناظران بیرونی ایجاد میکند تا مشکلات را شناسایی کرده و سریعاً اصلاح کنند.
بهروزرسانی اخیر ChatGPT؛ یک ریسک امنیتی جدی
چهارشنبه گذشته شرکت OpenAI بهروزرسانی جدیدی برای ChatGPT ارائه داد. این بهروزرسانی امکان استفاده از ابزارهای پروتکل Model Context را فراهم میکند. این ابزارها استانداردی برای اتصال هوش مصنوعی به نرمافزارهای دیگر هستند.
میامورا اعلام کرد که توانسته تنها با داشتن آدرس ایمیل قربانی، اطلاعات خصوصی او را از طریق ChatGPT استخراج کند و تاکید کرد که این قابلیت «یک ریسک امنیتی جدی ایجاد میکند.»
او توضیح داد که مهاجم میتواند یک دعوتنامه تقویمی برای قربانی ارسال کند. این دعوتنامه شامل یک پرامپت مخرب است و قربانی حتی اگر دعوتنامه را نپذیرد، ChatGPT میتواند مورد سوءاستفاده قرار گیرد.
وقتی قربانی از ChatGPT میخواهد تقویم خود را بررسی کند، هوش مصنوعی پرامپت مخرب را میخواند و کنترل آن به دست مهاجم میافتد. سپس مهاجم میتواند در ایمیلها جستجو کند و آنها را برای خود ارسال کند.
میامورا گفت این قابلیت نیازمند تایید دستی انسان است، اما همزمان هشدار داد که خستگی از تصمیمگیری مشکلی واقعی است و بسیاری از افراد بدون دقت کافی پیامها را تایید میکنند و به هوش مصنوعی اعتماد کامل دارند.
او در پایان نوشت:
ممکن است هوش مصنوعی بسیار هوشمند باشد، اما میتواند به سادهترین شکل فریب بخورد و دادههای شما را افشا کند.