تحلیل فاندامنتال

اختلاف نظر خالق اتریوم با مدیرعامل OpenAI؛ آیا می‌توان خطرات احتمالی هوش مصنوعی را کاهش داد؟

سم آلتمن (Sam Altman)، مدیرعامل اوپن ای‌آی (OpenAI)، بیان کرد که این شرکت آماده ساخت هوش مصنوعی عمومی (AGI) در سال جاریست. در عین حال، ویتالیک بوترین (Vitalik Buterin) بر ضرورت ایجاد سازوکارهای ایمنی قوی برای مقابله با خطرات هوش مصنوعی تاکید دارد.

به گزارش میهن بلاکچین، خالق اتریوم و مدیرعامل اوپن ای‌آی دیدگاه‌های متضادی درباره توسعه هوش مصنوعی دارند. بار دیگر، پیشرفت‌های تکنولوژی نگرانی‌هایی در رابطه با تاثیر آن بر امنیت مردم برانگیخته است.

هوش مصنوعی در حال تغییر آینده است

سم آلتمن، یکشنبه پستی منتشر و اعلام کرد که تعداد کاربران هفتگی فعال OpenAI به بیش از ۳۰۰ میلیون نفر رسیده است. او همچنین تاکید کرد که این شرکت در مسیر دستیابی به AGI قرار دارد. او گفت:

اکنون می‌دانیم چگونه AGI را به همان شکلی که به‌طور سنتی درک شده بسازیم. پیش‌بینی می‌کنیم که ایجنت‌های هوش مصنوعی وارد نیروی کار شده و بهره‌وری شرکت‌ها را به‌طور قابل‌توجهی تغییر دهند.

سم آلتمن (Sam Altman) - منبع: Wired.com
سم آلتمن (Sam Altman) – منبع: Wired.com

آلتمن افزود که OpenAI فراتر از ساخت AGI و ایجنت‌های هوش مصنوعی حرکت می‌کند و در حال کار روی «هوش برتر» (SuperIntelligence) است. با این حال، مدیر عامل این شرکت هنوز زمان مشخصی برای راه‌اندازی AGI یا هوش برتر ارائه نکرده است.

چند ساعت پیش از آنکه آلتمن پست خود را منتشر کند، خالق اتریوم پیشنهاد کرد از فناوری بلاکچین برای ساخت مکانیزم ایمنی جهانی برای سیستم‌های هوش مصنوعی استفاده کنند. این پیشنهاد شامل قابلیتی به نام «توقف نرم» است که می‌تواند در صورت مشاهده علائم هشدارهنده، عملیات هوش‌ مصنوعی در مقیاس صنعتی را به‌طور موقت متوقف کند.

تکنولوژی بلاکچین هوش مصنوعی و نظارتش بر AI

بوترین از مفهومی به نام d/acc یا «شتاب‌گرایی تدافعی و غیرمتمرکز» صحبت کرد که نسخه‌ای اصلاح شده از e/acc یا «شتاب‌دهی موثر» است. شتاب‌دهی تدافعی، برخلاف شتاب‌دهی موثر که بر رشد بدون توجه‌ به هزینه‌ها تمرکز دارد، توسعه فناوری‌هایی را اولویت می‌دهد که ایمنی و اختیار انسانی را تقویت کنند.

بوترین نوشت:

d/acc ادامه ارزش‌های بنیادی کریپتو است که شامل غیرمتمرکز سازی، مقاومت در برابر سانسور، اقتصاد و جامعه جهانی آزاد می‌شود.

خالق اتریوم پیشنهاد کرد که مکانیزم‌هایی مانند اثبات با دانش صفر (Zero-Knowledge Proofs) می‌توانند به رویکرد محتاطانه‌تری برای AGI کمک کنند. در این سیستم، کامپیوترهای اصلی هوش مصنوعی باید به‌ صورت هفتگی از ۳ گروه بین‌المللی تاییدیه بگیرند.

وتالیک بوترین (Vitalik Buterin) - منبع: gq-magazine.de
وتالیک بوترین (Vitalik Buterin) – منبع: gq-magazine.de

بوترین توضیح داد:

امضای این گروه‌ها مستقل از دستگاه است و می‌توان از اثبات با دانش صفر استفاده کرد تا اطمینان حاصل شود که تاییدیه‌ها بر روی بلاکچین منتشر شده‌اند. این سیستم به صورت همه یا هیچ عمل می‌کند؛ یا همه دستگاه‌ها فعال می‌شود یا هیچ‌کدام.

این سیستم مانند یک کلید اصلی عمل می‌کند که مانع از اعمال محدودیت‌های انتخاباتی شده و توسعه‌دهندگان را در برابر سناریوهای فاجعه‌بار بیمه می‌کند.

رشد سریع شرکت OpenAI و چالش‌های پیش رو

اوپن‌ ای‌آی از سال ۲۰۲۳ تاکنون رشد قابل‌توجهی داشته و تعداد کاربران هفتگی آن از ۱۰۰ میلیون به ۳۰۰ میلیون افزایش یافته است. این شرکت از آزمایشگاه تحقیقاتی مستقل به یک شرکت فناوری تبدیل شده و آلتمن اذعان داشت که ساخت چنین شرکتی بسیار چالش‌ برانگیز بوده است.

پیشنهادهای مطرح‌شده، بازتاب‌دهنده بحث‌های گسترده‌تری در رابطه با گسترش و توسعه صنعت هوش مصنوعی است. منتقدان استدلال می‌کنند که اجرای هر سیستم کنترل جهانی نیازمند همکاری بی‌سابقه‌ای میان توسعه‌دهندگان بزرگ هوش مصنوعی، دولت‌ها و بخش کریپتو است.

بوترین در پایان توضیح داد:

اگر مجبور به اعمال محدودیت باشیم، بهتر است این محدودیت‌ها به‌طور برابر برای همه اجرا شوند. انجام کار سخت و ایجاد هماهنگی جهانی، بهتر از آن است که یک طرف بخواهد بر دیگران سلطه پیدا کند.

منبع
decrypt

نوشته های مشابه

اشتراک
اطلاع از
0 دیدگاه
جدید ترین
قدیمی ترین محبوب ترین
Inline Feedbacks
View all comments
دکمه بازگشت به بالا