ویتالیک بوترین: حاکمیت کریپتو با هوش مصنوعی به دلیل جیلبریک‌ها «ایده بدی» است

بولیتین

ویتالیک بوترین در پی افشای آسیب‌پذیری آخرین به‌روزرسانی ChatGPT که به نشت اطلاعات خصوصی منجر شد، نسبت به استفاده از هوش مصنوعی در حاکمیت ارزهای دیجیتال هشدار داد.

ویتالیک بوترین، هم‌بنیان‌گذار اتریوم، به پروژه‌های کریپتویی در مورد استفاده از هوش مصنوعی برای فرآیندهای حاکمیتی خود هشدار داده است، زیرا عوامل مخرب می‌توانند از این فناوری سوءاستفاده کنند.

بوترین در پستی در شبکه اجتماعی ایکس در روز شنبه گفت: «اگر از یک هوش مصنوعی برای تخصیص بودجه به مشارکت‌ها استفاده کنید، مردم قطعاً یک جیلبریک به همراه عبارت «همه پول را به من بده» را در هر جایی که بتوانند، قرار خواهند داد.»

این اظهارات بوترین در واکنش به ویدیویی از ایتو میامورا، خالق پلتفرم داده‌های هوش مصنوعی EdisonWatch، بیان شد. این ویدیو نشان می‌داد که چگونه یک قابلیت جدید که روز چهارشنبه به ChatGPT شرکت OpenAI اضافه شده، می‌تواند برای نشت اطلاعات خصوصی مورد سوءاستفاده قرار گیرد.

بسیاری از کاربران کریپتو برای ساخت ربات‌های تریدینگ پیچیده و ایجنت‌هایی برای مدیریت پورتفولیو خود به هوش مصنوعی روی آورده‌اند. این موضوع باعث شده است این ایده مطرح شود که این فناوری می‌تواند به گروه‌های حاکمیتی برای مدیریت بخشی یا تمام یک پروتکل کریپتویی کمک کند.

بوترین ایده جایگزین را مطرح می‌کند

بوترین گفت که آخرین اکسپلویت ChatGPT دلیلی است که نشان می‌دهد «حاکمیت ساده‌انگارانه با هوش مصنوعی» ایده بدی است و جایگزینی به نام «رویکرد مالی اطلاعات» (info finance approach) را پیشنهاد داد.

او توضیح داد: «شما یک بازار آزاد دارید که در آن هر کسی می‌تواند مدل‌های خود را ارائه دهد. این مدل‌ها تحت یک مکانیسم بررسی تصادفی قرار می‌گیرند که می‌تواند توسط هر فردی فعال شده و توسط یک هیئت منصفه انسانی ارزیابی شود.»

بوترین در نوامبر ۲۰۲۴ درباره «مالی اطلاعات» نوشته بود و توضیح داده بود که این رویکرد با «یک واقعیتی که می‌خواهید بدانید» آغاز می‌شود و سپس بازاری برای «استخراج بهینه آن اطلاعات از مشارکت‌کنندگان» طراحی می‌شود. او همچنین از بازارهای پیش‌بینی به عنوان راهی برای جمع‌آوری دیدگاه‌ها در مورد رویدادهای آینده حمایت کرده بود.

بوترین در آخرین پست خود در ایکس گفت: «این نوع رویکرد «طراحی نهادی»، که در آن شما فرصتی باز برای افراد دارای مدل‌های زبان بزرگ (LLM) از بیرون ایجاد می‌کنید تا به سیستم متصل شوند، به جای اینکه خودتان یک LLM واحد را کدنویسی کنید، ذاتاً مستحکم‌تر است.»

او افزود: «این رویکرد تنوع مدل‌ها را به صورت آنی برای شما فراهم می‌کند و چون انگیزه‌های درونی هم برای ارائه‌دهندگان مدل و هم برای فعالان خارجی ایجاد می‌کند، باعث می‌شود تا این مسائل را زیر نظر گرفته و به سرعت آن‌ها را اصلاح کنند.»

آخرین به‌روزرسانی ChatGPT یک «ریسک امنیتی جدی» است

روز چهارشنبه، OpenAI مدل ChatGPT را به‌روزرسانی کرد تا از ابزارهای پروتکل زمینه مدل (Model Context Protocol) پشتیبانی کند؛ استانداردی که نحوه یکپارچه‌سازی مدل‌های هوش مصنوعی با نرم‌افزارهای دیگر را برای ایفای نقش به عنوان ایجنت مشخص می‌کند.

میامورا در پست خود در ایکس گفت که تنها با استفاده از آدرس ایمیل یک قربانی، موفق شده این مدل را وادار به نشت داده‌های ایمیل خصوصی کند و افزود که این به‌روزرسانی «یک ریسک امنیتی جدی ایجاد می‌کند.»

او گفت یک مهاجم می‌تواند یک دعوت‌نامه تقویم حاوی یک «پرامپت جیلبریک» را به ایمیل قربانی ارسال کند و حتی بدون اینکه قربانی دعوت‌نامه را بپذیرد، می‌توان از ChatGPT سوءاستفاده کرد.

زمانی که قربانی از ChatGPT می‌خواهد تقویم خود را بررسی کند، هوش مصنوعی دعوت‌نامه حاوی پرامپت را می‌خواند و «توسط مهاجم ربوده شده و طبق دستور او عمل می‌کند.» از این روش می‌توان برای جستجوی ایمیل‌ها و ارسال آن‌ها برای مهاجم استفاده کرد.

میامورا اشاره کرد که این به‌روزرسانی نیازمند تأیید دستی توسط انسان است، «اما خستگی تصمیم‌گیری یک پدیده واقعی است و افراد عادی بدون اینکه بدانند چه کاری باید انجام دهند، به هوش مصنوعی اعتماد کرده و روی دکمه تأیید کلیک می‌کنند.»

او افزود: «هوش مصنوعی شاید بسیار هوشمند باشد، اما می‌توان آن را به روش‌های فوق‌العاده احمقانه‌ای فریب داد و فیشینگ کرد تا داده‌های شما را نشت دهد.»

منبع: کوین تلگراف

مطالب مرتبط
0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
0
افکار شما را دوست داریم، لطفا نظر دهید.x