ویتالیک بوترین در پی افشای آسیبپذیری آخرین بهروزرسانی ChatGPT که به نشت اطلاعات خصوصی منجر شد، نسبت به استفاده از هوش مصنوعی در حاکمیت ارزهای دیجیتال هشدار داد.
ویتالیک بوترین، همبنیانگذار اتریوم، به پروژههای کریپتویی در مورد استفاده از هوش مصنوعی برای فرآیندهای حاکمیتی خود هشدار داده است، زیرا عوامل مخرب میتوانند از این فناوری سوءاستفاده کنند.
بوترین در پستی در شبکه اجتماعی ایکس در روز شنبه گفت: «اگر از یک هوش مصنوعی برای تخصیص بودجه به مشارکتها استفاده کنید، مردم قطعاً یک جیلبریک به همراه عبارت «همه پول را به من بده» را در هر جایی که بتوانند، قرار خواهند داد.»
این اظهارات بوترین در واکنش به ویدیویی از ایتو میامورا، خالق پلتفرم دادههای هوش مصنوعی EdisonWatch، بیان شد. این ویدیو نشان میداد که چگونه یک قابلیت جدید که روز چهارشنبه به ChatGPT شرکت OpenAI اضافه شده، میتواند برای نشت اطلاعات خصوصی مورد سوءاستفاده قرار گیرد.
بسیاری از کاربران کریپتو برای ساخت رباتهای تریدینگ پیچیده و ایجنتهایی برای مدیریت پورتفولیو خود به هوش مصنوعی روی آوردهاند. این موضوع باعث شده است این ایده مطرح شود که این فناوری میتواند به گروههای حاکمیتی برای مدیریت بخشی یا تمام یک پروتکل کریپتویی کمک کند.
بوترین ایده جایگزین را مطرح میکند
بوترین گفت که آخرین اکسپلویت ChatGPT دلیلی است که نشان میدهد «حاکمیت سادهانگارانه با هوش مصنوعی» ایده بدی است و جایگزینی به نام «رویکرد مالی اطلاعات» (info finance approach) را پیشنهاد داد.
او توضیح داد: «شما یک بازار آزاد دارید که در آن هر کسی میتواند مدلهای خود را ارائه دهد. این مدلها تحت یک مکانیسم بررسی تصادفی قرار میگیرند که میتواند توسط هر فردی فعال شده و توسط یک هیئت منصفه انسانی ارزیابی شود.»
بوترین در نوامبر ۲۰۲۴ درباره «مالی اطلاعات» نوشته بود و توضیح داده بود که این رویکرد با «یک واقعیتی که میخواهید بدانید» آغاز میشود و سپس بازاری برای «استخراج بهینه آن اطلاعات از مشارکتکنندگان» طراحی میشود. او همچنین از بازارهای پیشبینی به عنوان راهی برای جمعآوری دیدگاهها در مورد رویدادهای آینده حمایت کرده بود.
بوترین در آخرین پست خود در ایکس گفت: «این نوع رویکرد «طراحی نهادی»، که در آن شما فرصتی باز برای افراد دارای مدلهای زبان بزرگ (LLM) از بیرون ایجاد میکنید تا به سیستم متصل شوند، به جای اینکه خودتان یک LLM واحد را کدنویسی کنید، ذاتاً مستحکمتر است.»
او افزود: «این رویکرد تنوع مدلها را به صورت آنی برای شما فراهم میکند و چون انگیزههای درونی هم برای ارائهدهندگان مدل و هم برای فعالان خارجی ایجاد میکند، باعث میشود تا این مسائل را زیر نظر گرفته و به سرعت آنها را اصلاح کنند.»
آخرین بهروزرسانی ChatGPT یک «ریسک امنیتی جدی» است
روز چهارشنبه، OpenAI مدل ChatGPT را بهروزرسانی کرد تا از ابزارهای پروتکل زمینه مدل (Model Context Protocol) پشتیبانی کند؛ استانداردی که نحوه یکپارچهسازی مدلهای هوش مصنوعی با نرمافزارهای دیگر را برای ایفای نقش به عنوان ایجنت مشخص میکند.
میامورا در پست خود در ایکس گفت که تنها با استفاده از آدرس ایمیل یک قربانی، موفق شده این مدل را وادار به نشت دادههای ایمیل خصوصی کند و افزود که این بهروزرسانی «یک ریسک امنیتی جدی ایجاد میکند.»
او گفت یک مهاجم میتواند یک دعوتنامه تقویم حاوی یک «پرامپت جیلبریک» را به ایمیل قربانی ارسال کند و حتی بدون اینکه قربانی دعوتنامه را بپذیرد، میتوان از ChatGPT سوءاستفاده کرد.
زمانی که قربانی از ChatGPT میخواهد تقویم خود را بررسی کند، هوش مصنوعی دعوتنامه حاوی پرامپت را میخواند و «توسط مهاجم ربوده شده و طبق دستور او عمل میکند.» از این روش میتوان برای جستجوی ایمیلها و ارسال آنها برای مهاجم استفاده کرد.
میامورا اشاره کرد که این بهروزرسانی نیازمند تأیید دستی توسط انسان است، «اما خستگی تصمیمگیری یک پدیده واقعی است و افراد عادی بدون اینکه بدانند چه کاری باید انجام دهند، به هوش مصنوعی اعتماد کرده و روی دکمه تأیید کلیک میکنند.»
او افزود: «هوش مصنوعی شاید بسیار هوشمند باشد، اما میتوان آن را به روشهای فوقالعاده احمقانهای فریب داد و فیشینگ کرد تا دادههای شما را نشت دهد.»
منبع: کوین تلگراف