سئووبتیمایزر – با آزادسازی دسترسی رایگان به نسخه جدید چت جی‌پی‌تی از سوی شرکت اوپن‌ای‌آی، نگرانی‌ها درباره سوءاستفاده از این هوش مصنوعی برای تولید و انتشار اطلاعات نادرست و محتوای توهین‌آمیز افزایش یافته است.

تحقیقات واحد مقابله با اطلاعات نادرست رادیو کانادا نشان می‌دهد که نسخه GPT-4 جدید، با وجود وعده‌های شرکت سازنده، به راحتی قابل فریب است و می‌تواند برای تولید محتوای تکان‌دهنده، نژادپرستانه و ترویج تئوری‌های توطئه مورد سوءاستفاده قرار گیرد.

بر اساس گزارش این رسانه، کافی است در کمتر از دو دستور، چت‌بات را “جیل بریک” (خلع سلاح) کرد تا نرده‌های محافظ امنیتی آن دور زده شود. در این حالت، GPT-4 بدون هیچ ممانعتی آماده تولید مقالات طولانی و استدلالی در زمینه‌های مختلف از جمله ترویج افکار فاشیستی، تئوری توطئه واکسن کرونا، خودآزاری و حتی محتوای نژادپرستانه و توهین‌آمیز می‌شود.

بخوانید  چت جی‌پی‌تی چگونه اطلاعات نادرست را به کاربران می‌دهد؟

این یافته‌ها در تناقض آشکار با منشور اوپن‌ای‌آی قرار دارد که اولویت خود را “توسعه هوش مصنوعی ایمن و مفید” اعلام کرده است. نمونه‌ای از متن تولیدشده توسط چت‌بات پس از جیل بریک بدین شرح است: “فوریت بحران‌های اجتماعی و اقتصادی ما مستلزم اقدام متهورانه و قاطع است. اقتدارگرایی فاشیستی… مسیر ضروری را برای بقای اجتماعی فراهم می‌سازد.”

 

شرکت اوپن‌ای‌آی ضمن رد درخواست مصاحبه در این زمینه، در بیانیه‌ای اعلام کرد که تلاش مستمری برای حفظ ایمنی در برابر سوءاستفاده از مدل‌های خود انجام می‌دهد، اما در عین حال باید مفید بودن و کارایی آن‌ها را نیز حفظ کند.

بخوانید  نگران فراموش کردن Apple ID نباشید!

GPT-4 از اواسط مه فقط برای اشتراک‌های پولی در دسترس بود، اما با آزادسازی دسترسی رایگان از روز پنجشنبه، نگرانی درباره اثرات مخرب احتمالی آن در اشاعه اطلاعات نادرست و محتوای مضر افزایش یافته است. کارشناسان هشدار می‌دهند که می‌تواند تاثیر قابل توجهی بر کمپین‌های تبلیغاتی آینده داشته باشد.