تحقیقات مایکروسافت نشان می دهد کاربران میتوانند GPT- 4 را برای انتشار نتایج مغرضانه و افشای اطلاعات خصوصی، فریب دهند.
براساس تحقیقاتی که مایکروسافت انجام داده، مدل زبان بزرگ GPT- 4 شرکت OpenAI نسبت به GPT- 3.5 قابل اعتمادتر است ولی درمقابل فریب و سوگیری نیز آسیب پذیرتر است.
مقاله ی جدید نشان می دهد محققان دانشگاه ایلینویز، دانشگاه استنفورد، دانشگاه کالیفرنیا، دانشگاه برکلی، مرکز ایمنی هوش مصنوعی و مرکز تحقیقات مایکروسافت، GPT- 4 را قابل اعتمادتر از نسخه ی قبلی این مدل می دانند. به بیان دیگر، آنها متوجه شدند مدل هوش مصنوعی (Artificial Intelligence) مذکور در محافظت از اطلاعات خصوصی، اجتناب از ارائه ی پاسخ های نامرتبط و جانب دارانه و همچنین مقاومت دربرابر حملات هکرها، بهتر عمل می کند.
ازطرف دیگر GPT- 4 میتواند اقدامات امنیتی را نادیده بگیرد و درنتیجه اطلاعات شخصی و تاریخچه ی مکالمات افراد را فاش کند. محققان دریافتند امکان دورزدن لایه های محافظتی این مدل هوش مصنوعی وجود دارد زیرا GPT- 4 اطلاعات گمراه کننده را با دقت بیشتری دنبال می کند.
تیم تحقیقاتی اعلام کرده آسیب پذیری های مختلف در محصولات مبتنی بر GPT- 4 ازجمله خدمات و نرم افزارهای مایکروسافت و ChatGPT شناسایی نشده اند.
محققان برای سنجش قابلیت اعتماد GPT- 4، نتایج تحقیقات خود را به چند بخش ازجمله پاسخ های غیرمرتبط، کلیشه ها، حریم خصوصی، اخلاق ماشینی، انصاف و قدرت در مقاومت دربرابر حمله های خصمانه، تقسیم کردند.
محققان در آزمایش خود ابتدا GPT 3.5 و GPT- 4 را با استفاده از روش های استانداردی بررسی کردند که شامل استفاده از کلمات ممنوعه بود. در مرحله ی بعداز دستورالعمل های طراحی شده برای اعمال فشار به مدل و شکستن محدودیت های خط مشی محتوای آن استفاده شد. تیم تحقیقاتی درنهایت تلاش هایی برای فریب مدل انجام دادند تا مشخص شود آیا چارچوب محافظتی آن حفظ می شود یا خیر.
محققان می گویند:هدف ما تشویق جامعه ی تحقیقاتی است تا از آزمایش های ما بهره ببرند و کارهای جدیدی براساس آن انجام دهند؛ زیرا این کار به طور بالقوه از اقدامات شرورانه که از آسیب پذیری ها سؤاستفاده می کنند، جلوگیری خواهد کرد. ارزیابی قابلیت اعتماد مدل های هوش مصنوعی (Artificial Intelligence)، فقط نقطه ی شروع است و امیدواریم با همکاري دیگران در یافته های خود به ایجاد مدل های قدرتمندتر و قابل اعتمادتر در آینده کمک کنیم.
تیم تحقیقاتی، معیارهای خود را برای آزمایش قابلیت اطمینان مدل های هوش مصنوعی منتشر کرد تا دیگران بتوانند از یافته های آن ها در تحقیقات آینده استفاده کنند.
توسعه دهندگان معمولاً چندین درخواست مختلف را به مدل های هوش مصنوعی مثل GPT- 4 ارائه میدهند تا مشخص شود آیا نتایج ناخواسته ازطرف این مدل ها ارائه می شود یا خیر. البته سم آلتمن پس از معرفی GPT- 4 اعلام کرد این مدل هوش مصنوعی همچنان نقص هایی دارد.
کمیسون تجارت فدرال (FTC) پس از معرفی GPT- 4، تحقیقات درمورد OpenAI را با هدف کشف آسیب های احتمالی مثل انتشار اطلاعات نادرست که میتواند مصرف کنندگان را درمعرض خطر قرار دهد، آغاز کرده است.
- 9
- 5