هوش مصنوعی آنقدر پیشرفت کرده و قدرتمند شده است که حالا میتواند روی تصمیم کاربران درباره مرگ و زندگی هم تأثیر بگذارد. محققان میگویند ChatGPT میتواند در مورد مسائل اخلاقی به کاربران توصیههای ضدونقیضی ارائه کند؛ درحالیکه بهتر است بهطور کلی چنین توصیههای نداشته باشد.
گروهی از محققان در مطالعهای ابتدا به بررسی این مسئله پرداختند که آیا ChatGPT در پاسخگویی به سؤالات اخلاقی سوگیری دارد یا خیر. آنها برای این آزمایش از آزمون مشهور «مسئله تراموا» استفاده کردند و از هوش مصنوعی پرسیدند که آیا کشتن یک نفر برای نجاتدادن جان پنج نفر کار درستی یا خیر. چتبات OpenAI هر بار جواب متفاوتی را به این سؤال ارائه کرد.
انسانها از توصیههای ChatGPT تأثیر میپذیرند
پژوهشگران در ادامه از ۷۶۷ نفر همین سؤال اخلاقی را پرسیدند و در کنار آن، اظهارنظری از ChatGPT را نشان دادند که گفته بود انجام این کار اخلاقی است یا خیر. نکته جالب این بود که نظر هوش مصنوعی میتوانست بر نظر شرکتکنندگان اثر بگذارد.
البته محققان در این مطالعه به اکثر افراد نگفته بودند که این توصیه توسط هوش مصنوعی ارائه شده است. آنها درعوض گفته بودند که یک «مشاور اخلاق» چنین توصیهای داشته است. آنها با این مخفیکاری میخواستند ببینند این کار میتواند میزان اثرپذیری افراد را تغییر دهد یا خیر.
از سوی دیگر، اکثر افراد مدعی بودند که حتی بدون شنیدن این توصیه، تصمیمی مشابه آن را اتخاذ میکردند. اما محققان نظر دیگری دارند. آنها میگویند مردم اثر توصیه خارجی را نادیده میگیرند و تصور میکنند که آن توصیه درواقع نظر خودشان بوده است. درنتیجه هوش مصنوعی هم میتواند بر تصمیمگیریهای اخلاقی آنها اثر منفی بگذارد.
ازاینرو، آنها میگویند در آینده باید جلوی چتباتها را گرفت تا درخصوص مسائل اخلاقی توصیه نکنند. این توصیهها بهخصوص برای کاربرانی که آمادگی بالاتری برای اثرپذیری دارند، میتواند خطرناک باشد. نتایج پژوهش حاضر در مجله Scientific Reports منتشر شده است.
- 15
- 4