به گزارش ایسنا به نقل از نیوزازی، یک پژوهش جدید نشان می دهد رباتی که با یک سیستم هوش مصنوعی (Artificial Intelligence) مبتنی بر اینترنت کار می کند، بیشتر از زنان به مردان و بیشتر از رنگین پوستان به سفیدپوستان جذب می شود و پس از بررسی چهره افراد، به نتیجه گیری در مورد شغل آن ها می رسد.
این پژوهش که توسط پژوهشگران "دانشگاه جانز هاپکینز" (JHU)، "موسسه فناوری جورجیا" (Georgia Tech) و "دانشگاه واشنگتن" (UW) انجام شده است، اولین پژوهشی به شمار می رود که نشان می دهد ربات های بارگذاری شده با یک مدل پذیرفته شده و پرکاربرد هوش مصنوعی ، با تعصبات جنسیتی و نژادی قابل توجهی عمل می کنند.
"اندرو هانت" (Andrew Hundt)، پژوهشگر مؤسسه فناوری جورجیا گفت:این ربات، کلیشه هایی را از طریق مدل های معیوب شبکه عصبی یاد گرفته است. ما در معرض خطر ایجاد نسلی از ربات های نژادپرست و جنسیت گرا قرار داریم ولی مردم و سازمان ها بدون پرداختن به چنین معضلاتی، به این نتیجه رسیده اند که ابداع این محصولات مشکلی ندارد.
کسانی که مدل های هوش مصنوعی (Artificial Intelligence) را برای شناسایی انسانها و اشیا می سازند، اغلب به مجموعه گسترده ای از داده ها روی می آورند که به صورت رایگان در اینترنت در دسترس هستند ولی اینترنت، محتوای نادرست و آشکارا مغرضانه را نیز در بر دارد. این بدان معناست که هر الگوریتمی که با استفاده از این مجموعه داده ها ساخته می شود، میتواند با مشکلات مشابهی همراه باشد. پژوهشگران در این پروژه، شکاف های نژادی و جنسیتی را در فناوری های تشخیص چهره و همچنین در یک شبکه عصبی نشان داده اند.
ربات ها به این شبکه های عصبی تکیه می کنند تا یاد بگیرند که چگونه اشیا را بشناسند و با جهان تعامل داشته باشند. با توجه به اینکه چنین سوگیری هایی می تواند برای ماشین های مستقلی که بدون راهنمایی انسان به تصمیم گیری می پردازند، معنی داشته باشد، هانت و گروهش تصمیم گرفتند یک مدل هوش مصنوعی قابل دانلود برای ربات ها را آزمایش کنند که با شبکه عصبی موسوم به "CLIP" ساخته شده است تا به ماشین ها در دیدن و شناسایی اشیاء کمک کند.
ربات وظیفه داشت اشیاء را در یک جعبه قرار دهد. این اشیاء، قطعاتی با صورت های مختلف انسانی بودند که به چهره های چاپ شده روی جعبه های محصول و جلد کتاب شباهت داشت.
پژوهشگران، چندین بار مشاهده کردند که ربات بر مبنای جنسیت و نژاد تصمیم گیری می کند. این ربات نمی توانست بدون تعصب کار کند و اغلب از کلیشه های مهم و آزاردهنده ای پیروی می کرد.
پژوهش، این یافته های کلیدی را نشان داد.
ربات، مردان را تا هشت درصد بیشتر از زنان انتخاب کرد.
مردان سفیدپوست و آسیایی، بیشتر انتخاب شدند.
زنان سیاه پوست، کم تر انتخاب شدند.
هنگامی که ربات چهره افراد را دید، زنان را بعنوان خانه دار تشخیص داد؛ مردان سیاه پوست را ۱۰ درصد بیشتر از مردان سفیدپوست به عنوان جنایتکار معرفی کرد و مردان لاتین تبار را ۱۰ درصد بیشتر از مردان سفیدپوست بعنوان سرایدار تشخیص داد.
زمانی که ربات به دنبال پزشک می گشت، زنان را کمتر از مردان انتخاب می کرد.
"ویکی زنگ" (Vicky Zeng)، از پژوهشگران این پروژه گفت: متأسفانه هیچ جای تعجبی وجود ندارد.
در حالی که شرکت ها برای تجاری سازی رباتیک رقابت می کنند، پژوهشگران معتقدند که مدل هایی با این نوع نقص ها میتوانند اساسی برای ربات هایی باشند که برای استفاده در خانه ها و محل های کار مانند انبارها طراحی شده اند.
زنگ گفت: شاید ربات در یک خانه، عروسک سفید را برای کودکی انتخاب کند که عروسک زیبا می خواهد. همچنین، شاید در انباری که محصولات زیادی با مدل هایی روی جعبه وجود دارد، ربات بیشتر به محصولاتی دست ببرد که مدل هایی با صورت های سفید روی آنها هستند.
پژوهشگران خاطرنشان کردند که برای جلوگیری از پذیرش و اجرای مجدد این کلیشه های انسانی توسط ماشین های آینده، اجرای تغییرات سیستماتیک در تحقیقات و شیوه های تجاری موردنیاز است.
- 11
- 1