به گزارش ایسنا، هوش مصنوعی (Artificial Intelligence) از سیری (دستیار صوتی اپل) تا ماشینهای خودران، به سرعت در حال پیشرفت است. در حالی که داستانهای علمی - تخیلی اغلب هوش مصنوعی را در قالب رباتهایی انساننما نشان میدهد، هوش مصنوعی، الگوریتمهای جستوجوی گوگل تا پلتفرم تجاری کمپانی آی.بی.ام و «سلاحهای خودمختار» را در بر میگیرد.
هوش مصنوعی امروزه مشخصا به عنوان هوش مصنوعی محدود یا ضعیف شناخته میشود که برای انجام یک وظیفهی محدود (به عنوان مثال فقط تشخیص چهره یا جستوجوهای اینترنتی یا راندن یک ماشین) طراحی شده است. با این حال، هدف بلندمدت بسیاری از محققان، ایجاد هوش مصنوعی عمومی یا قوی است. در حالی که هوش مصنوعی محدود ممکن است در وظایف خاصی که به او اختصاص داده میشود، مانند بازی شطرنج یا تنها انجام محاسبات، بهتر از انسان عمل کند، هوش مصنوعی عمومی میتواند تقریبا در «امور شناختی» (مربوط به فرایند یادگیری، شناختن و آموختن چیزها) بهتر از انسانها عمل کند.
هوش مصنوعی امنیت دارد؟
به گزارش ایسنا، در کوتاهمدت، حفظ تأثیرات هوش مصنوعی بر جامعه، انگیزهای است تا در بسیاری از زمینهها، مثل اقتصاد، قانون، امنیت و کنترل تحقیق شود. اگر لپتاپ شما خراب یا هک شود، ممکن است اتفاق ناگواری باشد اما تصور کنید از یک سیستم هوش مصنوعی بخواهید کاری مثل کنترل ماشین، هواپیما، دستگاه تنظیم ضربان قلب، سیستم تجارت خودکار یا سیستم شبکهی برق شما را به دست بگیرد! یکی دیگر از چالشهای کوتاهمدت، جلوگیری از مسابقهی تسلیحاتی در حوزهی سلاحهای خودمختار مرگبار است.
در درازمدت سؤال مهم این است که اگر تلاش برای هوش مصنوعی قوی موفق شود و سیستم هوش مصنوعی در همهی امور شناختی بهتر از انسانها باشد، چه اتفاقی میافتد؟همانطور که جان گود، ریاضیدان انگلیسی در سال ۱۹۶۵ اشاره کرده است، طراحی دقیق سیستمهای هوش مصنوعی به خودی خود یک کار شناختی است. چنین سیستمی میتواند بطور بالقوه «خودبهبودی بازگشتی» را به وجود آورد که موجب انفجار اطلاعاتی میشود که عقل بشری پشت سر بگذارد. با اختراع فناوریهای جدید انقلابی، چنین ابَر هوشی ممکن است برای ریشهکن کردن جنگ، بیماری و فقر به ما کمک کند. بنابراین ایجاد هوش مصنوعی قوی ممکن است بزرگترین رویداد تاریخ بشر باشد. البته بعضی از کارشناسان در اینباره ابراز نگرانی کردهاند؛ آنها میگویند اگر ما نتوانیم پیش از ایجاد این ابَر هوش، اهداف هوش مصنوعی را با اهدافش بشری هماهنگ کنیم، ممکن است آخرین باری باشد که بشر چیزی اختراع میکند!
بعضیها در دستیابی به ابر هوش تردید میکنند و برخی دیگر اصرار دارند که ایجاد هوش مصنوعی ابر هوشمند، ممکن و بطور تضمینی سودمند خواهد بود. کارشناسان هر دو احتمال را در نظر دارند و میدانند هوش مصنوعی قوی، ممکن است عمداً یا سهواً موجب خسارتهای عظیمیشود؛ با این حال بر این باورند که تحقیقات امروزی میتواند در پیشگیری از این عواقب منفی احتمالی کمک کند و میتوان در عین اجتناب از معایب، از مزایای ابر هوش بهرهمند شد.
هوش مصنوعی چگونه میتواند خطرناک باشد؟
محققان بر این باورند که بعید است ابر هوش، احساسات انسانی مانند عشق و نفرت را به نمایش بگذارد و هیچ دلیلی وجود ندارد که تعمداً خیرخواه یا بدخواه باشد!
با این حال کارشناسان درمورد خطرات هوش مصنوعی دو سناریو در ذهن دارند:
اول: هوش مصنوعی برای انجام کاری ویرانگر برنامهریزی شده است: سلاحهای خودمختار، سیستمهای هوش مصنوعی هستند که برای کشتن برنامهریزی شدهاند. در دستان آدمِ عوضی، این سلاحها براحتی میتوانند باعث تلفات جمعی شوند. علاوه بر این، مسابقهی تسلیحاتی در این حوزه میتواند منجر به جنگ هوش مصنوعی شود که تلفات زیادی بر جا میگذارد. برای جلوگیری از نابود شدن توسط دشمن، این سلاحها طوری طراحی میشوند که براحتی «خاموش» نشوند؛ بنابراین احتمالاً انسانها کنترل این وضعیت را از دست میدهند! البته این خطر حتی با هوش مصنوعی محدود فعلی نیز وجود دارد اما همپای هوش مصنوعی و افزایش سطح خودمختاری سلاحها رشد میکند.
دوم: هوش مصنوعی برای انجام کاری مفید برنامهریزی شده است اما یک روش مخرب برای دستیابی به هدف خود ایجاد میکند: اگر نتوانیم اهداف هوش مصنوعی را با اهداف خودمان هماهنگ کنیم این اتفاق هر زمانی ممکن است رخ دهد و دردسرهای زیادی درست کند.
اگر از ماشین هوشمند حرفگوشکن خود بخواهید که شما را بسرعت به فرودگاه برساند، ممکن است کاری کند که پلیس شما را با هلیکوپتر تعقیب کند! شاید این چیزی نباشد که شما «خواستهاید» اما چیزی است که به معنای واقعی کلمه شما «درخواست» کردهاید!
همانطور که این مثالها نشان میدهند، نگرانی دربارهی هوش مصنوعی پیشرفته، بابت «خشونت» نیست، بلکه بابت «صلاحیت» آن است. هوش مصنوعی ابر هوشمند، در دستیابی به اهداف خود بسیار خوب عمل میکند و اگر این اهداف با اهداف بشر هماهنگ نباشد، مشکل خواهیم داشت!
شما احتمالاً یک مورچهکش شیطانصفت که با نفرت مورچهها را لگد میکند نیستید اما اگر مسئولیت یک پروژهی برقآبی «انرژی سبز» را بر عهده داشته باشید و در محدودهای که بخاطر پروژه قرار است زیر آب برود یک تپهی مورچهای وجود داشته باشد، این برای مورچهها خیلی بد است؛ هدف کلیدی تحقیقات ایمنی در حوزهی هوش مصنوعی، این است که هرگز بشر در موقعیت آن مورچهها قرار نگیرد!
نگرانی بزرگان علم و فناوری دربارهی امنیت هوش مصنوعی
استفن هاوکینگ، الون ماسک، استیو ووزنیاک، بیل گیتس و بسیاری دیگر از نامهای بزرگ در زمینه علم و فناوری، اخیرا در رسانهها و نامههای سرگشادهی خود، دربارهی خطرات ناشی از هوش مصنوعی ابراز نگرانی کرده و به خیل محققان برجستهی هوش مصنوعی پیوستهاند.
چرا این موضوع ناگهان در سرخط خبرها قرار گرفت؟ این ایده که تلاش برای دستیابی به هوش مصنوعیِ قوی در نهایت موفقیتآمیز خواهد بود، از قرنها پیش در داستانهای علمی - تخیلی، وجود داشته است. با این حال، به لطف پیشرفتهای غیرمنتظرهی دهههای اخیر، بسیاری از نقاط قوت هوش مصنوعی که کارشناسان انتظار داشتند دهههای بعد محقق شود، تنها در پنج سال گذشته به دست آمده است و بسیاری از کارشناسان جداً تصور میکنند که ممکن است ما ابر هوش را در طول زندگی خود تجربه کنیم.
در همین حال برخی دیگر از کارشناسان معتقدند که پیشرفت هوش مصنوعی در حد هوش انسانی قرنها طول میکشد؛ بطوری که بیشتر محققان در کنفرانس پورتوریکو ۲۰۱۵ معتقد بودند که این اتفاق پیش از سال ۲۰۶۰ محقق خواهد شد و از آنجا که ممکن است تحقیق دربارهی امنیت هوش مصنوعی دههها طول بکشد، احتیاطاً باید از همین حالا شروع کرد.
از آنجا که هوش مصنوعی توانایی این را دارد که هوشمندتر از هر انسانی باشد، هیچ راه مطمئنی برای پیشبینی رفتار آن وجود ندارد. نمیتوانیم یک فناوری قبلی را اساس کار قرار دهیم چون هرگز چیزی که - آگاهانه یا ناآگاهانه - باهوشتر از بشر باشد خلق نکردهایم. شاید بهترین مثال از آنچه که ممکن است با آن مواجه شویم، تکامل بشر است؛ انسانها اکنون سیارهی زمین را کنترل میکنند، نه بخاطر اینکه ما قویترین، سریعترین یا بزرگترین موجودات هستیم بلکه بخاطر اینکه باهوشترینها هستیم. اگر روزی برسد که «باهوشترین» نباشیم، آیا میتوان مطمئن بود که باز هم کنترل زمین را در دست داشته باشیم؟
برخی بر این باورند که تمدن بشر تا زمانی شکوفا میشود که ما در مسابقهی بین فناوری و هوشِ چیزی که آن را مدیریت میکنیم، برنده باشیم؛ بهترین راه برای برندهشدن در این مسابقه این نیست که مانع از پیشرفت اولی شویم، بلکه باید دومی را با گسترش تحقیقاتِ ایمنیِ هوشِ مصنوعی تسریع دهیم.
افسانههای برجسته دربارهی هوش مصنوعی پیشرفته
آیا پیشرفت احتمالی هوش مصنوعی تا سطح هوش انسان منجر به انفجار اطلاعاتی خواهد شد؟ آیا باید از این اتفاق خوشحال باشیم یا باید از آن بترسیم؟ نمونههای بسیاری از بحثهای کاذب خستهکنندهی ناشی از سوءتفاهم دربارهی هوش مصنوعی وجود دارد.
زمانبندی تحقق ابرهوش
یک تصور غلط این است که بشر در قرن بیستویکم به هوش مصنوعی قوی دست مییابد. در حقیقت، تاریخ پر است از پیشگوییهای عرصهی فناوری؛ اتومبیلهای پرندهای که وعده داده بودیم کجاست؟! هوش مصنوعی هم در گذشته حتی توسط برخی از بنیانگذاران این حوزه بطور مکرر وعده داده شده است.
محققان تصور میکنند احتمال دستیابی به چنینی چیزی ۵۰ درصد است و تا سال ۲۰۴۵ به این فناوری میرسیم؛ برخی محققان دیگر صدها سال یا بیشتر را حدس زدهاند. در هر صورت محققان همین حالا مشغول تحقیق دربارهی امنیت هوش مصنوعی قوی هستند و استدلال میکنند که گرچه مطمئن نیستیم این اتفاق در این قرن رخ دهد اما حل مسائل امنیتی این حوزه ممکن است چندین دهه طول بکشد. بنابراین اگر از حالا محتاطانه شروع به تحقیق کنیم بهتر از این است که برنامهنویسان شب قبل از واقعه در حال خوردن ردبول تصمیم بگیرند که کار را شروع کنند!
خطرات ابرهوش
بسیاری از محققان هوش مصنوعی زمانی که این سرخط را میبینند چشمانشان گرد میشود: «استفن هاوکینگ هشدار میدهد که افزایش رباتها ممکن است برای بشر فاجعهبار باشد».
مقالات بسیاری در اینباره منتشر شده که اغلب تصویر یک ربات شیطانی سلاح به دست را نشان میدهند و میگویند باید نگران افزایش رباتها و کشتار انسانها باشیم زیرا آنها هوشمند یا شرور شدهاند. چنین مقالاتی واقعاً جذابند اما دربارهی چیزی حرف میزنند که محققان نگران آن نیستند. این سناریو ترکیبی از سه تصور غلط است: نگرانی دربارهی هوش، شر و رباتها.
اینکه رباتها هوشمند باشند و مثل انسانها تجربههای ذهنی کسب کنند، مهم نیست؛ مهم، کاری است که هوش مصنوعی قوی میتواند انجام دهد. ترس از شرور شدن رباتها موضوع فرعی دیگری است؛ در حالی که نگرانی اصلی دربارهی بدرفتاری آنها نیست، بلکه دربارهی شایستگی آنهاست. ابرهوش بخوبی میتواند به اهداف خود دست پیدا کند، بنابراین ما باید مطمئن شویم که اهداف آن با ما هماهنگ باشد.
انسانها عمدتاً از مورچهها نفرت ندارند اما ما هوشمندتر از آنها هستیم، پس اگر میخواهیم نیروگاه برقآبی بسازیم، این برای مورچهها خیلی بد است. جنبش «هوش مصنوعی مفید» میخواهد از قرار دادن بشریت در موقعیت آن مورچهها اجتناب کند.
تصور غلط دیگر مربوط به این است که ماشینها نمیتوانند اهداف خود را داشته باشند. برای مثال موشکی که میتواند هدف خود را تعقیب کند، هدف مشخصی دارد اما مهم این است که آن هدف با هدفی که شما به دنبال آن هستید هماهنگ باشد. بنابراین نگرانی متخصصان دربارهی هوشمندی ماشینها نیست، دربارهی اطلاعات هوشمندانهی آنهاست؛ بطور خاص، اطلاعاتی که اهدافشان با ما متفاوت است.
چنین هوش فوقالعادهای بدون نیاز به بدنِ رباتیک، صرفاً نیازمند اتصال به اینترنت است تا بتواند دردسرهای عظیمی برای جهان درست کند.
اشتباه است که تصور کنیم یک ربات نمیتواند انسان را کنترل کند: انسان میتواند یک ببر را کنترل کند فقط به این دلیل که از او باهوشتر است؛ یعنی اگر ما موقعیت خود را به عنوان هوشمندترین موجود روی زمین از دست بدهیم، به احتمال بسیار زیاد کنترل سیاره را هم از دست میدهیم!
ترجمه از میثم خدمتی
منبع: www.futureoflife.org
- 10
- 3
کاربر مهمان
۱۳۹۷/۱۰/۲۳ - ۱۷:۴۷
Permalink