اگر یک فرد شخص دیگری را به قتل برساند قوانین مشخصی برای مجازات او وجود دارد و دادگاه بر اساس موازین موجود براحتی او را محاکمه میکند. با وجود این اگر یک دستگاه هوشمند الکترونیکی مانند روبات باعث قتل یک انسان شود، به نظر شما چه کسی مقصر خواهد بود؟
اگرچه این روزها اخباری مبنی بر اقدامات صلحجویانه «کیم جونگ اون» به گوش میرسد، ولی بر اساس آخرین گزارشها فضای بین کره شمالی و کره جنوبی پرتنشترین مرز میان دو کشور در سراسر جهان معرفی شده است و در این نقطه از کره خاکی روباتهای هوشمند بیشتر از سربازان نگهبانی میدهند و این احتمال وجود دارد در صورت مشاهده هرگونه تخلف، روباتها به سمت انسان شلیک کنند و او را از پا دربیاورند.
قاتلی از جنس روبات
کره جنوبی بتازگی از ساخت روبات هوشمندی خبر داده است که با نام SGR-A1 شناخته میشود و یکی از شعبههای سامسونگ وظیفه ساخت آن را برعهده داشته است. شکل ظاهری این روبات نگهبان ۱.۲ متری شبیه به چند جعبه سیاه است که در کنار یکدیگر قرار گرفتهاند و البته در قسمت سر روبات لیزرهای مادون قرمز کار چشم را برای آن انجام میدهند که دشمن نتواند به مواضع آن نزدیک شود و کوچکترین حرکات تا شعاع چهار کیلومتری در دید آن پنهان نماند. این روبات در اصل یک سرباز بسیار ماهر است که در صورت شناسایی هر گونه تخلف دست به کار میشود.
در مرحله کنونی، این روبات به گونهای آموزش دیده است که هنگام مشاهده نیروهای دشمن آن را به فرمانده خود که در مرکز کنترل قرار دارد، گزارش میدهد. اگر در مرکز کنترل به او دستور داده شود، روبات میتواند دشمن را به گلوله ببندد. برای SGR-A1 همچنین قابلیتی در نظر گرفته شده است تا به صورت خودکار عمل کند و هر زمان مناسب دید، بدون نیاز به دریافت مجوز وارد عمل شود و مواضع دشمن را به رگبار ببندد.
پنتاگون و دیگر ارتشهای بزرگ جهان به صورت گسترده در حال توسعه سلاحهای هوشمندی هستند که قدرتمندتر از پهپادهای کنترلی واشنگتن در پاکستان، افغانستان و... عمل میکنند. پیشرفتهای فناوری به این دسته از سلاحها امکان میدهد تا بتوانند اهداف خود را بدرستی شناسایی کنند و بدون دخالت انسان آنها را از بین ببرند. وزارت دفاع امریکا پیشبینی کرده است که این سلاحها در آینده نه چندان دور میتوانند دوش به دوش انسانها در خط مقدم میدانهای جنگ حاضر شوند.
موضوع روباتهای قاتل از جمله بحثهایی است که برای انسان چندان خوشایند به نظر نمیرسد. این هفته کنفرانس ائتلاف بینالمللی توسعهدهندگان روبات، دانشگاهها و فعالان حقوق بشر با نام «کمپین نه به روباتهای قاتل» در مقر سازمان ملل متحد برگزار شد و سیاستمداران را مورد هدف قرار داد. این گروه از افراد در جریان برگزاری کنفرانس مذکور سعی کردند ساخت و استفاده از «سلاحهای خودکار مرگبار» متوقف شود و البته این اتفاق در حالی صورت گرفت که با وجود توسعه فناوری، این سلاحها هنوز به صورت رسمی استفاده نشدهاند.
نه به روباتهای قاتل
«پیتر آسارو» از محققان حوزه رسانه در مرکز «نیو اِسکول» شهر نیویورک و سخنگوی فراخوان «نه به روباتهای قاتل» در این خصوص گفت: «سؤالی که در اینجا مطرح میشود این است که آیا ماشینها اجازه دارند جان انسان را بگیرند و حتی اگر این اتفاق نیفتد، ساخت چنین دستگاههایی نمیتواند ارزش و هویت انسان را زیر پا بگذارد؟».
این همان سؤالی است که فیلسوفان، کارشناسان علوم حقوقی و محققان اجتماعی از مدتها قبل مطرح کردند و هشدار دادند توسعه فناوری میتواند در آینده نزدیک روباتها را به قدری قدرتمند کند که مرگ و زندگی انسان به دست آنها مشخص شود. روباتها این روزها با هدف مراقبت از سالمندان، آموزش کودکان اوتیسمی، رانندگی در اتومبیل، انجام جراحیهای پزشکی و... توسعه می یابند. اگرچه این روباتها برای کشتن انسانها طراحی نشدهاند، ولی هماکنون این سؤال از مراجع قضایی مطرح شده است که: اگر یک عابر پیاده پس از برخورد با اتومبیل خودران جان خود را از دست دهد چه کسی مقصر خواهد بود؟
اگر یک روبات هوشمند پزشکی با تجویز اشتباه دارو باعث مرگ بیمار شود چه کسی پاسخگو است؟ اگر اشتباه یک روبات نگهبان در شلیک به مواضع دشمن باعث آغاز جنگ میان دو کشور شود چه اتفاقی صورت میگیرد. چندی پیش در برخی خبرها گفته شد که یک روبات هوشمند مخصوص تمیز کردن خانه، موهای فردی را که روی مبل دراز کشیده بود به داخل خود کشید و باعث ایجاد آسیب جدی در وی شد. در این حالت چه کسی مقصر است؟
پروفسور آسارو و اعضای گروه او که چندین فعال حقوق بشر را شامل میشوند بر این مسأله تأکید دارند که اگر یک سیستم رایانهای خودکار مانند روبات برنامهریزی شده مخصوص تشخیص نیروهای دشمن از غیرنظامیان بدون کنترل انسان باعث مرگ یک نفر شود، بسیار دشوار است که بتوان یک فرد یا گروه را در این زمینه مقصر دانست. این همان خلأ بزرگی است که هنوز در این زمینه برطرف نشده است.
خلأ قانونی
براساس تئوریهای کنونی گفته میشود که اگر یک روبات خودکار وارد روستا شود و همه اهالی آن را به قتل برساند، هیچ دادگاه یا مرکز قضایی وجود ندارد که یک جسم بیجان را مجازات کند و «دادگاه جنایی بینالمللی» نیز قانون مشخصی در این خصوص وضع نکرده است. برخی کارشناسان بر این باورند که هنگام بروز اتفاق مذکور نمیتوان طراحان و سازندگان روبات را هم مقصر دانست، زیرا ممکن است در برنامهریزیهای اولیه هرگز برای روبات تعریف نشده باشد که تمام اهالی یک روستا را به قتل برساند. دادگاهها بر اساس قوانین کیفری موجود نیازمند آن هستند تا با بررسی پرونده مربوطه ذهن آگاه عامل جنایت را شناسایی کنند.
با وجود این زمانی که دادگاه با یک روبات مواجه میشود این مشکل وجود دارد که چگونه به ذهنیت و هدف از جنایت او پی ببرد، زیرا برای روبات هوش مصنوعی تعریف شده است و افکار و احساسات انسانی را درک نمیکند. ممکن است طراحان یا سازندگان روبات مسئولیت مدنی در قبال روبات خود داشته باشند و بهعنوان مثال اگر بررسیهای صورت گرفته ثابت کند که اختلال نرمافزاری یا سختافزاری باعث اعمال روبات شده است، آنها میتوانند محاکمه شوند ولی این قبیل مجازاتها نمیتواند جلوی حضور روباتهای قاتل را بگیرد و ادامه فعالیت آنها را متوقف کند.
روباتهای قاتل میتوانند در اشکال مختلف ظاهر شوند و از هواپیماهای بدون سرنشین گرفته تا ماشینهای مریخنورد، به اسلحه مجهز شوند. وزارت دفاع ایالات متحده در سال ۲۰۱۲ میلادی بر اساس دستورالعمل جامع خود اعلام کرد تمامی سیستمهای خودکار باید به گونهای طراحی شوند که فرماندهان و اپراتورها بتوانند سطوح مناسب قضاوت در مورد استفاده از اسلحه در آنها را کنترل کنند. وزارت دفاع کانادا نیز چندی پیش اظهار داشت: «در حال حاضر هیچ گونه سلاحی که به صورت خودکار و بدون دخالت انسان بتواند شلیک کند و جان فردی را بگیرد در دست نداریم». با وجود این آژانس تحقیقاتی وابسته به این وزارتخانه «برنامه فعال مطالعاتی در حوزه سیستمهای هوشمند غیرانسانی» را پیش میبرد.
شرکت «کلییرپَث» که دفتر مرکزی آن در شهر اونتاریو واقع شده است از نخستین مراکز جهان محسوب میشود که در مقابل توسعه روباتهای قاتل گام برداشته است تا از این طریق بتواند در مقابل آزمایشگاه تحقیقاتی روباتهای هوشمند کانادا گام بردارد.
«رایان گریپی» بنیانگذار این مرکز توضیح داد روباتهای مینیاب یا روباتهای ناجی از جمله روباتهای نظامی محسوب میشوند که با اهداف انساندوستانه توسعه یافتهاند و هرگز به سمت انسان اسلحه نمیکشند. حضور این قبیل روباتها در میادین نبرد میتوانند بدون خونریزی جان افراد زیاد را نجات دهند و بهتر است این دسته روباتهای نظامی توسعه یابند. به هر حال، هنوز بدرستی مشخص نشده است که سازمان ملل متحد و دیگر مراکز جهانی در مقابل روباتهای قاتل چه موضعی دارند و چگونه با وضع قوانین جدید میتوانند جلوی توسعه آنها را بگیرند.
موضوع روباتهای قاتل از جمله بحثهایی است که برای انسان چندان خوشایند به نظر نمیرسد. این هفته کنفرانس ائتلاف بینالمللی توسعهدهندگان روبات، دانشگاهها و فعالان حقوق بشر با نام «کمپین نه به روباتهای قاتل» در مقر سازمان ملل متحد برگزار شد و سیاستمداران را مورد هدف قرار داد
اگر یک روبات خودکار وارد روستا شود و همه اهالی آن را به قتل برساند، هیچ دادگاه یا مرکز قضایی وجود ندارد که یک جسم بیجان را مجازات کند و «دادگاه جنایی بینالمللی» نیز قانون مشخصی در این خصوص وضع نکرده است
میثم لطفی
- 11
- 5