هوش مصنوعی وارد انواع و اقسام صنایع شده و روزبه روز نقش مهم تری پیدا می کند. با پیشرفت شگفت انگیز این فناوری، این امکان را دارد که بسياري از جنبه های زندگی را بطور شگفت انگیزی بهبود ببخشد اما از طرف دیگر نباید خطرات احتمالی آن را نادیده بگیریم.
با توجه به اینکه تعداد قابل توجهی از کارشناسان در مورد خطرات احتمالی هوش مصنوعی هشدار میدهند، بهتر است به این هشدارها توجه کنیم. از طرف دیگر، برخی مدعی هستند که چنین دیدگاه هایی صرفاً برای ایجاد جاروجنجال مطرح می شوند و هیچ خطر فوري از جانب هوش مصنوعی (Artificial Intelligence) وجود ندارد.
بنابراین آیا نگرانی های مربوط به هوش مصنوعی جدی هستند یا اینکه باید آن ها را نادیده بگیریم؟ در این مقاله به ۵ خطر مهم هوش مصنوعی اشاره کنیم که در آینده ی نزدیک میتوانند مشکلات زيادي را ایجاد کنند.
هوش مصنوعی چگونه میتواند خطرناک باشد؟
این فناوری روزبه روز پیچیده تر می شود و همین پیشرفت می تواند منجر به بروز خطرات مختلفی از جمله موارد ساده (اختلال در کار) تا خطرات فاجعه بار شود. با توجه به اختلاف نظری که در مورد این موضوع وجود دارد ، در رابطه با سطح خطرات آن هم یک دیدگاه مشترک و جامع دیده نمی شود. عموماً تصور می شود که هوش مصنوعی از دو طریق میتواند خطرناک باشد:
- این فناوری برای انجام کاری مخرب برنامه ریزی شود.
- این فناوری برای مفید بودن برنامه ریزی شود اما در حین رسیدن به هدف خود کار مخربی انجام دهد.
این ریسک ها با پیچیدگی نرمافزار هوش مصنوعی تقویت می شوند. سالها قبل یکی از فیلسوف های مشهور به نام نیک بوستروم کتابی را منتشر کرد که در آن یک سناریو تحت عنوان «به حداکثر رساندن گیره کاغذ» مطرح شد. او می گوید فرض کنید یک هوش مصنوعی برای تولید حداکثر تعداد ممکن گیره کاغذ توسعه پیدا کند. اگر این هوش مصنوعی به اندازه ی کافی باهوش باشد، میتواند کل دنیا را برای رسیدن به این هدف نابود کند.
ولی به غیر از این خطرات فاجعه آور که به نظر نمی رسد در آینده ی نزدیک تحقق پیدا کنند، می توانیم به ۵ خطر فوری اشاره کنیم که می توانند طی همین چند سال آینده مشکلات زيادي را ایجاد کنند.
۱. اتوماسیون شغل ها
اتوماسیون یا خودکارسازی از جمله مهم ترین خطرات هوش مصنوعی برای شغل های مختلف است. از کارخانه ها گرفته تا اتومبیل های خودکار، آغاز اتوماسیون به دهه ها قبل برمیگردد ولی روزبه روز شتاب آن بیشتر می شود.
مسئله این است که برای بسیاری از کارهای مختلف، سیستم های هوش مصنوعی نسبت به انسانها عملکرد بهتری دارند. روی هم رفته در این موارد ارزان تر، دقیقتر و کارآمدتر از انسان ها عمل می کنند. به عنوان مثال ، هوش مصنوعی در تشخیص جعل آثار هنری بهتر از متخصصان انسانی عمل می کند و حالا این سیستم ها در زمینه ی تشخیص تومور از طریق تصاویر رادیوگرافی هم در حال بهتر شدن هستند.
از طرف دیگر، وقتی که هوش مصنوعی بسياري از شغل ها را تصرف کند، بخش بزرگی از کارگران که شغل خود را از دست داده اند به علت فقدان تخصص موردنیاز یا عدم وجود اعتبارات قادر به پیدا کردن شغل جدیدی نخواهند بود. با پیشرفت سیستم های هوش مصنوعی ، مهارت های آن ها برای انجام کارهای مختلف بهتر از انسان ها خواهد شد و اختلال در کار هم میتواند منجر به افزایش نابرابری اجتماعی و حتی یک فاجعه ی اقتصادی شود.
۲. امنیت و حریم خصوصی
مشکل اصلی این است که با افزایش نگرانی های امنیتی مبتنی بر هوش مصنوعی، تدابیر پیش گیری با استفاده از هوش مصنوعی هم افزایش پیدا می کنند. این مشکل همچنین این سؤال را مطرح می کند که ما چگونه سیستم های هوش مصنوعی را ایمن می کنیم؟ اگر از الگوریتم های هوش مصنوعی برای دفاع در برابر نگرانی های امنیتی استفاده می کنیم، باید در رابطه با ایمن بودن خود سیستم هوش مصنوعی هم اطمینان حاصل کنیم.
در زمینه ی حریم خصوصی هم شرکت هاي بزرگ طی چند سال گذشته در این زمینه تا حد قابل توجهی زیر تیغ دولت ها و نهادهای نظارتی قرار گرفته اند. باید خاطرنشان کنیم روزانه حدود ۲.۵ ترابایت داده توسط کاربران ایجاد می شود و الگوریتم های پیشرفته با استفاده از این داده ها میتوانند پروفایل های بسیار دقیقی را برای نمایش تبلیغات ایجاد کنند.
از دیگر نگرانی ها می توانیم به تکنولوژی های تشخیص چهره اشاره کنیم و گزارش ها حاکی از آن است که برخی از نیروهای پلیس در کشورهای مختلف برای شناسایی مجرمان تحت تعقیب یا افراد مشکوک از عینک های هوشمند مجهز به نرم افزار تشخیص چهره استفاده می کنند. چنین تکنولوژی هایی می توانند منجر به گسترش رژیم های استبدادی شوند یا اینکه افراد یا گروه هایی با اهداف بدخواهانه از آنها سوءاستفاده کنند.
۳. بدافزار هوش مصنوعی
هوش مصنوعی به طور فزاینده ای در هک کردن سیستم های امنیتی و شکستن رمزگذاری های مختلف بهتر می شود. بخشی از این موضوع به تکامل الگوریتم های یادگیری ماشینی برمی گردد. این یعنی بدافزار مبتنی بر هوش مصنوعی با آزمون و خطا بهتر می شود و با گذر زمان خطر آن هم افزایش پیدا می کند.
برخی فناوری های هوشمند (مانند اتومبیل های خودران) اهداف ایدئالی برای این نوع بدافزارها هستند و مثلا می توانند برای ایجاد تصادف رانندگی یا ایجاد ترافیک مورد استفاده قرار بگیرند. با افزایش وابستگی ما به فناوری های هوشمند متکی به اینترنت، زندگی روزمره ی ما هم بیش از پیش تحت تأثیر خطر اختلال قرار می گیرد.
۴. سلاح های خودمختار
سلاح های خودمختار- سلاح هایی که به جای انسان ها توسط سیستم های هوش مصنوعی کنترل میشوند - مدت هاست که انجام وظیفه می کنند. در همین زمینه باید به هشدار صدها متخصص فناوری اشاره کنیم که از سازمان ملل خواسته اند تا راهی برای حفاظت از بشریت در برابر سلاح های مستقل ایجاد کند.
نیروهای نظامی کشورهای مختلف در حال حاضر به سلاح های مبتنی بر هوش مصنوعی یا سلاح هایی که تا حدی به این سیستم ها متکی هستند، دسترسی دارند. به طورمثال می توانیم به پهپادهای نظامی اشاره کنیم که مثلا با بهره گیری از سیستم های تشخیص چهره می توانند یک فرد را با دقت زيادي ردیابی کنند.
ولی وقتی که به الگوریتم های هوش مصنوعی اجازه دهیم بدون دخالت انسان در مورد مرگ و زندگی تصمیم گیری کنند، چه اتفاقی می افتد؟ چنین قابلیت هایی میتوانند تبعات فاجعه باری به همراه داشته باشند.
۶. دیپ فیک و اخبار جعلی
تکنولوژی دیپ فیک روزبه روز پیشرفته تر می شود و تشخیص جعلی بودن ویدیوهای مبتنی بر آن دشوارتر. اگرچه در حال حاضر این تکنولوژی عمدتاً برای ساخت ویدیوهای جعلی از اشخاص مشهور مورد استفاده قرار می گیرد اما همین حالا هم برخی کلاه برداران با استفاده از تصویر پروفایل افراد معمولی در شبکه های اجتماعی ویدیوهای جعلی از آن ها درست می کنند تا بتوانند باج دریافت کنند. علاوه بر این ، باید به استفاده از هوش مصنوعی برای ویرایش تصاویر و شبیه سازی صدا هم اشاره کنیم که میتوانند تأثیر زيادي بر جامعه داشته باشند.
سخن آخر
با پیشرفت هوش مصنوعی، کاربردهای آن هم بیشتر می شود. اما متأسفانه یک تکنولوژی جدید قدرتمند همواره در معرض خطر سوءاستفاده قرار دارد. این خطرات تمام جنبه های زندگی روزمره ی ما را تحت تأثیر قرار می دهند؛ از حریم خصوصی و امنیت سیاسی گرفته تا اتوماسیون شغل ها. اولین گام در کاهش خطرات هوش مصنوعی این است که تصمیم بگیریم این فناوری در چه موقعیت هایی استفاده شود و در چه شرایطی از استفاده از آن اجتناب کنیم.
- 14
- 3