وجود ما به عنوان یک گونه جانوری محدود است. چه انقراض ما انسانها در نتیجهی نابودی سیارکها باشد، چه یک بیماری همهگیر در سطح جهانی و یا یک جنگ هستهای، آیندهی ما آنقدر در خطر است که انقراض ما تقریباً اجتناب ناپذیر است. رویدادهایی تا این حد فاجعه بار روی گونهی ما اثر خواهد گذاشت. حتی اگر یک جنگ هستهای 99 درصد جمعیت جهان را از بین ببرد یک درصد نجات یافته به سختی میتواند از آن وضعیت بهبود یابد و حتی اگر موفق شود سالها طول خواهد کشید تا بتواند به جایی که بوده باز گردد. اما هیچ راه برگشتی از بعضی از اتفاقات وجود ندارد. هیچ راهی برای بهبود وضع برای نسل انسان نخواهد بود.
این اتفاقات فاجعه بار خطرات وجودی هستند که اگر پیش بیایند انقراض نسل ما حتمی خواهد بود. این مشکل بسیار بزرگ موضوع یک پادکست ده بخشی به نام « پایان دنیا با جاش کلارک» شده است. در این پادکست کلارک روشهای مختلفی را بررسی میکند که توسط آنها دنیایی که ما میشناسیم ممکن است به پایان برسد. یکی از این روشها هوش مصنوعی فوق هوشمند است که کنترل دنیا را به دست خواهد گرفت.
برای تحقیق در این زمینه کلارک با متخصصین در زمینه خطرات وجودی و هوش مصنوعی، از جمله نیک بوستروم، فیلسوف سوئدی و موسس سازمان آینده انسانیت، دیوید پیرس، موسس انجمن فرا انسانی جهانی و سباستین فارکوهار، فیلسوف دانشگاه آکسفورد صحبت کرده است. کلارک معتقد است که پیشرفت انسان در تکنولوژی هوش مصنوعی میتواند باعث نابودی ما شود.
خطرات وجودی یعنی چه؟
ممکن است بگویید که خطرات زیادی هم اکنون انسانیت را تهدید میکند. برای مثال تغییرات اقلیمی که توسط انسان به وجود آمده میتواند برای انسانیت یک خطر باشد. اما کلارکت معتقد است که خطرات وجودی میتوانند ما را به دوران پارینه سنگی و یا قبلتر بازگردانند. البته تغییرات اقلیمی جزء خطرات وجودی محسوب نمیشود. چرا که به گفته کلارک ممکن است در طول صدها هزار سال بتوانیم انسانیت را حتی خیلی سریعتر از هر زمان دیگر بازسازی کنیم زیرا دانشی را خواهیم داشت که زمانی که اولین تمدنها ایجاد شدند نداشتیم.
اما درمورد خطرات بالقوه اوضاع طوری دیگر است چرا که دیگر هیچ راه برگشتی وجود نخواهد داشت و پایان انسانیت خواهد بود. اولین بار فیسلوف معروف نیک بوستروم بود که گفت خطرات بالقوه باید جدی گرفته شوند. در مقالهای که در ژورنال Evolution and Technology چاپ شده او خطر وجودی را به این صورت تعریف کرد:« خطری که نتیجهی آن موجب نابودی وجود زندگی هوشمند از زمین شده یا به طور دائم قدرت آن را محدود کند.»
کلارک توضیح میدهد که طبق این نظریه حتی اگر ما به عنوان یک گونه جانوری زنده بمانیم دیگر نخواهیم توانست به نقطهای از پیشرفت برسیم که هم اکنون رسیدهایم. شاید روشهایی که ممکن است ما را از بین ببرد کمی عجیب و دور از ذهن به نظر برسد اما وقتی که با دید کلارک به قضیه نگاه میکنیم با عقل جور درمیآید. وقتی که از کلارک پرسیده شد که چرا سراغ همچین موضوع حساس و عجیبی رفته گفت: « این که انسانها ممکن است به صورت تصادفی خود را نابود کنند بسیار جالب است». عجیبترین خطر وجودی موجود پیش روی انسان این است که هوش مصنوعی کنترل دنیا را در دست بگیرد.
اصول هوش مصنوعی
در سالهای اخیر انسانها از تکنولوژی نهایت استفاده را بردهاند. با پیشرفت در سفرهای فضایی، تولد اینترنت و جهش بزرگ در علوم کامپیوتر یک خطر بالقوه جدید ایجاد شده است: هوش مصنوعی فوق هوشمند.
این که بفهمیم هوش مصنوعی چطور کار میکند اولین قدم در درک این موضوع است که چطور میتواند یک خطر وجودی برای انسانیت باشد. در اپیزود « هوش مصنوعی» این پادکست، کلارک مثالی از یک ماشین میزند که طوری برنامه ریزی شده که توپهای سبز را از توپهای قرمز را جدا کند.
تکنولوژی موجود در این ماشین بسیار پیشرفتهتر از چیزی است که به نظر میرسد. اگر این ماشین به درستی برنامه نویسی شده باشد میتواند توپهای سبز را از توپهای قرمز جدا کند. DeepBlue نیز در زمینه شطرنج دقیقاً همین کار را انجام میدهد. با این که این ماشینها بسیار جالب هستند اما تنها یک کار را انجام میدهند.
کلارک توضیح میدهد که «هدف هوش مصنوعی هیچگاه این نبوده که تنها ماشینی بسازد که در شطرنج از انسان بهتر باشد بلکه هدف ساخت ماشینی با هوش کلی مانند انسان است». او در ادامه گفت: « خوب بودن تنها در شطرنج کار یک ماشین است. اما خوب بودن در شطرنج، حساب و کتاب، اسپانیایی حرف زدن و یاد گرفتن طرز پخت یک کیک چیزی است که یک انسان را میسازد». این مشکلی است که پیشگامان هوش مصنوعی در تحقیقات خود به آن برخورده بودند. این که چطور تمام تجربیات یک انسان به یک ماشین آموزش داده شود. پاسخ در شبکههای عصبی است.
پیشرفت در هوش مصنوعی
اولین ماشینهای هوش مصنوعی ساخته شده در یک چیز بسیار خوب عمل میکردند اما پیشرفت در شبکههای عصبی باعث شده که این تکنولوژی به صورت چشمگیری ارتقا یابد. در سال 2006 اینترنت به لطف مخازن داده بسیار عظیم گوگل ایمیج و ویدئوهای یوتیوب و چیزهای یاز این قبیل به نیرویی بسیار قوی در توسعه شبکههای عصبی تبدیل شدند. حال با انفجار دسترسی به داده، شبکههای عصبی به اوج خود رسیدهاند. درنتیجه ماشینهای هوش مصنوعی امروزی دیگر نیازی به آموزش از طرف یک انسان ندارند. بلکه با آنالیز داده جدید میتوانند خودشان را آموزش دهند.
اگرچه هوش مصنوعی بسیار بهتر از شبکههای عصبی کار میکنند اما خطر در این است که ما به طور کامل آن را درک نمیکنیم. کلارک میگوید که « ما نمیتوانیم درون پروسه هوش مصنوعی را ببینیم». این موضوع کسانی را که با تکنولوژی هوش مصنوعی کار میکنند بسیار عصبی میکند. در یک مقاله چاپ شده در Technology Review در سال 2017، شبکه عصبی نوعی «جعبه سیاه» نامیده شد. به بیان دیگر داده وارد شده و عمل ماشین خارج میشود و ما درک بسیار پایینی از پروسه در این میان داریم.
علاوه بر آن اگر استفاده از شبکههای عصبی به این معنی است که هوش مصنوعی میتواند به راحتی خود را ارتقا دهد و بدون ورودی ما بیشتر هوشمند شود چه چیزی باعث میشود که جای انسانها را نگیرند؟ همانطور که کلارک میگوید: « هوش مصنوعی میتواند خودش را ارتقا دهد. میتواند کدنویسی را یاد بگیرد. دانه هوش مصنوعی فوق هوشمند کاشه شده است». طبق نظریه نیک بوستروم درمورد خطرات بالقوه برای انسانیت در مقالهاش در ژورنال Evolution and Technology :« وقتی که ما اولین نهاد ابرهوش مصنوعی را میسازیم ممکن است اشتباه کنیم و به آن هدفی دهیم که باعث نابودی انسان شود و هوش بیش از حد آن قدرت لازم را برای این کار به او میدهد».
خطرات موجود درمورد ابر هوش مصنوعی چیست؟
« یک ماشین فوق هوشمند را میتوانیم ماشینی درنظر بگیریم که از همهی فعالیتهای ذهنی و علمی انسان فراتر رود. از آنجایی که طراحی این ماشینهای هوشمند یکی از این فعالیتهاست درنتیجه ماشین فوق هوشمند میتواند ماشینهای بهتری طراحی کند و این موضوع میتواند بمب هوش شود که هوش انسان را به طور کامل بیارزش خواهد کرد.»
این بیانیه ریاضیدان انگلیسی، آی جی گود است که کلارک در پادکست خود از آن صحبت به میان آورده است و توسط آن قدرت هوش مصنوعی ابرهوشمند را توضیح میدهد. ماشین هوشمندی را تصور کنید که میتواند کدنویسی کند و یک نسخه بهتر از خود را بنویسد و هرچه این کار را انجام میدهد در آن بهتر میشود. کلارک توضیح میدهد که :« درنهایت شما هوش مصنوعی خواهید داشت که قادر به نوشتن الگوریتمی است که هیچ انسانی قادر به نوشتن آن نیست. در این نقطه به «بمب هوش» میرسیم. چیزی که ما انسانها را با خاک یکسان خواهد کرد.»
خیرخواهی یک ویژگی انسانی است
اما چرا این موضوع یک خطر وجودی است؟ کلارک از ما میخواهد که هوش مصنوعی را تصور کنیم که بدون کنترل ما ابرهوشمند شده است. او میگوید:« اگر ما چیزی را که تئوریسینهای هوش مصنوعی به آن مهربانی میگویند در هوش مصنوعی تعریف نکرده باشیم نمیتوانیم انتظار داشته باشیم که طوری رفتار کند که ما دوست داریم.» درحال حاضر از هوش مصنوعی برای توصیه فیلم در نتفلیکس، فید شبکه اجتماعی و ترجمه در اپلیکیشنهایی مثل گوگل ترنسلیت استفاده میشود.
حال تصور کنید که گوگل ترنسلیت به لطف قابلیت خودارتقایی که با شبکههای عصبی به دست آورده ابرهوشمند شود. البته این که یک مترجم ابرهوشمند شود اصلاً خطرناک نیست چرا که به بهترین روش میتواند کارش را انجام دهد اما خطر آنجایی به وجود میآید که این ابرهوش مصنوعی تصمیم بگیرد از چیزهایی که ما انسانها میخواهیم برای هدف خودش استفاده کند.
شاید یک هوش مصنوعی مترجم ابرهوشمند تصمیم بگیرد که برای ارتقای خود به فضای شبکه بیشتر احتیاج دارد یا جنگلها را نابود کند تا سرورهای بیشتری بسازد. بوستروم معتقد است در آن زمان ما بر سر منابع با هوشمندترین موجود در کل جهان به مشکل برمیخوریم و به احتمال زیاد شکست خواهیم خورد. چیزی که استیون هاوکینگ و محقق مایکروسافت، اریک هرویتز نیز به آن اشاره کرده بودند.
در مقاله ژورنالی که به آن اشاره کردیم، بوستروم سناریویی را بیان میکند که در آن یک هوش منصوعی ابرهوشمند یک خطر وجودی را به وجود آورده است: « ما به هوش مصنوعی میگوییم که یک مسئله ریاضی را حل کند و این دستگاه کل منظومه شمسی را به دستگاهی بزرگ برای آن تبدیل میکند و در طی این پروسه کسی که این سوال را پرسیده نابود میکند.
درنتیجه مشکل این نیست که هوش مصنوعی ابرهوشمند تبدیل به یک شیطان شود چرا که در دنیای آموزش ماشینی مفاهیم خوب و بد وجود ندارد. مشکل اینجاست که تنها هدف هوش مصنوعی این است که در کاری که برای آن برنامه ریزی شده ارتقا یافته و پیشرفت کند و برایش مهم نیست که انسانها از روشهایی که برای این این کار انتخاب میکند خوشحال نیستند. همانطور که کلارک میگوید خطر بالقوه زمانی به وجود میآید که ما نتوانیم مهربانی را در هوش مصنوعی برنامه ریزی کنیم و آن دستگاه هوش مصنوعی تنها تلاش میکند که بیشتر و بیشتر هوشمند شود.
راه حل مشکل هوش مصنوعی
پس چه کار میتوانیم بکنیم؟ کلارک میگوید که این یک چالش بزرگ است و اولین قدم این است که محققان بپذیرند که این یک مشکل بزرگ و واقعی است. چرا که خیلیها معتقدند که هوش عمومی در حال حاضر آنقدر سطح پایین است که نمیتوان آن را به عنوان یک خطر درنظر گرفت.
علاوه بر آن ما باید یاد بگیریم که مهربانی را درهوش مصنوعی برنامه نویسی کنیم که کاری بسیار سخت برای محققین هوش مصنوعی است. مشکلی که در آموزش اخلاقیات و ارزشها به هوش مصنوعی وجود دارد این است که چه اخلاقیات و ارزشهایی را باید بیاموزد چرا که این ارزشها جهانی نیستند. حتی اگر برای یک سری اخلاقیات و ارزشها به هوش مصنوعی به نتیجه جهانی برسیم چطور باید آن را به ماشین توضیح دهیم؟
چرا ما باید برای خطرات وجودی برنامه ریزی کنیم؟
اگر یک ابرهوش مصنوعی چنین مشکل وجودی را ایجاد میکند، چرا تحقیقات هوش مصنوعی را به طور کامل تعطیل نکنیم؟ آی جی گود به این سوال پاسخ میدهد:« زیر با آن که ممکن است به نابودی انسان ختم شوم اما ممکن است آخرین اختراعی باشد که کردهایم.» کلارک میگوید که ما در مرحلهای از تاریخ هستیم که توانستهایم بزرگترین اختراع تاریخ بشریت را انجام دهیم. این اختراع میتواند به ابر هوش مصنوعی تبدیلد شود که قادر است همهی نیازهای انسان را تا ابد رفع کند. اما ممکن است که ما خیلی تصادفی ابرهوش مصنوعی اختراع کرده باشیم که کنترل دنیا را به عهده بگیرد و ما به شامپانزههای قرن بیست و یک تبدیل شویم.
هنوز خیلی چیزها را درمورد آینده هوش مصنوعی نمیدانیم اما کلارک درمورد یک چیز راست میگوید: ما باید این خطر وجودی را خیلی جدی بگیریم درغیر اینصورت ممکن است انسانیت را به طور کامل نابود کنیم.
بیشتر بخوانید:
گوشیهای بدون باتری؛ رویایی که در حال تحقق است
سوفیای کوچک؛ رباتی عروسکی که به کودکان برنامه نویسی آموزش میدهد
رباتهای انسان نما سخنگوی هوشمندتر از تصور
ما را در شبکههای اجتماعی مختلف تلگرام، روبیکا، توییتر، اینستاگرام، سروش همراهی کنید.
منبع خبر: techradar
ثبت نظر