هوش مصنوعی می‏تواند ما را به دورن پارینه سنگی بازگرداند

   
نام نویسنده:
 شنبه 13 بهمن 97 ساعت: 21:00:00

وجود ما به عنوان یک گونه جانوری محدود است. چه انقراض ما انسان‎ها در نتیجه‎ی نابودی سیارک‎ها باشد، چه یک بیماری همه‎گیر در سطح جهانی و یا یک جنگ هسته‎ای، آینده‎ی ما آنقدر در خطر است که انقراض ما تقریباً اجتناب ناپذیر است. رویدادهایی تا این حد فاجعه بار روی گونه‎ی ما اثر خواهد گذاشت. حتی اگر یک جنگ هسته‎ای 99 درصد جمعیت جهان را از بین ببرد یک درصد نجات یافته به سختی می‎تواند از آن وضعیت بهبود یابد و حتی اگر موفق شود سال‎ها طول خواهد کشید تا بتواند به جایی که بوده باز گردد. اما هیچ راه برگشتی از بعضی از اتفاقات وجود ندارد. هیچ راهی برای بهبود وضع برای نسل انسان نخواهد بود. 
این اتفاقات فاجعه بار خطرات وجودی هستند که اگر پیش بیایند انقراض نسل ما حتمی خواهد بود. این مشکل بسیار بزرگ موضوع یک پادکست ده بخشی به نام « پایان دنیا با جاش کلارک» شده است. در این پادکست کلارک روش‎های مختلفی را بررسی می‎کند که توسط آن‎ها دنیایی که ما می‏شناسیم ممکن است به پایان برسد. یکی از این روش‎ها هوش مصنوعی فوق هوشمند است که کنترل دنیا را به دست خواهد گرفت. 
برای تحقیق در این زمینه کلارک با متخصصین در زمینه خطرات وجودی و هوش مصنوعی، از جمله نیک بوستروم، فیلسوف سوئدی و موسس سازمان آینده انسانیت، دیوید پیرس، موسس انجمن فرا انسانی جهانی و سباستین فارکوهار، فیلسوف دانشگاه آکسفورد صحبت کرده است. کلارک معتقد است که پیشرفت انسان در تکنولوژی هوش مصنوعی می‏تواند باعث نابودی ما شود. 

 

خطرات وجودی یعنی چه؟


ممکن است بگویید که خطرات زیادی هم اکنون انسانیت را تهدید می‏کند. برای مثال تغییرات اقلیمی که توسط انسان به وجود آمده می‎تواند برای انسانیت یک خطر باشد. اما کلارکت معتقد است که خطرات وجودی می‎توانند ما را به دوران پارینه سنگی و یا قبل‎تر بازگردانند. البته تغییرات اقلیمی جزء خطرات وجودی محسوب نمی‎شود. چرا که به گفته کلارک ممکن است در طول صدها هزار سال بتوانیم انسانیت را حتی خیلی سریع‎تر از هر زمان دیگر بازسازی کنیم زیرا دانشی را خواهیم داشت که زمانی که اولین تمدن‎ها ایجاد شدند نداشتیم. 
اما درمورد خطرات بالقوه اوضاع طوری دیگر است چرا که دیگر هیچ راه برگشتی وجود نخواهد داشت و پایان انسانیت خواهد بود. اولین بار فیسلوف معروف نیک بوستروم بود که گفت خطرات بالقوه باید جدی گرفته شوند. در مقاله‎ای که در ژورنال Evolution and Technology چاپ شده او خطر وجودی را به این صورت تعریف کرد:« خطری که نتیجه‎ی آن موجب نابودی وجود زندگی هوشمند از زمین شده یا به طور دائم قدرت آن را محدود کند.» 
کلارک توضیح می‎دهد که طبق این نظریه حتی اگر ما به عنوان یک گونه جانوری زنده بمانیم دیگر نخواهیم توانست به نقطه‎ای از پیشرفت برسیم که هم اکنون رسیده‎ایم. شاید روش‎هایی که ممکن است ما را از بین ببرد کمی عجیب و دور از ذهن به نظر برسد اما وقتی که با دید کلارک به قضیه نگاه می‎کنیم با عقل جور درمی‎آید. وقتی که از کلارک پرسیده شد که چرا سراغ همچین موضوع حساس و عجیبی رفته گفت: « این که انسان‎ها ممکن است به صورت تصادفی خود را نابود کنند بسیار جالب است». عجیب‏ترین خطر وجودی موجود پیش روی انسان این است که هوش مصنوعی کنترل دنیا را در دست بگیرد. 

 

اصول هوش مصنوعی 


در سال‎های اخیر انسان‎ها از تکنولوژی نهایت استفاده را برده‎اند. با پیشرفت در سفرهای فضایی، تولد اینترنت و جهش بزرگ در علوم کامپیوتر یک خطر بالقوه جدید ایجاد شده است: هوش مصنوعی فوق هوشمند. 
این که بفهمیم هوش مصنوعی چطور کار می‎کند اولین قدم در درک این موضوع است که چطور می‎تواند یک خطر وجودی برای انسانیت باشد. در اپیزود « هوش مصنوعی» این پادکست، کلارک مثالی از یک ماشین می‎زند که طوری برنامه ریزی شده که توپ‎های سبز را از توپ‎های قرمز را جدا کند. 
تکنولوژی موجود در این ماشین بسیار پیشرفته‎تر از چیزی است که به نظر می‎رسد. اگر این ماشین به درستی برنامه نویسی شده باشد می‏تواند توپ‎های سبز را از تو‎پ‎های قرمز جدا کند. DeepBlue نیز در زمینه شطرنج دقیقاً همین کار را انجام می‎دهد. با این که این ماشین‎ها بسیار جالب هستند اما تنها یک کار را انجام می‎دهند. 
کلارک توضیح می‎دهد که «هدف هوش مصنوعی هیچ‎گاه این نبوده که تنها ماشینی بسازد که در شطرنج از انسان بهتر باشد بلکه هدف ساخت ماشینی با هوش کلی مانند انسان است». او در ادامه گفت: « خوب بودن تنها در شطرنج کار یک ماشین است. اما خوب بودن در شطرنج، حساب و کتاب، اسپانیایی حرف زدن و یاد گرفتن طرز پخت یک کیک چیزی است که یک انسان را می‎سازد». این مشکلی است که پیشگامان هوش مصنوعی در تحقیقات خود به آن برخورده بودند. این که چطور تمام تجربیات یک انسان به یک ماشین آموزش داده شود. پاسخ در شبکه‎های عصبی است. 


پیشرفت در هوش مصنوعی


اولین ماشین‎های هوش مصنوعی ساخته شده در یک چیز بسیار خوب عمل می‎کردند اما پیشرفت در شبکه‎های عصبی باعث شده که این تکنولوژی به صورت چشمگیری ارتقا یابد. در سال 2006 اینترنت به لطف مخازن داده بسیار عظیم گوگل ایمیج و ویدئوهای یوتیوب و چیزهای یاز این قبیل به نیرویی بسیار قوی در توسعه شبکه‎های عصبی تبدیل شدند. حال با انفجار دسترسی به داده، شبکه‎های عصبی به اوج خود رسیده‎اند. درنتیجه ماشین‎های هوش مصنوعی امروزی دیگر نیازی به آموزش از طرف یک انسان ندارند. بلکه با آنالیز داده جدید می‎توانند خودشان را آموزش دهند. 
اگرچه هوش مصنوعی بسیار بهتر از شبکه‏های عصبی کار می‏کنند اما خطر در این است که ما به طور کامل آن را درک نمی‎کنیم. کلارک می‏گوید که « ما نمی‏توانیم درون پروسه هوش مصنوعی را ببینیم». این موضوع کسانی را که با تکنولوژی هوش مصنوعی کار می‎کنند بسیار عصبی می‏کند. در یک مقاله چاپ شده در Technology Review در سال 2017، شبکه عصبی نوعی «جعبه سیاه» نامیده شد. به بیان دیگر داده وارد شده و عمل ماشین خارج می‏شود و ما درک بسیار پایینی از پروسه در این میان داریم. 

AI


علاوه بر آن اگر استفاده از شبکه‌‏های عصبی به این معنی است که هوش مصنوعی می‏تواند به راحتی خود را ارتقا دهد و بدون ورودی ما بیشتر هوشمند شود چه چیزی باعث می‎شود که جای انسان‎ها را نگیرند؟ همانطور که کلارک می‎گوید: « هوش مصنوعی می‎تواند خودش را ارتقا دهد. می‏تواند کدنویسی را یاد بگیرد. دانه هوش مصنوعی فوق هوشمند کاشه شده است». طبق نظریه نیک بوستروم درمورد خطرات بالقوه برای انسانیت در مقاله‌اش در ژورنال Evolution and Technology :« وقتی که ما اولین نهاد ابرهوش مصنوعی را می‏سازیم ممکن است اشتباه کنیم و به آن هدفی دهیم که باعث نابودی انسان شود و هوش بیش از حد آن قدرت لازم را برای این کار به او می‎دهد». 


خطرات موجود درمورد ابر هوش مصنوعی چیست؟ 


« یک ماشین فوق هوشمند را می‏توانیم ماشینی درنظر بگیریم که از همه‎ی فعالیت‎های ذهنی و علمی انسان فراتر رود. از آنجایی که طراحی این ماشین‎های هوشمند یکی از این فعالیت‎هاست درنتیجه ماشین فوق هوشمند می‏تواند ماشین‎های بهتری طراحی کند و این موضوع می‎تواند بمب هوش شود که هوش انسان را به طور کامل بی‎ارزش خواهد کرد.» 
این بیانیه ریاضی‎دان انگلیسی، آی جی گود است که کلارک در پادکست خود از آن صحبت به میان آورده است و توسط آن قدرت هوش مصنوعی ابرهوشمند را توضیح می‎دهد. ماشین هوشمندی را تصور کنید که می‎تواند کدنویسی کند و یک نسخه بهتر از خود را بنویسد و هرچه این کار را انجام می‎دهد در آن بهتر می‎شود. کلارک توضیح می‎دهد که :« درنهایت شما هوش مصنوعی خواهید داشت که قادر به نوشتن الگوریتمی است که هیچ انسانی قادر به نوشتن آن نیست. در این نقطه به «بمب هوش» می‎رسیم. چیزی که ما انسان‎ها را با خاک یکسان خواهد کرد.» 

 

خیرخواهی یک ویژگی انسانی است 


اما چرا این موضوع یک خطر وجودی است؟ کلارک از ما می‎خواهد که هوش مصنوعی را تصور کنیم که بدون کنترل ما ابرهوشمند شده است. او می‎گوید:« اگر ما چیزی را که تئوریسین‌های هوش مصنوعی به آن مهربانی می‎گویند در هوش مصنوعی تعریف نکرده باشیم نمی‎توانیم انتظار داشته باشیم که طوری رفتار کند که ما دوست داریم.» درحال حاضر از هوش مصنوعی برای توصیه فیلم در نتفلیکس، فید شبکه اجتماعی و ترجمه در اپلیکیشن‎هایی مثل گوگل ترنسلیت استفاده می‎شود. 
حال تصور کنید که گوگل ترنسلیت به لطف قابلیت خودارتقایی که با شبکه‎های عصبی به دست آورده ابرهوشمند شود. البته این که یک مترجم ابرهوشمند شود اصلاً خطرناک نیست چرا که به بهترین روش می‎تواند کارش را انجام دهد اما خطر آنجایی به وجود می‎آید که این ابرهوش مصنوعی تصمیم بگیرد از چیزهایی که ما انسان‎ها می‎خواهیم برای هدف خودش استفاده کند. 

AI


شاید یک هوش مصنوعی مترجم ابرهوشمند تصمیم بگیرد که برای ارتقای خود به فضای شبکه بیشتر احتیاج دارد یا جنگل‌ها را نابود کند تا سرورهای بیشتری بسازد. بوستروم معتقد است در آن زمان ما بر سر منابع با هوشمندترین موجود در کل جهان به مشکل برمی‏خوریم و به احتمال زیاد شکست خواهیم خورد. چیزی که استیون هاوکینگ و محقق مایکروسافت، اریک هرویتز نیز به آن اشاره کرده بودند. 
در مقاله ژورنالی که به آن اشاره کردیم، بوستروم سناریویی را بیان می‎کند که در آن یک هوش منصوعی ابرهوشمند یک خطر وجودی را به وجود آورده است: « ما به هوش مصنوعی می‎گوییم که یک مسئله ریاضی را حل کند و این دستگاه کل منظومه شمسی را به دستگاهی بزرگ برای آن تبدیل می‎کند و در طی این پروسه کسی که این سوال را پرسیده نابود می‎کند. 
درنتیجه مشکل این نیست که هوش مصنوعی ابرهوشمند تبدیل به یک شیطان شود چرا که در دنیای آموزش ماشینی مفاهیم خوب و بد وجود ندارد. مشکل اینجاست که تنها هدف هوش مصنوعی این است که در کاری که برای آن برنامه ریزی شده ارتقا یافته و پیشرفت کند و برایش مهم نیست که انسان‎ها از روش‎هایی که برای این این کار انتخاب می‎کند خوشحال نیستند. همانطور که کلارک می‎گوید خطر بالقوه زمانی به وجود می‎آید که ما نتوانیم مهربانی را در هوش مصنوعی برنامه ریزی کنیم و آن دستگاه هوش مصنوعی تنها تلاش می‎کند که بیشتر و بیشتر هوشمند شود. 

 

راه حل مشکل هوش مصنوعی


پس چه کار می‎توانیم بکنیم؟ کلارک می‎گوید که این یک چالش بزرگ است و اولین قدم این است که محققان بپذیرند که این یک مشکل بزرگ و واقعی است. چرا که خیلی‎ها معتقدند که هوش عمومی در حال حاضر آنقدر سطح پایین است که نمی‏توان آن را به عنوان یک خطر درنظر گرفت. 

AI


علاوه بر آن ما باید یاد بگیریم که مهربانی را درهوش مصنوعی برنامه نویسی کنیم که کاری بسیار سخت برای محققین هوش مصنوعی است. مشکلی که در آموزش اخلاقیات و ارزش‎ها به هوش مصنوعی وجود دارد این است که چه اخلاقیات و ارزش‎هایی را باید بیاموزد چرا که این ارزش‏ها جهانی نیستند. حتی اگر برای یک سری اخلاقیات و ارزش‏ها به هوش مصنوعی به نتیجه جهانی برسیم چطور باید آن را به ماشین توضیح دهیم؟ 

 

چرا ما باید برای خطرات وجودی برنامه ریزی کنیم؟ 


اگر یک ابرهوش مصنوعی چنین مشکل وجودی‎ را ایجاد می‎کند، چرا تحقیقات هوش مصنوعی را به طور کامل تعطیل نکنیم؟ آی جی گود به این سوال پاسخ می‎دهد:« زیر با آن که ممکن است به نابودی انسان ختم شوم اما ممکن است آخرین اختراعی باشد که کرده‎ایم.» کلارک می‏گوید که ما در مرحله‏ای از تاریخ هستیم که توانسته‎ایم بزرگ‏ترین اختراع تاریخ بشریت را انجام دهیم‏. این اختراع می‏تواند به  ابر هوش مصنوعی تبدیلد شود که قادر است همه‏ی نیازهای انسان را تا ابد رفع کند. اما ممکن است که ما خیلی تصادفی ابرهوش مصنوعی اختراع کرده باشیم که کنترل دنیا را به عهده بگیرد و ما به شامپانزه‎های قرن بیست و یک تبدیل شویم. 
هنوز خیلی چیزها را درمورد آینده هوش مصنوعی نمی‎دانیم اما کلارک درمورد یک چیز راست می‏گوید: ما باید این خطر وجودی را خیلی جدی بگیریم درغیر اینصورت ممکن است انسانیت را به طور کامل نابود کنیم. 

 

بیشتر بخوانید:

گوشی‌های بدون باتری؛ رویایی که در حال تحقق است

سوفیای کوچک؛ رباتی عروسکی که به کودکان برنامه نویسی آموزش می‌دهد

ربات‌های انسان نما سخن‌گوی هوشمندتر از تصور

 

ما را در شبکه‌های اجتماعی مختلف تلگرام، روبیکا، توییتر، اینستاگرام، سروش همراهی کنید.

 

منبع: techradar

اخبار مرتبط

دیگر اخبار نویسنده

ارسال نظر


شخصی سازی Close
شما در این صفحه قادر به شخصی سازی نمیباشید