محققان موفق به تولید روشی شدهاند که به رباتها کمک میکند در تعامل با انسانها رفتاری اجتماعیتر را از خود به نمایش بگذارند. در ادامه با فیسیت همراه باشید.
به گزارش فیسیت، به نقل از سایبران، محققان موفق به تولید روشی شدهاند که به رباتها کمک میکند در تعامل با انسانها رفتاری اجتماعیتر را از خود به نمایش بگذارند. در ادامه با فیسیت همراه باشید.
در زمینهی هوش مصنوعی باعث به وجود آمدن دستیاران مجازی و روباتیکی شده است که به صورت روزافزون میتوانند وظایف پیچیدهتری را انجام بدهند. این ابزارهای هوشمند به عنوان همکارانی ایمن و قابلاعتماد برای انسانها در نظر گرفته میشوند. با وجود این رباتها باید بتوانند ارزیابی سریعی از وضعیتی که در آن قرار دارند داشته و هنجارهای اجتماعی انسانی را به کار بگیرند. چنین هنجارهایی برای بیشتر مردم کاملاً مشخص هستند. به عنوان مثال از همان کودکی به انسانها نحوهی رفتار آنها در جامعه، حضور در گروهها یا عکسالعمل نشان دادن در شرایط مختلف آموزش داده میشود؛ اما یاد دادن این موارد به رباتها یک چالش جدید به شمار میرود.
با توجه به اسناد منتشر شده پژوهشگران موفق به ایجاد یک مدل محاسبات شناختی (cognitive-computational model) از هنجارهای انسانی شدهاند که میتواند آنها را در ابزارهای هوشمند کدگذاری کند. به علاوه آنها الگوریتم یادگیری ماشینی جدیدی توسعه دادند که به ماشینها اجازه میدهد حتی در شرایطی که برای آنها ناشناخته است با توجه به دادههای انسانی هنجارها را یاد بگیرند.
رضا قنادان (Reza Ghanadan)، مدیر برنامهی دارپا گفت: «هدف از پژوه یاد شده درک و رسمی کردن سامانههای هنجاری انسانی و بررسی نحوهی هدایت انسانها توسط آنها است. در نتیجه ما میتوانیم دستورالعملهای جدید برای نحوهی ساخت نسلهای آیندهی هوش مصنوعی ایجاد بکنیم که قادر هستند به شکل مؤثرتری با انسانها تعامل کنند.»
وی با اشاره به اینکه در بیشتر مسائل پیچیده، هنجارها به سرعت فعال میشوند افزود: «این چیزی است که همهی ما با آن آشنا هستیم. مردم نقض هنجارها را به سرعت تشخیص میدهند. برای مردم، آموختن هنجارهای جدید یا پیششرطهای آنها برای فعالسازی، در کنار شبکه هنجاری پیچیدهای که هماکنون وجود دارد صورت میگیرد؛ آن هم نه از یک روش، بلکه بهروشهای متعددی مانند مشاهده، استنباط و آموزش. عدم اطمینان در دادههای ورودی توسط انسانها یادگیری هنجارها را برای الگوریتمهای یادگیری ماشینی بسیار پیچیده و دشوار است.»
قنادان ادامه داد: «اگر ما قرار است با رباتها، خودروهای بی راننده و دستیارهای صوتی آیندهی موجود در تلفن یا خانهی خود مطابق امروز ارتباط برقرار کنیم، این دستیارها باید بتوانند از هنجارهای ما پیروی کرده و مشابه آن رفتار کنند.»
برای نمونه رباتی که در آینده در کتابخانه به کار گرفته میشود، ممکن است انگشت خود را به نشانهی سکوت بالا بیاورد.
البته باید متذکر شد چنین مسئلهای از مدتها قبل در خودروهای بی راننده نیز وجود داشته است. برای نمونه اگر یک خودروی بی راننده با تعدادی عابر پیاده و مانع در مقابل خود مواجه شود، چه اقدامی باید بکند. آیا باید به مانع برخورد کرده و سرنشینان خود را از بین ببرد یا با برخورد به عابران، سرنشینان خود را از مرگ حتمی برهاند؟ این گونه تصمیمها و هنجارها اخلاقی را چه فرد یا افرادی تعیین میکند. آیا تضمینی وجود دارد که برنامه نویسان، هنجارها را مطابق با نظر و خواستهی خود به روباتها آموزش ندهند؟ همچنین ممکن است با سو استفاده از چارچوب جدید یاد شده یا هک و جایگذاری هنجارهای جدید و نادرست در این سامانهها، آنها را تشویق به آسیبرسانی به مردم یا انجام اعمال مجرمانه کرد.
منبع: فیسیت
ثبت نظر