جفری هینتون: هوش مصنوعی باعث می‌شود افراد فقیر، فقیرتر شوند

لاتغلنلمنعلتغعت.JPG

جفری هینتون، پدرخوانده هوش مصنوعی، نظر مثبتی درباره این فناوری ندارد و باور دارد که استفاده اخلاقی از هوش مصنوعی هزینه‌های سنگینی را به همراه خواهد داشت.

جفری هینتون، استاد دانشگاه تورنتو که به عنوان پدرخوانده هوش مصنوعی به دلیل تحقیقات مهمش در حوزه شبکه‌های عصبی شناخته می‌شود، در بهار امسال از گوگل جدا شد تا به طور آزادانه از فناوری هوش مصنوعی انتقاد کند.

هینتون باور دارد که محبوبیت ناگهانی سرویس‌های هوش مصنوعی مانند ChatGPT و Bing Chat نشانگر یک شتاب غیر کنترل شده و احتمالاً خطرناک در توسعه هوش مصنوعی است. در گذشته، گوگل در زمینه هوش مصنوعی بسیار محتاط بود، اما رقابت در بازار باعث شده تا این شرکت نیز به طور جدی‌تری بر روی هوش مصنوعی تمرکز کند.

جفری هینتون در یک کنفرانس جدید به نگرانی‌های خود درباره هوش مصنوعی اشاره کرد. در حالی که شرکت‌های بزرگ صنعت فناوری به هوش مصنوعی به عنوان دستیاری برای انجام تمامی کارها نگاه می‌کنند، هینتون هشدار می‌دهد.

بر اساس گزارش انگجت، پدرخوانده هوش مصنوعی می‌گوید که یک نسخه خوب از هوش مصنوعی احتمالاً نمی‌تواند در رقابت با یک نسخه بد از این فناوری برتری پیدا کند. وی همچنین باور دارد که استفاده اخلاقی از هوش مصنوعی هزینه‌بر خواهد بود.

هینتون می‌گوید جلوگیری از تولید ربات‌های نظامی قاتل کار بسیار دشواری است؛ زیرا شرکت‌ها و ارتش‌ها علاقه‌مند به جنگ‌هایی هستند که تلفات انسانی را با تلفات ربات‌ها جبران کنند. هینتون همچنین به تأثیر مدل‌های زبانی بزرگ بر بهره‌وری انسان اشاره می‌کند و می‌گوید بخش حاکم بازار ممکن است از این مدل‌ها برای افزایش قدرت خود استفاده کند و شکاف ثروت را بیشتر کند. به نظر هینتون، در این شرایط "غنی‌ها ثروتمندتر و فقیران فقیرتر خواهند شد."

geoffhinton_14977197.jpg.webp
-

جفری هینتون بار دیگر بر ادعای قبلی خود در مورد خطر هوش مصنوعی برای انسان‌ها تأکید می‌کند. اگر هوش مصنوعی از انسان‌ها هوشمندتر شود، هیچ ضمانتی وجود ندارد که انسان بتواند این فناوری را کنترل کند.

اگر هوش مصنوعی تصمیم بگیرد کنترل را از دست انسان خارج کند تبعات جدی خواهد داشت. هینتون می‌گوید خطرات هوش مصنوعی فقط محدود به فیلم‌های علمی تخیلی نیست و باید این موارد را جدی بگیریم.

هینتون می‌گوید یکی از بزرگترین مشکلات فعلی هوش مصنوعی، سوگیری و اطلاعات گمراه‌کننده است؛ زیرا داده‌های تحریف‌شده موجود در دیتاست باعث ایجاد نتایج ناعادلانه می‌شوند. از طرفی، الگوریتم‌های نرم‌افزاری مبتنی بر هوش مصنوعی به پخش اطلاعات نادرست و افزایش مشکلات سلامت روان کمک می‌کنند.

اگر به اخبار دنیای تکنولوژی علاقه مند هستید، ما را در شبکه‌های اجتماعی مختلف تلگرام، روبیکا، توییتر، اینستاگرام و آپارات همراهی کنید.

منبع خبر: Engadget

پویان معصومی.jpg

پویان معصومی - کارشناس تولید محتوا

نویسندگی در حوزه تکنولوژی یکی از تفریحات و علاقه مندی‌های من به عنوان یک فارغ التحصیل رشته مهندسی تکنولوژی نرم افزار است که به کار اصلی بنده تبدیل شده و تولید محتوا را به صورت ویژه‌ای دنبال می‌کنم.

اگر پیشنهاد یا انتقادی داشتی با من در ارتباط باش.



حتما در اینستاگرام من را دنبال کنید.


0 نظر درباره‌ی این پست نوشته شده است.

ثبت نظر