گوگل همواره ادعا کرده است که از هوش مصنوعی برای مقاصد مضر استفاده نمیکند، اما تغییرات اخیر در سیاستهای این شرکت پرسشهایی را درباره تعهد آن به این اصول ایجاد کرده است.
تغییرات در سیاستهای هوش مصنوعی گوگل
گوگل پیشتر قوانین مشخصی را در رابطه با استفاده از هوش مصنوعی وضع کرده بود، اما بر اساس گزارشی از بلومبرگ، این شرکت بهتازگی بخشهایی از اصول خود را که بر ممنوعیت استفاده از فناوریهای هوش مصنوعی برای آسیبرساندن به انسانها تأکید داشت، حذف کرده است. این تغییر نشاندهنده بازنگری در سیاستهای گوگل و رویکرد جدید این شرکت در حوزه هوش مصنوعی است.
موضع جدید گوگل در قبال هوش مصنوعی
در نسخه جدید قوانین، گوگل تأکید دارد که هوش مصنوعی باید در راستای ارزشهایی همچون آزادی، برابری و احترام به حقوق بشر توسعه یابد. همچنین، شرکتها، دولتها و سازمانهای فعال در این حوزه ملزم به محافظت از این ارزشها و مردم هستند.

تناقض در رویکرد گوگل
با وجود تأکید بر ارزشهای انسانی، همکاریهای پیشین گوگل در زمینه ارائه خدمات ابری به ارتش ایالات متحده، نگرانیهایی را درباره همسویی این شرکت با اصول اخلاقی خود به وجود آورده است. برخی منتقدان معتقدند که این همکاریها میتواند مسیر گوگل را بهسمت توسعه فناوریهای مبتنی بر هوش مصنوعی با کاربردهای نظامی و آسیبرسان سوق دهد.
با این تغییرات، پرسشهای زیادی درباره تعهد واقعی گوگل به اصول اخلاقی در توسعه هوش مصنوعی مطرح شده است. آیا این شرکت همچنان پایبند به جلوگیری از استفادههای خطرناک از فناوری خود خواهد بود یا در جهتگیری جدید، اهداف تجاری و استراتژیک بر ملاحظات اخلاقی اولویت خواهند داشت؟
اگر علاقهمند دنیای تکنولوژی هستید حتما شبکههای اجتماعی فیسیت را در اینستاگرام، تلگرام، روبیکا، توییتر و آپارات را دنبال کنید.
منبع خبر: bloomberg.com
ثبت نظر