چند روز پیش، هوش مصنوعی جمینای گوگل تصاویر تاریخی نادرستی را ایجاد کرده بود که منجر به بازخوردهای فراوانی در اینترنت شد.
در پی این اتفاق، گوگل موقتاً تولید تصاویر افراد را با استفاده از این هوش مصنوعی متوقف کرد. حالا این شرکت مشکلات مربوط به جمینای در تولید تصاویر را توضیح داده است.
به گزارش بلاگ رسمی گوگل، تولید تصویر هوش مصنوعی این شرکت به گونهای تنظیم شده است که در مواردی که در گذشته ممکن بود خروجیهای نامطلوبی داشته باشد، این مشکلات رخ ندهد، برای مثال، تولید تصاویر خشونتآمیز. همچنین گوگل هوش مصنوعی جمینای را به نحوی طراحی کرده که افرادی از طیف گستردهای از نژادها را نشان دهد و محدود به شکلهای خاصی از افراد نباشد.
اما با گذشت زمان، این مدل هوش مصنوعی بهطور ناگهانی بسیار محتاطتر از آنچه گوگل انتظار داشته، شد و بهطور کامل از پاسخگویی به برخی درخواستهای معمولی هم خودداری میکرد. این امر باعث شد جمینای در برخی موارد بسیار متنوع کار کند، در حالیکه در موارد دیگر بسیار محافظهکار باشد.
مشکل اصلی در هوش مصنوعی جمینای، در تشخیص این است که کجا باید محافظهکار باشد و کجا باید تنوعی در تصاویر افراد ارائه دهد؛ این باعث شده که این هوش مصنوعی در برخی موارد در زمانها و نژادها، تنوعی نادرست ارائه دهد. به عنوان مثال، در توصیف "سناتور آمریکایی دهه ۱۸۰۰"، تصویری از زن سیاهپوست و بومی آمریکا نیز دیده میشود؛ یا سربازان نازی سیاهپوست و آسیایی در تصاویر حضور دارند.
گوگل عذرخواهی کرده است برای عملکرد نادرست این ویژگی. هدف گوگل این بوده که جمینای برای همه افراد با هر نژادی، بهخوبی عمل کند. اما اگر به این هوش مصنوعی بیان نکنید که دقیقاً چه نوع نژادی یا چه رنگ پوستی از آن میخواهید، ممکن است یا بسیار محافظهکار عمل کند یا اشتباهاً تنوعی نژادی نادرست را به تصویر بکشد.
گوگل در حال حاضر در تلاش است تا این مشکل را برطرف کند؛ اما در حال حاضر نمیتوانید از این هوش مصنوعی برای به تصویر کشیدن افراد استفاده کنید.
اگر به اخبار دنیای تکنولوژی علاقه مند هستید، ما را در شبکههای اجتماعی مختلف تلگرام، روبیکا، توییتر، اینستاگرام و آپارات همراهی کنید.
منبع خبر: blog.google
ثبت نظر