هوش مصنوعی با سرعت عجیبی رو به پیشرفت است. اما در یکی از زمینههایی که هوش مصنوعی به طور عجیبی در آن پیشرفت داشته چهرههایی است که مربوط به افراد واقعی نیستند و از شبکههای عصبی هوش مصنوعی از آنها برای ساخت تصاویر تقلبی استفاده شده است. این تکنولوژی به طرز ترسناکی پیشرفت کرده است.
در تصویر بالا میتوانید ببینید که پیشرفت عکسهای هوش مصنوعی در چهار سال گذشته تا چه حد بوده است. عکسهای سیاه و سفید تار در سمت چپ مربوط به سال 2014 هستند که در یک مقاله برای معرفی یک ابزار هوش مصنوعی به نام generative adversarial network (GAN) معرفی شده بود. عکسهای رنگی در سمت راست مربوط به مقالهای است که اوایل این ماه منتشر شد که در آن از همان روش مشابه GAN استفاده شد اما کیفیت نتیجه بسیار متفاوت است.
این صورتهای واقعی نتیجه تلاش محققان شرکت انویدیا هستند. در مقاله آنها که هفته پیش منتشر شد این تیم پایه معماری GAN را که برای ساخت این عکسها استفاده شده توضیح دادهاند. اما اگر نمیدانستید که این تصاویر مربوط به آدمهای واقعی نیستند آیا قادر بودید تفاوت آنها را تشخیص دهید؟
نکته جالبتر اینجاست که شما به راحتی میتوانید این چهرههای مصنوعی را هرطور دوست دارید تغییر دهید. مهندسین انویدیا یک روش به نام انتقال استایل را اجرا میکنند که توسط آن مشخصات یک عکس در عکس دیگر محو میشود. شاید نام این روش را در فیلترهای تصویر در اپلیکیشنهای معروف مثل Prisma یا فیسبوک شنیده باشید که در آنها میتوانید یک سلفی را به یک نقاشی در سبک امپرسیونیسم یا کوبیسم تغییر دهید.
استفاده از انتقال استایل به صورتهای ساختگی به محققین انویدیا این امکان را داد صورتها را هرطور که دوست دارند تغییر دهند. در عکس پایین میتوانید تاثیر این موضوع را ببینید. عکس منبع که مرتبط به یک انسان واقعی است ( ردیف بالا) مشخصههای صورت یک فرد دیگر (ردیف سمت راست) را در خود دارد. چیزهایی مثل رنگ مو یا پوست با هم ترکیب شدهاند و چهره یک انسان کاملاً جدید را ایجاد کردهاند.
البته امکان ساخت صورتهای هوش مصنوعی کمی سوال برانگیز است. بسیاری از متخصصین هشدار دادهاند که جعل با استفاده از هوش مصنوعی میتواند اثر بدی روی جامعه داشته باشد. این ابزارها ممکن است برای اطلاعات غلط و یا تبلیغات نادرست استفاده شود و اعتماد عمومی را به مدارک تصویری از بین ببرد. این موضوع میتواند حتی سیستم قضایی و حتی سیاسی را با مشکل روبهرو کند (متاسفانه در مقاله انویدیا اصلاً به این موضوع پرداخته نشده است).
این اخطارها جدی هستند چرا که همیشه افرادی خواهند بود که از این ابزارها در جهات منفی استفاده کنند. البته باید به این نکته هم توجه کرد که هرکسی به این تکنولوژی دسترسی نخواهد داشت. برای مثال محققین انویدیا برای ساخت این تصاویر به مدت یک هفته هشت جیپییو تسلا را آموزش دادند.
درضمن سرنخهایی نیز برای تشخیص تصاویر غلط وجود دارد. در یک پست، هنرمند و برنامه نویس کایلی مکدونالد لیستی از این سرنخها را معرفی کرده بود. برای مثال ساختن موی تقلبی بسیار سخت است. مو در بیشتر این تصاویر بسیار ساده است و انگار با قلممو نقاشی شده است و یا زیادی تار است و در چهره محو شده است. به طور مشابه ژنراتورهای هوش مصنوعی خیلی دقیق نمیتوانند قرینهها را در صورت انسان تشخیص دهند و معمولاً گوشها را در یک سطح قرار نداده یا رنگ چشمها متفاوت است. درضمن متن و یا شماره را نیز خیلی خوب مشخص نمیدانند.
البته با توجه به پیشرفتی که هوش مصنوعی دارد به احتمال زیاد به زودی محققان الگوریتمی تولید خواهند کرد که این مشکلات را نیز حل کنند.
خوشبختانه متخصصین به دنبال راهی برای احراز هویت عکسهای دیجیتالی هستند. برای مثال اپلیکیشن camera با استفاده از ژئوکد تایید میکند که یک عکس در کجا و چه زمانی گرفته شده است. قطعاً کشمکش زیادی بین تقلب با هوش مصنوعی و احراز هویت عکسها وجود خواهد داشت و تا سالها ادامه خواهد یافت.
ما را در شبکههای اجتماعی مختلف تلگرام، روبیکا، توییتر، اینستاگرام، سروش همراهی کنید.
منبع خبر: theverge
ثبت نظر