این چهره‌ها واقعی نیستند بلکه زاده هوش مصنوعی هستند

این چهره‌ها واقعی نیستند بلکه زاده هوش مصنوعی هستند

هوش مصنوعی با سرعت عجیبی رو به پیشرفت است. اما در یکی از زمینه‌هایی که هوش مصنوعی به طور عجیبی در آن پیشرفت داشته چهره‌هایی است که مربوط به افراد واقعی نیستند و از شبکه‌های عصبی هوش مصنوعی از آن‌ها برای ساخت تصاویر تقلبی استفاده شده است. این تکنولوژی به طرز ترسناکی پیشرفت کرده است. 
در تصویر بالا می‌توانید ببینید که پیشرفت عکس‌های هوش مصنوعی در چهار سال گذشته تا چه حد بوده است. عکس‌های سیاه و سفید تار در سمت چپ مربوط به سال 2014 هستند که در یک مقاله برای معرفی یک ابزار هوش مصنوعی به نام generative adversarial network (GAN) معرفی شده بود. عکس‌های رنگی در سمت راست مربوط به مقاله‌ای است که اوایل این ماه منتشر شد که در آن از همان روش مشابه GAN استفاده شد اما کیفیت نتیجه بسیار متفاوت است. 
این صورت‌های واقعی نتیجه تلاش محققان شرکت انویدیا هستند. در مقاله آن‌ها که هفته پیش منتشر شد این تیم پایه معماری GAN را که برای ساخت این عکس‌ها استفاده شده توضیح داده‌اند. اما اگر نمی‌دانستید که این تصاویر مربوط به آدم‌های واقعی نیستند آیا قادر بودید تفاوت آن‌ها را تشخیص دهید؟ 

AI


نکته جالب‌تر اینجاست که شما به راحتی می‌توانید این چهره‌های مصنوعی را هرطور دوست دارید تغییر دهید. مهندسین انویدیا یک روش به نام انتقال استایل را اجرا می‌کنند که توسط آن مشخصات یک عکس در عکس دیگر محو می‌شود. شاید نام این روش را در فیلترهای تصویر در اپلیکیشن‌های معروف مثل Prisma یا فیسبوک شنیده باشید که در آن‌ها می‌توانید یک سلفی را به یک نقاشی در سبک امپرسیونیسم یا کوبیسم تغییر دهید. 
استفاده از انتقال استایل به صورت‌های ساختگی به محققین انویدیا این امکان را داد صورت‌ها را هرطور که دوست دارند تغییر دهند. در عکس پایین می‌توانید تاثیر این موضوع را ببینید. عکس منبع که مرتبط به یک انسان واقعی است ( ردیف بالا) مشخصه‌های صورت یک فرد دیگر (ردیف سمت راست) را در خود دارد. چیزهایی مثل رنگ مو یا پوست با هم ترکیب شده‌اند و چهره یک انسان کاملاً جدید را ایجاد کرده‌اند. 

AI


البته امکان ساخت صورت‌های هوش مصنوعی کمی سوال برانگیز است. بسیاری از متخصصین هشدار داده‌اند که جعل با استفاده از هوش مصنوعی می‌تواند اثر بدی روی جامعه داشته باشد. این ابزارها ممکن است برای اطلاعات غلط و یا تبلیغات نادرست استفاده شود و اعتماد عمومی را به مدارک تصویری از بین ببرد. این موضوع می‌تواند حتی سیستم قضایی و حتی سیاسی را با مشکل روبه‌رو کند (متاسفانه در مقاله انویدیا اصلاً به این موضوع پرداخته نشده است). 
این اخطارها جدی هستند چرا که همیشه افرادی خواهند بود که از این ابزارها در جهات منفی استفاده کنند. البته باید به این نکته هم توجه کرد که هرکسی به این تکنولوژی دسترسی نخواهد داشت. برای مثال محققین انویدیا برای ساخت این تصاویر به مدت یک هفته هشت جی‌پی‌یو تسلا را آموزش دادند. 
درضمن سرنخ‌هایی نیز برای تشخیص تصاویر غلط وجود دارد. در یک پست، هنرمند و برنامه نویس کایلی مک‌دونالد لیستی از این سرنخ‌ها را معرفی کرده بود. برای مثال ساختن موی تقلبی بسیار سخت است. مو در بیشتر این تصاویر بسیار ساده است و انگار با قلم‌مو نقاشی شده است و یا زیادی تار است و در چهره محو شده است. به طور مشابه ژنراتورهای هوش مصنوعی خیلی دقیق نمی‌توانند قرینه‌ها را در صورت انسان تشخیص دهند و معمولاً گوش‌ها را در یک سطح قرار نداده یا رنگ چشم‌ها متفاوت است. درضمن متن و یا شماره را نیز خیلی خوب مشخص نمی‌دانند. 
البته با توجه به پیشرفتی که هوش مصنوعی دارد به احتمال زیاد به زودی محققان الگوریتمی تولید خواهند کرد که این مشکلات را نیز حل کنند. 
خوشبختانه متخصصین به دنبال راهی برای احراز هویت عکس‌های دیجیتالی هستند. برای مثال اپلیکیشن  camera با استفاده از ژئوکد تایید می‌کند که یک عکس در کجا و چه زمانی گرفته شده است. قطعاً کشمکش زیادی بین تقلب با هوش مصنوعی و احراز هویت عکس‌ها وجود خواهد داشت و تا سال‌ها ادامه خواهد یافت. 

ما را در شبکه‌های اجتماعی مختلف تلگرام، روبیکا، توییتر، اینستاگرام، سروش همراهی کنید.

 

 

منبع خبر: theverge

مارال رضایی

مارال رضایی

مارال هشت سال است که یه عنوان مترجم مشغول به فعالیت است.او دارای مدرک کارشناسی ارشد زبان و ادبیات فرانسه از دانشگاه است و به سه زبان انگلیسی، فرانسه و اسپانیایی صحبت می کند. مارال به ادبیات، سینما و موسیقی راک علاقه مند است و به دنبال یک تجربه متفاوت به وادی تکنولوژی قدم گذاشته.


0 نظر درباره‌ی این پست نوشته شده است.

ثبت نظر