OpenAI در تلاش برای حفظ شفافیت و اصالت در دنیای تصاویر تولیدشده توسط هوش مصنوعی، اقدامات جدیدی را انجام میدهد.
این شرکت به تازگی واترمارکهایی را برای تصاویر تولیدشده توسط DALL-E 3 معرفی کرده است و در حال توسعه ابزاری جدید برای تشخیص تصاویر واقعی از تصاویر جعلی ساختهشده توسط هوش مصنوعی است.
همانطور که میدانیم، پیشرفتهای چشمگیر در زمینه هوش مصنوعی، تولید تصاویر باورنکردنی و غیرقابل تمایزی را با استفاده از مدلهایی مانند DALL-E 3 امکانپذیر کرده است. با این حال، این موضوع نگرانیهایی را در مورد سوءاستفاده از این تصاویر و انتشار اخبار جعلی به وجود آورده است.
به همین منظور، OpenAI در حال توسعه روشهای جدیدی برای شناسایی محتوای تولیدشده توسط هوش مصنوعی است. این شرکت در وبلاگ رسمی خود اعلام کرد که در حال همکاری با کمیته راهبری منشأ و اصالت محتوا (C2PA) است تا استانداردهایی برای صدور گواهینامه محتوای دیجیتال ایجاد کند. این استاندارد به سازندگان محتوا اجازه میدهد تا اصالت آثار خود را تأیید کنند.
علاوه بر این، OpenAI قصد دارد ابرداده C2PA را در مدل تولید ویدیوی خود به نام Sora، که به زودی عرضه خواهد شد، ادغام کند. این ابزار به کاربران کمک میکند تا به طور واضح تعیین کنند که یک ویدیو توسط هوش مصنوعی تولید شده است یا خیر.
اما مهمترین اقدام OpenAI، توسعه ابزاری جدید برای تشخیص تصاویر جعلی است. این ابزار از هوش مصنوعی برای تجزیه و تحلیل تصاویر و پیشبینی احتمال تولید آنها توسط DALL-E 3 استفاده میکند. به گفته OpenAI، این ابزار حتی میتواند تصاویری را که فشرده شده، اشباع شده یا بریده شدهاند، شناسایی کند.
دقت این ابزار تشخیصی برای تصاویر DALL-E 3 به 98 درصد میرسد و به طور قابلتوجهی تصاویر واقعی را به عنوان تصاویر جعلی علامتگذاری نمیکند. OpenAI در حال حاضر این ابزار را در اختیار گروهی از آزمایشکنندگان منتخب، از جمله آزمایشگاههای تحقیقاتی و سازمانهای غیرانتفاعی روزنامهنگاری، قرار داده است تا بازخورد آنها را جمعآوری کند.
اقدامات OpenAI در جهت مقابله با تصاویر جعلی و حفظ شفافیت در دنیای هوش مصنوعی، گامی مهم در راستای استفاده مسئولانه از این فناوری قدرتمند محسوب میشود.
اگر علاقهمند دنیای تکنولوژی هستید حتما شبکههای اجتماعی فیسیت را در اینستاگرام، تلگرام، روبیکا، توییتر و آپارات را دنبال کنید.
منبع خبر: gizmochina
ثبت نظر