بهینه‌سازی مدل‌های هوش مصنوعی متا فقط برای بنچمارک‌ها؟

meta ai

به‌نظر می‌رسد شرکت متا نسخه‌ای ویژه از مدل هوش مصنوعی خود به‌نام Maverick را صرفاً برای عملکرد بهتر در بنچمارک‌ها و آزمون‌های ارزیابی طراحی کرده است؛ نسخه‌ای که با مدل ارائه‌شده به توسعه‌دهندگان تفاوت‌هایی دارد.

در یکی از آزمون‌های معتبر به نام LM Arena که توسط ارزیابان انسانی انجام می‌شود، مدل Maverick موفق شد جایگاه دوم را کسب کند. اما نکته‌ی قابل‌توجه اینجاست که نسخه‌ی مورد استفاده در این آزمون، طبق اسناد رسمی و نمودارهای منتشرشده در وب‌سایت Llama، نسخه‌ای بهینه‌سازی‌شده برای مکالمه بوده که به‌صورت عمومی در دسترس توسعه‌دهندگان قرار ندارد.

چندین متخصص هوش مصنوعی در شبکه‌ی اجتماعی X (توییتر سابق) اعلام کرده‌اند که متا در بیانیه‌ای رسمی تأیید کرده نسخه‌ی به‌کاررفته در LM Arena، نسخه‌ی آزمایشی و مخصوص گفت‌وگو بوده است.

این تفاوت بین نسخه‌ی آزمایشگاهی و نسخه‌ی واقعی می‌تواند توسعه‌دهندگان را گمراه کند. چرا که اگر یک مدل تنها برای عملکرد بهتر در آزمون‌ها تنظیم شده باشد، سنجش واقعی توانایی‌های آن در شرایط متنوع و دنیای واقعی امکان‌پذیر نخواهد بود.

meta-ai-bencmark-comparison-67f36e15185f82bd8d1d7be6
-

در حالی‌که این موضوع نگرانی‌هایی را در بین محققان و فعالان حوزه هوش مصنوعی به‌وجود آورده، شرکت متا هنوز واکنش رسمی نسبت به این گزارش‌ها ارائه نکرده است.

این ماجرا بار دیگر بر ضرورت شفافیت در توسعه مدل‌های هوش مصنوعی و اهمیت آزمون‌های دقیق و بی‌طرفانه برای ارزیابی توانمندی واقعی آن‌ها تأکید می‌کند.

 

اگر علاقه‌مند دنیای تکنولوژی هستید حتما شبکه‌های اجتماعی فیسیت را در اینستاگرام، تلگرام، روبیکا، توییتر و آپارات را دنبال کنید.

 

منبع خبر: x.com_natolambert

پویان معصومی.jpg

پویان معصومی - کارشناس تولید محتوا

نویسندگی در حوزه تکنولوژی یکی از تفریحات و علاقه مندی‌های من به عنوان یک فارغ التحصیل رشته مهندسی تکنولوژی نرم افزار است که به کار اصلی بنده تبدیل شده و تولید محتوا را به صورت ویژه‌ای دنبال می‌کنم.

اگر پیشنهاد یا انتقادی داشتی با من در ارتباط باش.



حتما در اینستاگرام من را دنبال کنید.


0 نظر درباره‌ی این پست نوشته شده است.

ثبت نظر