هوش مصنوعی

متا در دستکاری معیارهای هوش مصنوعی دستگیر شد

شرکت متا (فیسبوک سابق) اخیراً با اتهامات جدی درباره دستکاری عمدی معیارهای ارزیابی هوش مصنوعی روبرو شده است. این شرکت که به عنوان یکی از پیشگامان توسعه هوش مصنوعی شناخته می‌شود، متهم است با استفاده از روش‌های غیرمعمول، عملکرد مدل‌های هوش مصنوعی خود را در آزمون‌های استاندارد به صورت مصنوعی بهبود بخشیده است. این رسوایی که اولین بار توسط محققان مستقل در دانشگاه استنفورد افشا شد، نشان می‌دهد که متا از تکنیک‌های خاصی برای “بهینه‌سازی بیش از حد” مدل‌های خود روی مجموعه داده‌های آزمایشی استفاده کرده است، بدون اینکه این بهبودها در کاربردهای واقعی قابل مشاهده باشد. این اقدام می‌تواند اعتبار کل صنعت هوش مصنوعی را تحت تأثیر قرار دهد.

تحقیقات نشان می‌دهد مهندسان متا از چندین تکنیک بحث‌برانگیز برای بهبود مصنوعی نتایج استفاده کرده‌اند. یکی از این روش‌ها، “آموزش هدفمند” نام دارد که در آن مدل‌های هوش مصنوعی به طور خاص برای پاسخگویی به سوالات موجود در مجموعه داده‌های آزمایشی تمرین داده می‌شوند، بدون اینکه توانایی عمومی حل مسئله در آنها بهبود یابد. روش دیگر، “مهندسی معکوس معیارها” است که در آن الگوریتم‌ها به گونه‌ای تنظیم می‌شوند که بتوانند الگوهای پنهان در آزمون‌های استاندارد را شناسایی و از آنها سوءاستفاده کنند. بررسی‌ها نشان می‌دهد در برخی موارد، مدل‌های متا در آزمون‌های استاندارد تا ۴۰ درصد بهتر از مدل‌های رقیب عمل کرده‌اند، در حالی که در محیط‌های واقعی این اختلاف به کمتر از ۱۰ درصد می‌رسد.

یکی از جنجالی‌ترین موارد، مربوط به مدل LLaMA متا است که در آزمون‌های درک مطلب نتایج خیره‌کننده‌ای ارائه داده بود. تحلیل‌های بعدی نشان داد این مدل به طور خاص برای پیش‌بینی پاسخ‌های احتمالی در آزمون‌های استاندارد آموزش دیده بود، نه برای درک واقعی محتوا. این مسئله زمانی آشکار شد که محققان سوالات آزمون را با حفظ معنا اما با تغییر ساختار زبانی ارائه کردند و مشاهده کردند عملکرد مدل به شدت کاهش یافت. چنین اقداماتی نه تنها اخلاق‌حرفه‌ای را زیر سوال می‌برد، بلکه می‌تواند تصمیم‌گیری‌های تجاری و سرمایه‌گذاری‌های کلان را تحت تأثیر قرار دهد.

افشای این رسوایی تأثیرات گسترده‌ای بر صنعت هوش مصنوعی داشته است. بسیاری از سازمان‌های استانداردسازی اکنون در حال بازنگری روش‌های ارزیابی خود هستند تا از دستکاری‌های مشابه در آینده جلوگیری کنند. انجمن هوش مصنوعی اروپا پیشنهاد داده است که از “آزمون‌های پویا” استفاده شود که در هر بار اجرا سوالات را به صورت تصادفی تغییر می‌دهند و امکان بهینه‌سازی بیش از حد را کاهش می‌دهند. از سوی دیگر، سرمایه‌گذاران شروع به بازبینی ارزیابی‌های خود از استارتاپ‌های هوش مصنوعی کرده‌اند، چرا که بسیاری از این شرکت‌ها از معیارهای استاندارد به عنوان شاخص اصلی پیشرفت فناوری خود استفاده می‌کنند.

این اتفاق اعتبار متا را به عنوان یکی از پیشگامان هوش مصنوعی نیز تحت تأثیر قرار داده است. بسیاری از محققان مستقل اکنون نسبت به انتشارات علمی این شرکت با شک و تردید نگاه می‌کنند. چندین کنفرانس معتبر هوش مصنوعی اعلام کرده‌اند که مقالات متا را قبل از پذیرش با دقت بیشتری بررسی خواهند کرد. حتی برخی از شرکای تجاری متا نیز در حال بازنگری قراردادهای همکاری خود هستند. این رسوایی همچنین بحث‌های اخلاقی گسترده‌ای را درباره مسئولیت شرکت‌های فناوری در گزارش دقیق قابلیت‌های سیستم‌های خود برانگیخته است. بسیاری از کارشناسان معتقدند این اتفاق می‌تواند نقطه عطفی در تنظیم مقررات صنعت هوش مصنوعی باشد.

برای کسب اطلاعات و اخبار روز با ما در بیسلند همراه باشید.

نوشته های مشابه

دیدگاهتان را بنویسید

دکمه بازگشت به بالا