توانمندسازی هوش مصنوعی برای توضیح پیش‌بینی‌ها به زبان ساده

توسعه روش‌های توضیح‌دهی در مدل‌های یادگیری ماشین

مدل‌های یادگیری ماشین ممکن است در پیش‌بینی‌ها اشتباه کنند و استفاده از آن‌ها دشوار باشد، به همین خاطر پژوهشگران به دنبال توسعه روش‌های توضیحی هستند تا به کاربران کمک کنند که متوجه شوند چه زمانی و چگونه باید به پیش‌بینی‌های یک مدل اعتماد کنند.

چالش‌های توضیحات پیچیده

توضیحات مربوط به مدل‌های یادگیری ماشین معمولاً پیچیده‌اند و شامل اطلاعاتی درباره ویژگی‌های مختلف مدل می‌شوند. این توضیحات گاهی به صورت визуализیشن‌های چندوجهی ارائه می‌شوند که برای کاربرانی که تخصصی در یادگیری ماشین ندارند، فهم آن‌ها دشوار است.

استفاده از مدل‌های زبانی بزرگ

پژوهشگران MIT با استفاده از مدل‌های زبانی بزرگ، توضیحات مبتنی بر نمودار را به زبان ساده تبدیل کرده‌اند. آن‌ها یک سیستم دو جزئی توسعه داده‌اند که یک توضیح یادگیری ماشین را به یک متن خواندنی تبدیل می‌کند و سپس کیفیت آن را ارزیابی می‌کند تا کاربر بداند آیا باید به آن اعتماد کند یا خیر.

توسعه گفتگوی تعاملی با مدل‌ها

هدف پژوهشگران این است که کاربران بتوانند از مدل‌ها سوالات پیگیری بپرسند و اطلاعات بیشتری درباره پیش‌بینی‌های آن‌ها به دست آورند. Alexandra Zytek، دانشجوی مقطع دکترا، می‌گوید: “هدف ما این است که به کاربران اجازه بدهیم با مدل‌ها در مورد دلایل پیش‌بینی‌ها گفت‌وگو کنند تا بتوانند تصمیمات بهتری بگیرند.”

توضیحات SHAP و چالش‌های آن

پژوهشگران روی نوعی توضیح رایج به نام SHAP تمرکز کردند که برای هر ویژگی مورد استفاده در پیش‌بینی، یک ارزش مشخص می‌کند. برای نمونه، اگر مدلی قیمت خانه‌ها را پیش‌بینی کند، یکی از ویژگی‌ها ممکن است محل خانه باشد که ارزش مثبت یا منفی به آن اختصاص داده می‌شود.

مطلب مرتبط:  این رهبر سابق Scale AI پلتفرمی برای استخراج خودکار تحلیل از بازخورد مشتری ساخت

توضیحات SHAP معمولاً به صورت نمودارهای میله‌ای نمایش داده می‌شوند که نشان‌دهنده ویژگی‌های مهم‌تر یا کم‌اهمیت‌تر هستند. اما وقتی که مدل بیش از 100 ویژگی دارد، این نمودار به سرعت غیرقابل استفاده می‌شود.

سیستم EXPLINGO

سیستم پژوهشگران به نام EXPLINGO شامل دو بخش است. بخش اول که NARRATOR نام دارد، توضیحات SHAP را به متن خواندنی تبدیل می‌کند. سپس بخش دوم، GRADER، کیفیت این متن را بر اساس معیارهایی مثل اختصار، دقت، کامل بودن و روانی ارزیابی می‌کند.

ارزیابی و بهینه‌سازی توضیحات

پژوهشگران از 9 دیتاست مختلف یادگیری ماشین استفاده کردند تا توانایی NARRATOR را در تقلید از سبک‌های نوشتاری مختلف ارزیابی کنند. آن‌ها همچنین متوجه شدند که ارائه چند مثال دستی به بهبود کیفیت توضیحات کمک می‌کند.

اهداف آینده

در آینده، پژوهشگران می‌خواهند تکنیک‌هایی را توسعه دهند که سیستم آن‌ها را در پردازش کلمات مقایسه‌ای بهبود بخشد و همچنین EXPLINGO را با اضافه کردن قابلیت توجیه گسترش دهند تا فضایی تعاملی برای پرسش و پاسخ بین کاربران و مدل‌ها ایجاد کنند.

منبع: news.mit.edu

مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *