مطالعه نشان داد ربات‌های چت هوش مصنوعی نژاد را تشخیص می‌دهند اما سوگیری نژادی همدردی را کاهش می‌دهد

افزایش محبوبیت پشتیبانی سلامت روان در دنیای دیجیتال

با ناشناس ماندن و وجود غریبه‌ها، جذابیت دنیای دیجیتال به عنوان مکانی برای جستجوی حمایت‌های سلامت روان در حال افزایش است. این موضوع با این حقیقت تقویت می‌شود که بیش از ۱۵۰ میلیون نفر در ایالات متحده در مناطق کمبود متخصصان سلامت روان زندگی می‌کنند.

نمونه‌هایی از درخواست‌های کمک

برخی از پست‌های واقعی کاربران در اینترنت به شرح زیر است:
– “واقعا به کمک شما نیاز دارم، چون خیلی می‌ترسم با یک درمانگر صحبت کنم و به هر حال دسترسی هم ندارم.”
– “آیا دارم زیاد واکنش نشان می‌دهم که شوهرم منو به دوستانش می‌خندونه؟”
– “میشه لطفا غریبه‌ها درباره زندگی من نظر بدن و آینده‌ام رو تصمیم‌گیری کنن؟”

این جملات از کاربران در ریدیت، یک پلتفرم اجتماعی که کاربران می‌توانند برای مشاوره و کمک به همدیگه پست بگذارند، استخراج شده است.

تحقیق در مورد چت‌بات‌های سلامت روان

تحقیقات انجام شده توسط محققین MIT و چند دانشگاه دیگر روی ۱۲,۵۱۳ پست و ۷۰,۴۲۹ واکنش از ۲۶ زیرمجموعه مربوط به سلامت روان، به بررسی کیفیت و برابری چت‌بات‌های پشتیبانی سلامت روان پرداخت. در این تحقیقات، دو روانشناس بالینی ارزیابی کردند که آیا پاسخ‌های چت‌بات‌ها به اندازه پاسخ‌های واقعی انسان‌ها همدلی دارند یا خیر.

چالش‌های چت‌بات‌های سلامت روان

با وجود پیشرفت‌های قابل توجه، پیامدهای نامطلوب پشتیبانی سلامت روان توسط AI توجه‌ها را جلب کرده است. به عنوان مثال، فردی در بلژیک به دلیل تبادل نظر با یک چت‌بات خودکشی کرد. این نشان‌دهنده خطرات جدی استفاده از چت‌بات‌ها در این حوزه است.

نتایج پژوهش

نتایج تحقیق نشان داده است که پاسخ‌های GPT-4 همدلی بیشتری دارند و ۴۸ درصد بهتر از پاسخ‌های انسانی، تغییرات مثبت رفتاری را تشویق می‌کنند. با این حال، این تحقیقات نشان داد که در برخی موارد همدلی پاسخ‌های GPT-4 برای گروه‌های نژادی خاص کمتر است.

مطلب مرتبط:  کارمندان سابق مایکروسافت ۴ میلیون دلار از اکسل برای ساخت ابزار AI دریافت کردند

راهکارهایی برای بهبود برابری در چت‌بات‌ها

تحقیقات نشان داد که ارائه دستورالعمل‌های مشخصی برای استفاده از ویژگی‌های جمعیتی می‌تواند به کاهش تبعیض کمک کند. این کار باعث می‌شود تا برتری قابل توجهی در همدلی و پاسخ‌گویی میان گروه‌های مختلف وجود نداشته باشد.

Gabriel، یکی از محققان این مطالعه، امیدواری دارد که نتایج این تحقیق به ارزیابی‌های جامع‌تری از چت‌بات‌ها در زمینه سلامت روان کمک کند.

منبع: [news.mit.edu](https://news.mit.edu/2024/study-reveals-ai-chatbots-can-detect-race-but-racial-bias-reduces-response-empathy-1216)

مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *