گوگل می‌گوید مدل‌های جدید هوش مصنوعی‌اش احساسات را شناسایی می‌کنند و این نگرانی کارشناس‌ها را برانگیخته است

پالی‌جما 2: مدل جدید گوگل با قابلیت شناسایی احساسات

گوگل اخیراً از خانواده جدید مدل‌های هوش مصنوعی خود به نام «پالی‌جما 2» رونمایی کرده که قابلیت جالبی دارد: شناسایی احساسات.

این خانواده مدل‌ها توانایی تحلیل تصاویر را دارد و می‌تواند توصیفاتی از عکس‌ها ارائه دهد و به سوالات مربوط به افرادی که در عکس‌ها حضور دارند پاسخ دهد.

تحلیل دقیق تصاویر

گوگل در یک پست بلاگی اعلام کرده که پالی‌جما 2 توصیفاتی دقیق و مرتبط با شرایط عکس‌ها تولید می‌کند و می‌تواند اقدام‌ها، احساسات و داستان کلی صحنه را توصیف کند.

چالش‌های شناسایی احساسات

شناسایی احساسات به طور خودکار کار نمی‌کند و باید مدل پالی‌جما 2 برای این هدف تنظیم شود. این مساله موجب نگرانی کارشناسان شده است.

سندرا واچتر، استاد اخلاق داده و هوش مصنوعی در دانشگاه آکسفورد، می‌گوید: “این موضوع بسیار نگران کننده است. فرض اینکه می‌توان احساسات مردم را «خواند» مشکل‌ساز است.”

چندین سال است که استارتاپ‌ها و شرکت‌های بزرگ در تلاش برای ساخت هوش مصنوعی هستند که احساسات را شناسایی کند. اما علم پشت این فناوری هنوز در شرایط حساسی قرار دارد.

محدودیت‌های شناسایی احساسات

اکثر سیستم‌های شناسایی احساسات به تحقیقات پل اکه‌من، روانشناس، متکی هستند که می‌گوید انسان‌ها شش احساس اصلی مشترک دارند: خشم، تعجب، نفرت، لذت، ترس و غم. اما تحقیقات بعدی نشان می‌دهد که افراد از پس‌زمینه‌های مختلف احساسات خود را به شکل‌های متفاوتی ابراز می‌کنند.

مایک کوک، محقق هوش مصنوعی در دانشگاه کینگ، عنوان می‌کند: “شناسایی احساسات به طور کلی ممکن نیست زیرا انسان‌ها احساسات را به‌صورت پیچیده‌ای تجربه می‌کنند.”

نتیجه‌ی غیرقابل پیش‌بینی این است که سیستم‌های شناسایی احساسات معمولاً غیرقابل اعتماد و تحت تأثیر پیش‌فرض‌های طراحانشان هستند. به عنوان مثال، مطالعه‌ای در MIT نشان داده که مدل‌های تجزیه و تحلیل چهره ممکن است تمایلات ناخواسته‌ای به سمت برخی از حالات خاص چهره داشته باشند.

مطلب مرتبط:  چشم‌اندازی برای موفقیت علم در آمریکا

نگرانی‌ها درباره سوءاستفاده

مدل‌های باز مانند پالی‌جما 2 که در دسترس عموم قرار دارند، خطر سوءاستفاده را به همراه دارند. واچتر نگران است که این فناوری ممکن است به نفع تبعیض علیه گروه‌های حاشیه‌ای استفاده شود.

گوگل در پاسخ به نگرانی‌ها اعلام کرده که آزمایش‌های زیادی برای ارزیابی تعصبات جمعیتی در پالی‌جما 2 انجام داده است. با این حال، این شرکت جزئیات کاملی از این آزمایش‌ها ارائه نکرده است.

واچتر معتقد است که مسئولیت‌پذیری در نوآوری نیاز به بررسی عواقب از روز اول دارد و به عواقب بالقوه‌ای که ممکن است این مدل‌ها ایجاد کنند هشدار می‌دهد.

در نهایت، فناوری‌های هوش مصنوعی مانند پالی‌جما 2، اگر به درستی استفاده نشوند، می‌تواند پیامدهای جدی برای جامعه داشته باشد.

منبع: techcrunch.com

مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *