گوگل میگوید مدلهای جدید هوش مصنوعیاش احساسات را شناسایی میکنند و این نگرانی کارشناسها را برانگیخته است
پالیجما 2: مدل جدید گوگل با قابلیت شناسایی احساسات
گوگل اخیراً از خانواده جدید مدلهای هوش مصنوعی خود به نام «پالیجما 2» رونمایی کرده که قابلیت جالبی دارد: شناسایی احساسات.
این خانواده مدلها توانایی تحلیل تصاویر را دارد و میتواند توصیفاتی از عکسها ارائه دهد و به سوالات مربوط به افرادی که در عکسها حضور دارند پاسخ دهد.
تحلیل دقیق تصاویر
گوگل در یک پست بلاگی اعلام کرده که پالیجما 2 توصیفاتی دقیق و مرتبط با شرایط عکسها تولید میکند و میتواند اقدامها، احساسات و داستان کلی صحنه را توصیف کند.
چالشهای شناسایی احساسات
شناسایی احساسات به طور خودکار کار نمیکند و باید مدل پالیجما 2 برای این هدف تنظیم شود. این مساله موجب نگرانی کارشناسان شده است.
سندرا واچتر، استاد اخلاق داده و هوش مصنوعی در دانشگاه آکسفورد، میگوید: “این موضوع بسیار نگران کننده است. فرض اینکه میتوان احساسات مردم را «خواند» مشکلساز است.”
چندین سال است که استارتاپها و شرکتهای بزرگ در تلاش برای ساخت هوش مصنوعی هستند که احساسات را شناسایی کند. اما علم پشت این فناوری هنوز در شرایط حساسی قرار دارد.
محدودیتهای شناسایی احساسات
اکثر سیستمهای شناسایی احساسات به تحقیقات پل اکهمن، روانشناس، متکی هستند که میگوید انسانها شش احساس اصلی مشترک دارند: خشم، تعجب، نفرت، لذت، ترس و غم. اما تحقیقات بعدی نشان میدهد که افراد از پسزمینههای مختلف احساسات خود را به شکلهای متفاوتی ابراز میکنند.
مایک کوک، محقق هوش مصنوعی در دانشگاه کینگ، عنوان میکند: “شناسایی احساسات به طور کلی ممکن نیست زیرا انسانها احساسات را بهصورت پیچیدهای تجربه میکنند.”
نتیجهی غیرقابل پیشبینی این است که سیستمهای شناسایی احساسات معمولاً غیرقابل اعتماد و تحت تأثیر پیشفرضهای طراحانشان هستند. به عنوان مثال، مطالعهای در MIT نشان داده که مدلهای تجزیه و تحلیل چهره ممکن است تمایلات ناخواستهای به سمت برخی از حالات خاص چهره داشته باشند.
نگرانیها درباره سوءاستفاده
مدلهای باز مانند پالیجما 2 که در دسترس عموم قرار دارند، خطر سوءاستفاده را به همراه دارند. واچتر نگران است که این فناوری ممکن است به نفع تبعیض علیه گروههای حاشیهای استفاده شود.
گوگل در پاسخ به نگرانیها اعلام کرده که آزمایشهای زیادی برای ارزیابی تعصبات جمعیتی در پالیجما 2 انجام داده است. با این حال، این شرکت جزئیات کاملی از این آزمایشها ارائه نکرده است.
واچتر معتقد است که مسئولیتپذیری در نوآوری نیاز به بررسی عواقب از روز اول دارد و به عواقب بالقوهای که ممکن است این مدلها ایجاد کنند هشدار میدهد.
در نهایت، فناوریهای هوش مصنوعی مانند پالیجما 2، اگر به درستی استفاده نشوند، میتواند پیامدهای جدی برای جامعه داشته باشد.
منبع: techcrunch.com