او به خاطر امتیاز تولید شده توسط هوش مصنوعی آپارتمان نگرفت و از دیگران دفاع کرد
دردسرهای امتیازدهی با هوش مصنوعی
مریم لوئیس، که از یک نرمافزار هوش مصنوعی برای ارزیابی مستاجران استفاده کرده بود، امتیاز ۳۲۴ دریافت کرد. این نرمافزار، به نام SafeRent، هیچ توضیحی در مورد نحوه محاسبه امتیاز یا عوامل مختلفی که در این محاسبه تأثیر داشتند ارائه نداد. نتیجهاش فقط این بود که امتیازش خیلی کم است و در نهایت گفته شد: “پیشنهاد امتیاز: رد”.
مشکلات درخواست اجاره
مریم به عنوان یک نگهبان در منطقهای در ماساچوست درخواست اجاره داده بود. با وجود اینکه امتیاز اعتباری پایینی داشت، یکی از مالکان قبلیاش به خوبی از وی تعریف کرده بود که همیشه کرایهاش را سر وقت میپرداخت. اما حدود دو ماه پس از درخواستش، شرکت مدیریت به وی ایمیل زد و گفت که نرمافزار درخواستش را رد کرده است.
شکایت از شرکت
وی پس از این اتفاق مجبور شد آپارتمانی با کرایه بالاتر اجاره کند. اما او متوجه شد که تنها نیست و بیش از ۴۰۰ مستأجر سیاهپوست و اسپانیاییزبان دیگر در ماساچوست نیز همین مشکل را داشتند. در سال ۲۰۲۲، این افراد اقدام به شکایت از SafeRent کردند و ادعا کردند که این نرمافزار به طور نامتناسبی افراد سیاهپوست و اسپانیاییزبان را نسبت به سایرین امتیاز پایینتری میدهد.
توافقنامه با SafeRent
پس از یک مدت طولانی، SafeRent توافق کرد که $۲.۳ میلیون پرداخت کند و برای پنج سال دیگر از استفاده از سیستم امتیازدهی برای مستأجرانی که از وامهای مسکن استفاده میکنند، خودداری کند. اگر این شرکت بخواهد سیستم جدیدی راهاندازی کند، باید آن را توسط یک سازمان مستقل تأیید کند.
چالشهای هوش مصنوعی در زندگی روزمره
بیش از ۹۲ میلیون نفر از افراد کمدرآمد در آمریکا با تصمیمگیریهای مبتنی بر هوش مصنوعی در زمینههایی مانند اشتغال، مسکن و بهداشت و درمان مواجه هستند. این موضوع نگرانیهایی را در مورد شفافیت و عدالت در تصمیمگیریها به وجود آورده است.
کمبود قوانین و چالشها
قوانین محدودکننده استفاده از هوش مصنوعی در تصمیمات مهم نسبتا کم هستند. بسیاری از افراد خبر ندارند که در هنگام تصمیمگیریهای زندگیشان از الگوریتمها استفاده میشود و بنابراین نمیتوانند درخواست تجدیدنظر کنند. شکایتهایی مانند مورد مریم ممکن است راهی برای پاسخگویی به این مشکلات فراهم کنند.
منبع: theguardian