ابزار هوش مصنوعی آمازون برای جذب نظامی انگلیس خطر نشت داده دارد
“`html
رزومه ابزاری هوش مصنوعی و خطرات آن برای کارمندان دفاعی
ابزاری هوش مصنوعی که توسط آمازون و با هدف افزایش استخدام در وزارت دفاع بریتانیا طراحی شده، ممکن است خطر شناسایی عمومی پرسنل دفاعی را به همراه داشته باشد. این موضوع بر اساس یک ارزیابی دولتی مطرح شده است.
اطلاعات موجود در سیستم هوش مصنوعی
دادههای استفاده شده در سیستم اتوماتیک Textio برای بهبود نوشتار آگهیهای شغلی دفاعی، شامل نامها، نقشها و ایمیلهای پرسنل نظامی است و از طریق خدمات وب آمازون (AWS) در آمریکا ذخیره میشود. این موضوع به این معناست که “یک نقض داده ممکن است عواقب نگران کنندهای به همراه داشته باشد، یعنی شناسایی پرسنل دفاعی”.
نقد و بررسی خطرات
وزارت دفاع (MoD) این خطر را “کم” ارزیابی کرده و اعلام کرده که “تدابیر محکم”ی از سوی تأمین کنندگان، که در وبسایت وزارت دفاع فهرست شدهاند، در نظر گرفته شده است. با این حال، این خطر یکی از چندین خطر شناخته شده توسط دولت در استفاده از ابزارهای هوش مصنوعی در بخش عمومی است.
فرصتها و چالشها
این هفته گزارش شده که کریس ورمبرای، دبیر جدید کابینه، به کارمندان گفته است که نخستوزیر خواستار “بازنگری در شیوه کارکرد دولت” است و تأکید کرده که باید از “فرصتهای عظیم” فناوری بهرهبرداری شود.
مروری بر خطرات و مزایای هوش مصنوعی در دولت
- خطر تولید محتوای نامناسب از سوی ابزار آموزش برنامهریزی درسی مبتنی بر مدل زبان بزرگ GPT-4.
- وجود “توهمات” توسط چتباتهایی که برای پاسخ به سوالات در مورد رفاه کودکان در دادگاههای خانواده به کار میرود.
- عملکرد نادرست کد و دادههای ورودی نادرست در ابزاری که برای مدلسازی تغییرات مالیات و مزایا در خزانهداری ملّی به کار میرود.
- کاهش قدرت استدلال انسانی اگر کاربران به طور زیاد به سیستمهای هوش مصنوعی برای ارزیابی خطرات نظافت غذایی وابسته شوند.
این اطلاعات در یک ثبتنام شفافیت الگوریتمی شامل ۲۳ الگوریتم دولت مرکزی منتشر شده است. برخی از الگوریتمها، مانند سیستمهای رفاهی، هنوز در ثبتنام نیامدهاند.
وزارت آموزش یک ابزار هوش مصنوعی برای کمک به معلمان به نام Aila را راهاندازی کرده که از مدل GPT-4 استفاده میکند. این ابزار به معلمان کمک میکند تا برنامههای درسی را تولید کنند.
خلاصه
فناوری پتانسیل بالایی برای بهبود خدمات عمومی دارد. شفافیت در استفاده از ابزارهای الگوریتمی برای اعتماد و اثربخشی آنها ضروری است.
منبع: theguardian
“`