گوگل: مشتریان می‌توانند از هوش مصنوعی در حوزه‌های پرخطر با نظارت انسانی استفاده کنند

توافقات جدید گوگل درباره استفاده از ابزارهای AI

گوگل اخیراً تغییراتی در شرایط خود ایجاد کرده تا مشخص کند که مشتریان می‌توانند از ابزارهای هوش مصنوعی تولیدی این شرکت برای اتخاذ “تصمیمات خودکار” در زمینه‌های “پرخطر”، مانند بهداشت و درمان، استفاده کنند به شرطی که یک انسان ناظر باشد.

شرایط جدید استفاده از هوش مصنوعی

در سیاست‌نامه اصلاح شده‌ی روز سه‌شنبه، مشتریان می‌توانند از هوش مصنوعی تولیدی گوگل برای اتخاذ “تصمیمات خودکار” که ممکن است تأثیر منفی قابل توجهی بر حقوق فردی داشته باشد، استفاده کنند، به شرطی که یک انسان در این پروسه ناظر باشد. این تصمیمات می‌تواند شامل استخدام، مسکن، بیمه و دیگر حوزه‌های “پرخطر” باشد.

تصمیمات خودکار چیست؟

تصمیمات خودکار به تصمیماتی اشاره دارد که توسط سیستم‌های هوش مصنوعی بر اساس داده‌های واقعی و استنباطی اتخاذ می‌شود. برای مثال، یک سیستم می‌تواند تصمیم به اعطای وام یا بررسی یک نامزد شغلی بگیرد.

تغییرات در سیاست‌ها

نسخه قبلی شرایط گوگل به نظر می‌رسید که یک ممنوعیت مطلق در مورد اتخاذ تصمیمات خودکار پرخطر با استفاده از هوش مصنوعی تولیدی این شرکت وجود دارد. اما گوگل به TechCrunch گفت که مشتریان می‌توانند همیشه از هوش مصنوعی برای این نوع تصمیم‌گیری استفاده کنند، به شرط وجود ناظر انسانی.

یک سخنگوی گوگل تأکید کرد که “نیاز به ن supervision همیشه در سیاست‌های ما وجود داشته است و ما برخی موارد را دوباره دسته‌بندی کرده و مثال‌هایی را برای شفافیت بیشتر مطرح کرده‌ایم.”

مقایسه با رقبا

رقبای اصلی گوگل، یعنی OpenAI و Anthropic، قوانین سختگیرانه‌تری برای استفاده از هوش مصنوعی خود در تصمیم‌گیری‌های خودکار پرخطر دارند. به عنوان مثال، OpenAI استفاده از خدماتش را برای تصمیمات خودکار مربوط به اعتبار، استخدام، مسکن، تحصیل و بیمه ممنوع کرده است.

مطلب مرتبط:  میزان کارایی دولت را ایلان ماسک چقدر می‌تواند بهبود بخشد؟

Anthropic اجازه می‌دهد که از هوش مصنوعی‌اش در زمینه‌هایی مانند قانون، بیمه و بهداشت و درمان استفاده شود، اما تنها تحت نظارت یک “متخصص واجد شرایط” و همچنین نیاز به افشای استفاده از AI برای این هدف وجود دارد.

نگرانی‌های نظارتی

استفاده از هوش مصنوعی برای اتخاذ تصمیمات خودکار که بر افراد تأثیر می‌گذارد، توجه نهادهای نظارتی را به خود جلب کرده است. در حال حاضر، سیستم‌های هوش مصنوعی پرخطر در اتحادیه اروپا تحت نظارت بیشتری قرار دارند و باید در پایگاه داده ثبت شوند و الزامات دیگری را رعایت کنند.

در ایالات متحده، کالیفرنیا اخیراً قانونی تصویب کرده که توسعه‌دهندگان هوش مصنوعی باید اطلاعات مربوط به “سیستم‌های پرخطر” را افشا کنند. همچنین، شهر نیویورک استفاده از ابزارهای خودکار برای بررسی نامزدهای شغلی را بدون انجام یک ارزیابی تعصب در سال گذشته ممنوع کرده است.

منبع: techcrunch.com

مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *