گوگل: مشتریان میتوانند از هوش مصنوعی در حوزههای پرخطر با نظارت انسانی استفاده کنند
توافقات جدید گوگل درباره استفاده از ابزارهای AI
گوگل اخیراً تغییراتی در شرایط خود ایجاد کرده تا مشخص کند که مشتریان میتوانند از ابزارهای هوش مصنوعی تولیدی این شرکت برای اتخاذ “تصمیمات خودکار” در زمینههای “پرخطر”، مانند بهداشت و درمان، استفاده کنند به شرطی که یک انسان ناظر باشد.
شرایط جدید استفاده از هوش مصنوعی
در سیاستنامه اصلاح شدهی روز سهشنبه، مشتریان میتوانند از هوش مصنوعی تولیدی گوگل برای اتخاذ “تصمیمات خودکار” که ممکن است تأثیر منفی قابل توجهی بر حقوق فردی داشته باشد، استفاده کنند، به شرطی که یک انسان در این پروسه ناظر باشد. این تصمیمات میتواند شامل استخدام، مسکن، بیمه و دیگر حوزههای “پرخطر” باشد.
تصمیمات خودکار چیست؟
تصمیمات خودکار به تصمیماتی اشاره دارد که توسط سیستمهای هوش مصنوعی بر اساس دادههای واقعی و استنباطی اتخاذ میشود. برای مثال، یک سیستم میتواند تصمیم به اعطای وام یا بررسی یک نامزد شغلی بگیرد.
تغییرات در سیاستها
نسخه قبلی شرایط گوگل به نظر میرسید که یک ممنوعیت مطلق در مورد اتخاذ تصمیمات خودکار پرخطر با استفاده از هوش مصنوعی تولیدی این شرکت وجود دارد. اما گوگل به TechCrunch گفت که مشتریان میتوانند همیشه از هوش مصنوعی برای این نوع تصمیمگیری استفاده کنند، به شرط وجود ناظر انسانی.
یک سخنگوی گوگل تأکید کرد که “نیاز به ن supervision همیشه در سیاستهای ما وجود داشته است و ما برخی موارد را دوباره دستهبندی کرده و مثالهایی را برای شفافیت بیشتر مطرح کردهایم.”
مقایسه با رقبا
رقبای اصلی گوگل، یعنی OpenAI و Anthropic، قوانین سختگیرانهتری برای استفاده از هوش مصنوعی خود در تصمیمگیریهای خودکار پرخطر دارند. به عنوان مثال، OpenAI استفاده از خدماتش را برای تصمیمات خودکار مربوط به اعتبار، استخدام، مسکن، تحصیل و بیمه ممنوع کرده است.
Anthropic اجازه میدهد که از هوش مصنوعیاش در زمینههایی مانند قانون، بیمه و بهداشت و درمان استفاده شود، اما تنها تحت نظارت یک “متخصص واجد شرایط” و همچنین نیاز به افشای استفاده از AI برای این هدف وجود دارد.
نگرانیهای نظارتی
استفاده از هوش مصنوعی برای اتخاذ تصمیمات خودکار که بر افراد تأثیر میگذارد، توجه نهادهای نظارتی را به خود جلب کرده است. در حال حاضر، سیستمهای هوش مصنوعی پرخطر در اتحادیه اروپا تحت نظارت بیشتری قرار دارند و باید در پایگاه داده ثبت شوند و الزامات دیگری را رعایت کنند.
در ایالات متحده، کالیفرنیا اخیراً قانونی تصویب کرده که توسعهدهندگان هوش مصنوعی باید اطلاعات مربوط به “سیستمهای پرخطر” را افشا کنند. همچنین، شهر نیویورک استفاده از ابزارهای خودکار برای بررسی نامزدهای شغلی را بدون انجام یک ارزیابی تعصب در سال گذشته ممنوع کرده است.
منبع: techcrunch.com