سازمان حریم خصوصی اتحادیه اروپا به سوالات حقوقی جنجالی جنAI می‌پردازد

نظر کمیسیون حفاظت داده‌های اروپا درباره هوش مصنوعی

کمیسیون حفاظت داده‌های اروپا (EDPB) روز چهارشنبه نظری صادر کرد که بررسی می‌کند توسعه‌دهندگان هوش مصنوعی چگونه می‌توانند از داده‌های شخصی برای توسعه و پیاده‌سازی مدل‌های هوش مصنوعی استفاده کنند، بدون اینکه به قوانین حریم خصوصی آسیب بزنند. این کمیسیون نقش کلیدی در اجرای این قوانین دارد و نظرات آن اهمیت زیادی دارد.

مفاهیم اصلی در نظر EDPB

این نظر به چندین موضوع مهم می‌پردازد؛ از جمله اینکه آیا مدل‌های هوش مصنوعی می‌توانند به عنوان داده‌های ناشناس در نظر گرفته شوند، و آیا استفاده از «منافع مشروع» به عنوان مبنای قانونی مجاز است. همچنین، این سوال مطرح است که آیا مدل‌هایی که با داده‌های غیرقانونی توسعه یافته‌اند، می‌توانند به طور قانونی پیاده‌سازی شوند.

چالش‌های قانونی برای توسعه‌دهندگان هوش مصنوعی

درست مثل OpenAI که به خاطر عدم رعایت قوانین حریم خصوصی با مشکلاتی مواجه شده، این سوالات هم هنوز باز هستند. تخلف از این قوانین می‌تواند جریمه‌هایی تا ۴ درصد از درآمد سالانه جهانی و/or الزامی برای تغییر نحوه عملکرد ابزارهای هوش مصنوعی به همراه داشته باشد.

حضور EDPB در ارزیابی داده‌ها

EDPB به مقامات حفاظت داده پیشنهاد می‌کند تا ارزیابی‌های لازم را انجام دهند تا معلوم شود آیا منافع مشروع می‌تواند مبنای قانونی مناسبی برای پردازش داده‌های شخصی باشد یا خیر. به طور کلی، نظر این نهاد به این سمت می‌رود که هیچ راه‌حل واحدی برای عدم قطعیت حقوقی وجود ندارد.

ناشناس بودن مدل‌ها

نظریه EDPB درباره ناشناس بودن مدل‌های هوش مصنوعی این است که این موضوع باید به صورت موردی بررسی شود. به این معنی که مدل‌های هوش مصنوعی باید به گونه‌ای طراحی شوند که احتمال شناسایی افراد به حداقل برسد.

مطلب مرتبط:  OpenAI دلیل قطع گسترده ChatGPT را عدم خدمت جدید تلمتری می‌داند

منافع مشروع

در این نظر، بررسی شده که آیا می‌توان از «منافع مشروع» برای توسعه و پیاده‌سازی هوش مصنوعی استفاده کرد. این موضوع اهمیت زیادی دارد زیرا در قوانین GDPR تنها تعدادی مبنای قانونی وجود دارد و بسیاری از این مبناها برای هوش مصنوعی مناسب نیستند. در نهایت، اگر developers نشان دهند که استفاده از داده‌ها واقعاً ضروری است و با حداقل داده‌ها انجام می‌شود، ممکن است بتوانند از این مبنا بهره‌برداری کنند.

مدل‌های غیرقانونی آموزش‌دیده

موضوع حساس دیگری که به آن پرداخته شده، نحوه برخورد با مدل‌های هوش مصنوعی است که بر اساس داده‌های غیرقانونی آموزش دیده‌اند. در اینجا نیز کمیسیون تأکید کرده که باید شرایط هر مورد به صورت جداگانه مورد بررسی قرار گیرد.

به نظر می‌رسد که اگر توسعه‌دهندگان اقدامات لازم را برای ناشناس‌سازی داده‌ها قبل از پیاده‌سازی مدل انجام دهند، ممکن است بتوانند از تخلفات قانونی دور شوند. اما این موضوع نیاز به دقت و پایش دارد تا از سوءاستفاده‌های سیستماتیک جلوگیری شود.

منبع: techcrunch.com

مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *