سازمان حریم خصوصی اتحادیه اروپا به سوالات حقوقی جنجالی جنAI میپردازد
نظر کمیسیون حفاظت دادههای اروپا درباره هوش مصنوعی
کمیسیون حفاظت دادههای اروپا (EDPB) روز چهارشنبه نظری صادر کرد که بررسی میکند توسعهدهندگان هوش مصنوعی چگونه میتوانند از دادههای شخصی برای توسعه و پیادهسازی مدلهای هوش مصنوعی استفاده کنند، بدون اینکه به قوانین حریم خصوصی آسیب بزنند. این کمیسیون نقش کلیدی در اجرای این قوانین دارد و نظرات آن اهمیت زیادی دارد.
مفاهیم اصلی در نظر EDPB
این نظر به چندین موضوع مهم میپردازد؛ از جمله اینکه آیا مدلهای هوش مصنوعی میتوانند به عنوان دادههای ناشناس در نظر گرفته شوند، و آیا استفاده از «منافع مشروع» به عنوان مبنای قانونی مجاز است. همچنین، این سوال مطرح است که آیا مدلهایی که با دادههای غیرقانونی توسعه یافتهاند، میتوانند به طور قانونی پیادهسازی شوند.
چالشهای قانونی برای توسعهدهندگان هوش مصنوعی
درست مثل OpenAI که به خاطر عدم رعایت قوانین حریم خصوصی با مشکلاتی مواجه شده، این سوالات هم هنوز باز هستند. تخلف از این قوانین میتواند جریمههایی تا ۴ درصد از درآمد سالانه جهانی و/or الزامی برای تغییر نحوه عملکرد ابزارهای هوش مصنوعی به همراه داشته باشد.
حضور EDPB در ارزیابی دادهها
EDPB به مقامات حفاظت داده پیشنهاد میکند تا ارزیابیهای لازم را انجام دهند تا معلوم شود آیا منافع مشروع میتواند مبنای قانونی مناسبی برای پردازش دادههای شخصی باشد یا خیر. به طور کلی، نظر این نهاد به این سمت میرود که هیچ راهحل واحدی برای عدم قطعیت حقوقی وجود ندارد.
ناشناس بودن مدلها
نظریه EDPB درباره ناشناس بودن مدلهای هوش مصنوعی این است که این موضوع باید به صورت موردی بررسی شود. به این معنی که مدلهای هوش مصنوعی باید به گونهای طراحی شوند که احتمال شناسایی افراد به حداقل برسد.
منافع مشروع
در این نظر، بررسی شده که آیا میتوان از «منافع مشروع» برای توسعه و پیادهسازی هوش مصنوعی استفاده کرد. این موضوع اهمیت زیادی دارد زیرا در قوانین GDPR تنها تعدادی مبنای قانونی وجود دارد و بسیاری از این مبناها برای هوش مصنوعی مناسب نیستند. در نهایت، اگر developers نشان دهند که استفاده از دادهها واقعاً ضروری است و با حداقل دادهها انجام میشود، ممکن است بتوانند از این مبنا بهرهبرداری کنند.
مدلهای غیرقانونی آموزشدیده
موضوع حساس دیگری که به آن پرداخته شده، نحوه برخورد با مدلهای هوش مصنوعی است که بر اساس دادههای غیرقانونی آموزش دیدهاند. در اینجا نیز کمیسیون تأکید کرده که باید شرایط هر مورد به صورت جداگانه مورد بررسی قرار گیرد.
به نظر میرسد که اگر توسعهدهندگان اقدامات لازم را برای ناشناسسازی دادهها قبل از پیادهسازی مدل انجام دهند، ممکن است بتوانند از تخلفات قانونی دور شوند. اما این موضوع نیاز به دقت و پایش دارد تا از سوءاستفادههای سیستماتیک جلوگیری شود.
منبع: techcrunch.com