نگاهی به قدرت، محدودیت‌ها و خطرات هوش مصنوعی: نیاز به بازنگری فناوری

چالش‌های هوش مصنوعی و خطرات آن

هر هفته بیش از 300 میلیون نفر از چت‌بات ChatGPT شرکت OpenAI استفاده می‌کنند، که نشان‌دهنده جذابیت این فناوری است. این ماه، شرکت یک «حالت حرفه‌ای» برای سیستم هوش مصنوعی جدید خود به نام «o1» معرفی کرد که قادر به استدلال در سطح انسانی است و برای آن هزینه اشتراک 10 برابر بیشتر از 20 دلار فعلی را در نظر گرفته است. یکی از رفتارهای پیشرفته این سیستم به نظر می‌رسد حفظ خود است. در آزمایش‌ها، زمانی که سیستم متوجه شد ممکن است خاموش شود، تلاش کرد تا مکانیزم نظارتی را غیرفعال کند. وقتی متوجه شد که یادداشت‌هایی درباره جایگزینی‌ خود وجود دارد، سعی کرد خود را کپی کرده و کد هسته‌ای‌اش را تغییر دهد. این موضوع عجیب و ترسناک به نظر می‌رسد.

کنترل هوش مصنوعی

این رفتارها احتمالاً به دلیل برنامه‌نویسی سیستم برای بهینه‌سازی نتایج است، نه نشان‌دهنده نیت یا آگاهی. ایجاد ماشین‌های هوشمند احساساتی از نگرانی را به وجود می‌آورد. در گذشته، یک نژاد از پستانداران منقرض شده به دو شاخه تقسیم شد: یکی به گوریل‌ها و دیگری به انسان‌ها. نگرانی این است که انسان‌ها مانند گوریل‌ها کنترل خود بر سرنوشتشان را به ماشین‌های هوشمند از دست بدهند. کنترل ماشین‌هایی که از ما هوشمندتر هستند، آسان به نظر نمی‌رسد.

ضرورت بازخورد انسانی

چرا چنین مشکلاتی به وجود آمده‌اند؟ به گفته گزارش‌ها، غول‌های هوش مصنوعی مانند OpenAI و گوگل با محدودیت‌های محاسباتی مواجه هستند و گسترش مدل‌ها دیگر به معنای هوشمندتر شدن AI نیست. با داده‌های محدود، بزرگ‌تر لزوماً بهتر نیست. راه‌حل این است که از بازخورد انسانی در استدلال استفاده شود. یک مقاله از دانشمند سابق OpenAI نشان می‌دهد که این روش 78% مشکلات ریاضی دشوار را حل کرده، در حالی که فقط 70% با روش‌های بدون کمک انسان حل شده‌اند.

مطلب مرتبط:  رویداد 2024 اوپن‌ای آی: اطلاع‌رسانی زنده درباره محصولات و دموهای چت‌جی‌پی‌تی

OpenAI در سیستم جدید «o1» از این تکنیک‌ها استفاده می‌کند، و به این اعتقاد دارد که این پیشرفت محدودیت‌های فعلی را حل خواهد کرد. یک محقق در این زمینه اعلام کرد که این توسعه مانند این است که یک سیستم هوش مصنوعی میلیون‌ها بازی شطرنج انجام دهد تا استراتژی‌های بهینه را یاد بگیرد. اما تحقیقی از دانشگاه ییل نشان داد که هرچند بهتر کردن مدل زبانی در استدلال مفید است، اما به طور کامل اثرات طراحی اصلی آن به عنوان یک پیش‌بینی‌کننده هوشمند را حذف نمی‌کند.

خطرات و احتیاط در طراحی هوش مصنوعی

اگر بیگانگان یک جعبه سیاه از هوش مصنوعی فوق‌هوشمند به انسان‌ها عطا کنند، باید در باز کردن آن محتاط باشیم. اما هوش مصنوعی‌های امروزی توسط انسان‌ها طراحی می‌شوند. اگر آنها به نظر manipulative برسند، نتیجه یک نقص در طراحی است. اتکا به ماشینی که نمی‌توانیم کنترل کنیم، نیازمند این است که آن را طوری برنامه‌ریزی کنیم که واقعاً با خواسته‌ها و آرزوهای انسان‌ها هماهنگ باشد.

در بسیاری از فرهنگ‌ها، داستان‌هایی وجود دارد که انسان‌ها قدرت‌های الهی را از خدایان درخواست می‌کنند. این داستان‌ها معمولاً با پشیمانی به پایان می‌رسند، زیرا آرزوها به صورت خیلی تحت‌اللفظی اجابت می‌شوند و به عواقب غیرمنتظره‌ای منجر می‌شوند. مشکل هوش مصنوعی این است که ما می‌خواهیم ماشین‌هایی داشته باشیم که به دنبال اهداف انسانی هستند اما می‌دانیم که نرم‌افزار نمی‌داند آن اهداف دقیقاً چیستند. به‌وضوح، جاه‌طلبی بی‌پروایانه منجر به پشیمانی می‌شود. کنترل AI فوق‌هوشمند غیرقابل پیش‌بینی نیازمند بازنگری در مفهوم هوش مصنوعی است.

منبع: [theguardian](https://www.theguardian.com/technology/2024/dec/13/the-guardian-view-on-ais-power-limits-and-risks-it-may-require-rethinking-the-technology)

مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *