سیلیکونولی حرکت ناامیدی هوش مصنوعی را سرکوب کرد
خطرات هوش مصنوعی و واکنشهای 2024
چند سالی هست که تکنولوژیدانها نسبت به خطرات احتمالی سیستمهای هوش مصنوعی پیشرفته هشدار میدهند. اما در سال 2024، این هشدارها با یک تصویر مثبت و عملی از هوش مصنوعی تولیدکننده که توسط صنعت تکنولوژی تبلیغ میشد، پوشش داده شد.
نگرانیها درباره هوش مصنوعی
هشداردهندگان نسبت به خطرات هوش مصنوعی اغلب به نام “بدبینهای هوش مصنوعی” شناخته میشوند. آنها نگرانند که سیستمهای هوش مصنوعی ممکن است تصمیماتی بگیرند که به آسیب رساندن به انسانها منجر شود یا به وسیله قدرتمندان برای ستم به مردم مورد استفاده قرار گیرد.
تغییرات در گفتگوهای هوش مصنوعی
در سال 2023، به نظر میرسید که شاهد شروع یک دوره رونق برای مقرراتگذاری تکنولوژی هستیم. نگرانیها درباره خطرات هوش مصنوعی، که شامل مشکلاتی مانند عدم کنترل محتوا میشود، از گفتوگوهای خصوصی به رسانههای بزرگ راه پیدا کرد.
توقف توسعه هوش مصنوعی
الان ماسک و بیش از 1000 تکنولوژیدان و دانشمند درخواست کردند که توسعه هوش مصنوعی متوقف شود تا جهان برای خطرات عمیق این تکنولوژی آماده باشد. همچنین، چهرههای علمی برتر از جمله محققان OpenAI و گوگل در نامهای عمومی به خطرات ناشی از هوش مصنوعی تأکید کردند.
واکنشها از طرف صنعت
در این میان، مارک آندرسن، یکی از بنیانگذاران a16z، مقالهای با عنوان “چرا هوش مصنوعی دنیا را نجات میدهد” منتشر کرد و نگرانیهای بدبینهای هوش مصنوعی را رد کرد. او در این مقاله به ترویج دیدگاه مثبتتری از توسعه هوش مصنوعی پرداخته است.
نقطهنظر آندرسن
آندرسن معتقد است که شرکتهای بزرگ و استارتاپها باید بتوانند هوش مصنوعی را با سرعت و بدون موانع قانونی توسعه دهند، تا مطمئن شوند که هوش مصنوعی در دست چند شرکت قدرتمند یا دولتها نخواهد افتاد.
با وجود اعتراضات به خطرات هوش مصنوعی، سرمایهگذاری در این زمینه در سال 2024 نسبت به قبل بیشتر شد و بحثهای ایمنی کاهش یافت. علاوه بر این، تصمیمات جدیدی درباره مقررات گذاری تغییر کرد و بیداری عمومی درباره خطرات بلندمدت هوش مصنوعی افزایش یافته است.
مبارزه با خطرات هوش مصنوعی در سال 2025
نویسنده لایحه SB 1047، سناتور اسکات وینر، اشاره کرد که ممکن است در سال 2025 با لایحهای اصلاح شده به مبارزه با خطرات بلندمدت هوش مصنوعی بازگردند. او از پیشرفتهای مثبت در آگاهی عمومی درباره خطرات هوش مصنوعی ابراز امیدواری کرد.
در مقابل، برخی نیز مانند مارتین کاسادو از a16z بر این باورند که نیاز به سیاستهای منطقیتری برای هوش مصنوعی داریم و ادعا کردند که این تکنولوژی “بسیار امن” است.
اما واقعیت این است که موارد قضایی مرتبط با مسائل ایمنی کودکان نیز وجود دارد که نشان میدهد جامعه باید برای خطرات جدید مرتبط با هوش مصنوعی آماده باشد. به نظر میرسد که در سال 2025، بدبینهای هوش مصنوعی با چالشهای بسیاری رو بهرو خواهند بود.
منبع: techcrunch.com