سیلیکون‌ولی حرکت ناامیدی هوش مصنوعی را سرکوب کرد

خطرات هوش مصنوعی و واکنش‌های 2024

چند سالی هست که تکنولوژی‌دان‌ها نسبت به خطرات احتمالی سیستم‌های هوش مصنوعی پیشرفته هشدار می‌دهند. اما در سال 2024، این هشدارها با یک تصویر مثبت و عملی از هوش مصنوعی تولیدکننده که توسط صنعت تکنولوژی تبلیغ می‌شد، پوشش داده شد.

نگرانی‌ها درباره هوش مصنوعی

هشداردهندگان نسبت به خطرات هوش مصنوعی اغلب به نام “بدبین‌های هوش مصنوعی” شناخته می‌شوند. آن‌ها نگرانند که سیستم‌های هوش مصنوعی ممکن است تصمیماتی بگیرند که به آسیب رساندن به انسان‌ها منجر شود یا به وسیله قدرتمندان برای ستم به مردم مورد استفاده قرار گیرد.

تغییرات در گفتگوهای هوش مصنوعی

در سال 2023، به نظر می‌رسید که شاهد شروع یک دوره رونق برای مقررات‌گذاری تکنولوژی هستیم. نگرانی‌ها درباره خطرات هوش مصنوعی، که شامل مشکلاتی مانند عدم کنترل محتوا می‌شود، از گفت‌وگوهای خصوصی به رسانه‌های بزرگ راه پیدا کرد.

توقف توسعه هوش مصنوعی

الان ماسک و بیش از 1000 تکنولوژی‌دان و دانشمند درخواست کردند که توسعه هوش مصنوعی متوقف شود تا جهان برای خطرات عمیق این تکنولوژی آماده باشد. همچنین، چهره‌های علمی برتر از جمله محققان OpenAI و گوگل در نامه‌ای عمومی به خطرات ناشی از هوش مصنوعی تأکید کردند.

واکنش‌ها از طرف صنعت

در این میان، مارک آندرسن، یکی از بنیان‌گذاران a16z، مقاله‌ای با عنوان “چرا هوش مصنوعی دنیا را نجات می‌دهد” منتشر کرد و نگرانی‌های بدبین‌های هوش مصنوعی را رد کرد. او در این مقاله به ترویج دیدگاه مثبت‌تری از توسعه هوش مصنوعی پرداخته است.

نقطه‌نظر آندرسن

آندرسن معتقد است که شرکت‌های بزرگ و استارتاپ‌ها باید بتوانند هوش مصنوعی را با سرعت و بدون موانع قانونی توسعه دهند، تا مطمئن شوند که هوش مصنوعی در دست چند شرکت قدرتمند یا دولت‌ها نخواهد افتاد.

مطلب مرتبط:  سخنران کلیدی NeurIPS بابت اشاره به دانشجوی چینی عذرخواهی کرد

با وجود اعتراضات به خطرات هوش مصنوعی، سرمایه‌گذاری در این زمینه در سال 2024 نسبت به قبل بیشتر شد و بحث‌های ایمنی کاهش یافت. علاوه بر این، تصمیمات جدیدی درباره مقررات گذاری تغییر کرد و بیداری عمومی درباره خطرات بلندمدت هوش مصنوعی افزایش یافته است.

مبارزه با خطرات هوش مصنوعی در سال 2025

نویسنده لایحه SB 1047، سناتور اسکات وینر، اشاره کرد که ممکن است در سال 2025 با لایحه‌ای اصلاح شده به مبارزه با خطرات بلندمدت هوش مصنوعی بازگردند. او از پیشرفت‌های مثبت در آگاهی عمومی درباره خطرات هوش مصنوعی ابراز امیدواری کرد.

در مقابل، برخی نیز مانند مارتین کاسادو از a16z بر این باورند که نیاز به سیاست‌های منطقی‌تری برای هوش مصنوعی داریم و ادعا کردند که این تکنولوژی “بسیار امن” است.

اما واقعیت این است که موارد قضایی مرتبط با مسائل ایمنی کودکان نیز وجود دارد که نشان می‌دهد جامعه باید برای خطرات جدید مرتبط با هوش مصنوعی آماده باشد. به نظر می‌رسد که در سال 2025، بدبین‌های هوش مصنوعی با چالش‌های بسیاری رو به‌رو خواهند بود.

منبع: techcrunch.com

مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *