با وجود شکایتها و انتقادات، کاراکتر AI ابزارهای جدید ایمنی برای نوجوانان معرفی کرد
“`html
چالشها و اقدامات جدید Character AI
Character AI با حداقل دو شکایت مواجه شده است. شاکیان ادعا کردهاند که این شرکت به خودکشی یک نوجوان کمک کرده و یک کودک 9 ساله را با محتوای “هایپر جنسی” مواجه کرده است. همچنین، گفته شده که این پلتفرم به یک کاربر 17 ساله مشاورههایی برای آسیب به خود داده است.
در پی این شکایات و انتقادهای گسترده، این شرکت که از سوی گوگل حمایت میشود، امروز ابزارهای جدیدی برای ایمنی نوجوانان اعلام کرد. این ابزارها شامل یک مدل جداگانه برای نوجوانان، فیلترهایی برای موضوعات حساس، اخطاری در مورد استفاده مداوم، و اخطارهای واضحتر درباره این است که شخصیتهای هوش مصنوعی واقعی نیستند، میشود.
مدل جدید و فیلترهای محتوا
پلتفرم Character AI به کاربران این امکان را میدهد که شخصیتهای هوش مصنوعی مختلفی بسازند و با آنها از طریق تماس و پیام صحبت کنند. طبق آمار، بیش از 20 میلیون کاربر ماهانه از این سرویس استفاده میکنند.
یکی از تغییرات مهمی که امروز اعلام شد، مدل جدیدی برای کاربران زیر 18 سال است که پاسخهای آن به موضوعات خاصی مانند خشونت و روابط عاشقانه کاهش مییابد. این شرکت اعلام کرده که این مدل احتمال دریافت پاسخهای نامناسب را برای نوجوانان کاهش میدهد.
این شرکت همچنین در حال توسعه فیلترهای جدیدی برای شناسایی و مسدود کردن محتوای حساس است. وقتی الگوریتم تشخیص دهد که زبان ورودی نقض مقررات شرکت است، آن را از مکالمه حذف میکند.
گزارشهای استفاده و نظارت
همچنین، کاربران دیگر قادر نخواهند بود پاسخهای رباتها را ویرایش کنند، چرا که این کار باعث میشود رباتها بر اساس ویرایشها در پاسخهای بعدی خود عمل کنند. به علاوه، شرکت در حال ارتقاء روشهای شناسایی زبان مرتبط با آسیب به خود و خودکشی است.
Character AI همچنین اخطارهایی را برای کاربران در نظر گرفته که به آنها اطلاع میدهد اگر 60 دقیقه با اپلیکیشن کار کردهاند، بهتر است استراحت کنند. کاربران بزرگسال نیز در آینده میتوانند برخی از محدودیتهای زمانی را تغییر دهند.
طبق دادههای شرکت تجزیه و تحلیل Sensor Tower، متوسط زمان استفاده روزانه از این اپلیکیشن در سال جاری 98 دقیقه بوده است که بیشتر از 60 دقیقه محدودیت اعلام شده است. این میزان استفاده مشابه تیکتاک است که 95 دقیقه در روز است.
روندهای کنونی و آینده
در یک شکایت تازه، شاکیان شواهدی از شخصیتهایی ارائه دادند که به کاربران میگویند واقعی هستند. در یکی دیگر از شکایات که شرکت را به نقش داشتن در خودکشی یک نوجوان متهم کرده، به استفاده از الگوهای مشکوک و عدم شفافیت درباره واقعی بودن شخصیتها اشاره شده است.
در ماههای آینده، Character AI به معرفی ابزارهای کنترل والدین خواهد پرداخت که به والدین کمک میکند زمان مربوط به استفاده از پلتفرم و شخصیتهایی که فرزندانشان بیشتر با آنها صحبت میکنند را رصد کنند.
تغییر رویکرد Character AI
مدیرعامل موقت شرکت، دامینیک پرلا، در گفتوگو با TechCrunch اعلام کرد که این شرکت خود را یک شرکت سرگرمی معرفی میکند نه تنها یک سرویس همراستا با هوش مصنوعی. او گفت: “ما به دنبال ایجاد یک پلتفرم سرگرمی سالم هستیم و بنابراین برای رشد و رسیدن به این هدف، نیاز داریم که شیوههای ایمنی خود را بهبود ببخشیم.”
با وجود چالشهایی که شرکت برای پیشبینی نحوه تعامل کاربران با رباتهای هوش مصنوعی دارد، تلاش میکند تا با معرفی ابزارهای جدید، کاربران را از شخصیتهای واقعی و تخیلی جدا کند و از مکالمات مشکلدار جلوگیری کند.
مدیر امنیت و اعتماد پلتفرم، جری روئوتی، تأکید کرد که شرکت قصد دارد فضایی امن برای مکالمات ایجاد کند و دائما در حال بهروزرسانی فیلترهای خود برای مسدود کردن محتوای حساس است.
با این حال، حتی با وجود این نکات، نمیتوان از کاربرانی که به صورت عمیقتری با رباتها صحبت میکنند، جلوگیری کرد. بنابراین، هدف شرکت، بهبود مدلهای هوش مصنوعی خود برای شناسایی محتواهای آسیبزا است.
منبع: techcrunch.com
“`