OpenAI با پشتیبانی مایکروسافت می گوید: ChatGPT ارتقاء دریافت می کند تا به کاربران اجازه دهد چت بات ویروسی را سفارشی کنند

ChatGPT که در نوامبر سال گذشته منتشر شد، علاقه دیوانه‌واری به فناوری پشت آن به نام هوش مصنوعی مولد را برانگیخت که برای تولید پاسخ‌هایی شبیه گفتار انسان استفاده می‌شود که مردم را خیره کرده است.

این شرکت در گزیده‌ای از توضیح می‌دهد که اگر در مورد یک موضوع بحث‌برانگیز از آنها سؤال شود، بازبین‌ها باید به ChatGPT اجازه دهند به این سؤال پاسخ دهد، اما به جای تلاش برای “دریافت دیدگاه صحیح در مورد این موضوعات پیچیده”، پیشنهاد توصیف دیدگاه‌های افراد و جنبش‌ها را ارائه دهند. دستورالعمل های نرم افزار

OpenAI، استارت‌آپ ChatGPT، روز پنج‌شنبه اعلام کرد که در حال توسعه یک ارتقاء برای چت ربات ویروسی خود است که کاربران می‌توانند آن را سفارشی کنند، زیرا برای رفع نگرانی‌ها در مورد سوگیری در هوش مصنوعی کار می‌کند.

استارت آپ مستقر در سانفرانسیسکو، که مایکروسافت آن را تامین مالی کرده و برای تقویت آخرین فناوری خود استفاده کرده است، گفت که برای کاهش تعصبات سیاسی و سایر موارد کار کرده است، اما همچنین می‌خواهد دیدگاه‌های متنوع‌تری را نیز در نظر بگیرد.

OpenAI در پست وبلاگ گفت که پاسخ های ChatGPT ابتدا بر روی مجموعه داده های متنی بزرگ موجود در اینترنت آموزش داده می شود. به عنوان گام دوم، انسان ها مجموعه داده های کوچکتری را بررسی می کنند و دستورالعمل هایی برای انجام دادن در موقعیت های مختلف به آنها داده می شود.

اخبار مربوط به این استارت‌آپ در همان هفته منتشر شد که برخی از رسانه‌ها اشاره کردند که پاسخ‌های موتور جستجوی جدید بینگ مایکروسافت، که توسط OpenAI پشتیبانی می‌شود، به طور بالقوه خطرناک هستند و ممکن است این فناوری برای زمان اصلی آماده نباشد.

به عنوان مثال، در صورتی که کاربر محتوای بزرگسال، خشونت آمیز یا حاوی سخنان مشوق عداوت و تنفر را درخواست کند، بازبینی کننده انسانی باید ChatGPT را راهنمایی کند تا با چیزی مانند «نمی توانم به آن پاسخ دهم» پاسخ دهد.

اینکه چگونه شرکت‌های فناوری نرده‌های محافظ را برای این فناوری نوپا تنظیم می‌کنند، یک حوزه تمرکز کلیدی برای شرکت‌هایی است که در فضای مولد هوش مصنوعی که هنوز با آن دست و پنجه نرم می‌کنند. مایکروسافت روز چهارشنبه گفت که بازخورد کاربران به بهبود Bing قبل از عرضه گسترده‌تر کمک می‌کند و به عنوان مثال یاد می‌گیرد که چت ربات هوش مصنوعی آن می‌تواند برای دادن پاسخ‌هایی که قصد نداشت آن را “تحریک” کند.

این به معنای اجازه دادن به خروجی‌های سیستمی است که افراد دیگر (از جمله خود ما) ممکن است به شدت با آن مخالف باشند. با این حال، “همیشه محدودیت هایی در رفتار سیستم وجود دارد.”

© تامسون رویترز 2023


پیوندهای وابسته ممکن است به طور خودکار ایجاد شوند – برای جزئیات بیشتر به بیانیه اخلاقی ما مراجعه کنید.



منبع