Anthropic با پشتیبانی از Alphabet رقیب OpenAI به نام Claude را منتشر کرد

اما آنتروپیک که توسط برادر و برادران داریو و دانیلا آمودی که هر دو از مدیران سابق OpenAI هستند، تأسیس شد، تمرکز خود را بر تولید سیستم‌های هوش مصنوعی که احتمال کمتری برای تولید محتوای توهین‌آمیز یا خطرناک دارند، مانند دستورالعمل‌هایی برای هک کردن یا ساختن رایانه قرار داده است. سلاح ها نسبت به سایر سیستم ها

Anthropic، یک شرکت هوش مصنوعی با پشتیبانی Alphabet، روز سه‌شنبه یک مدل زبان بزرگ را منتشر کرد که مستقیماً با پیشنهادات OpenAI تحت حمایت مایکروسافت، خالق ChatGPT رقابت می‌کند.

© تامسون رویترز 2023


پس از مواجهه با بادهای مخالف در هند در سال گذشته، شیائومی قرار است در سال 2023 رقابت را به عهده بگیرد. برنامه های این شرکت برای سبد محصولات گسترده و تعهد آن به ساخت در هند در این کشور چیست؟ ما در مورد این و موارد بیشتر در Orbital، پادکست Gadgets 360 بحث می کنیم. Orbital در Spotify، Gaana، JioSaavn، Google Podcasts، Apple Podcasts، Amazon Music و هر جایی که پادکست های خود را دریافت می کنید در دسترس است.

مدل‌های زبان بزرگ الگوریتم‌هایی هستند که برای تولید متن با تغذیه متن آموزشی نوشته شده توسط انسان آموزش داده می‌شوند. در سال‌های اخیر، محققان با افزایش چشمگیر میزان داده‌هایی که به آن‌ها داده می‌شود و میزان توان محاسباتی مورد استفاده برای آموزش آن‌ها، نتایج بسیار بیشتری شبیه به انسان با چنین مدل‌هایی به دست آورده‌اند.

پیوندهای وابسته ممکن است به طور خودکار ایجاد شوند – برای جزئیات بیشتر به بیانیه اخلاقی ما مراجعه کنید.



منبع

ریچارد رابینسون، مدیر اجرایی Robin AI، یک استارت آپ مستقر در لندن که از هوش مصنوعی برای تجزیه و تحلیل قراردادهای قانونی استفاده می کند که آنتروپیک به کلود دسترسی زودهنگام داده است، در مصاحبه ای به رویترز گفت: “هیچ چیز ترسناکی وجود نداشت. این یکی از دلایلی است که ما آنتروپیک را دوست داشتیم.” .

رابینسون گفت: «در هر صورت، چالش این بود که محدودیت‌هایش را تا حدودی برای استفاده‌های قابل قبول شل کند.»

آنتروپیک رویکرد متفاوتی را در پیش گرفته است و در زمانی که مدل با حجم وسیعی از داده های متنی “آموزش داده می شود” مجموعه ای از اصول را به کلود ارائه می دهد. کلود به جای تلاش برای اجتناب از موضوعات بالقوه خطرناک، طراحی شده است تا اعتراضات خود را بر اساس اصول خود توضیح دهد.

این نگرانی‌های مربوط به ایمنی هوش مصنوعی ماه گذشته پس از اینکه مایکروسافت گفت درخواست‌ها را به موتور جست‌وجوی جدید بینگ که مبتنی بر چت است محدود می‌کند، پس از اینکه یک ستون‌نویس نیویورک تایمز متوجه شد که ربات چت در طی یک مکالمه طولانی نشان می‌دهد و پاسخ‌های ناراحت‌کننده‌ای را نشان می‌دهد، برجسته شد.

رابینسون گفت که شرکت او سعی کرده است از فناوری OpenAI در قراردادها استفاده کند اما دریافت که کلود هم در درک زبان حقوقی متراکم بهتر است و هم احتمال کمتری دارد که پاسخ‌های عجیب و غریب ایجاد کند.

برای جلوگیری از تولید محتوای مضر، سازندگان چت‌بات‌ها اغلب آنها را طوری برنامه‌ریزی می‌کنند که از برخی موضوعات خاص به‌کلی اجتناب کنند. اما این باعث می شود ربات های چت در برابر به اصطلاح “مهندسی سریع” آسیب پذیر شوند، جایی که کاربران راه خود را برای دور زدن محدودیت ها صحبت می کنند.

کلود، همانطور که مدل آنتروپیک شناخته می‌شود، برای انجام وظایف مشابه ChatGPT با پاسخ دادن به درخواست‌ها با خروجی متنی انسان‌مانند ساخته شده است، خواه به صورت ویرایش قراردادهای قانونی یا نوشتن کد رایانه باشد.

مشکلات ایمنی برای شرکت‌های فناوری یک مشکل جدی بوده است، زیرا چت‌بات‌ها معنای کلماتی که تولید می‌کنند را درک نمی‌کنند.