اما آنتروپیک که توسط برادر و برادران داریو و دانیلا آمودی که هر دو از مدیران سابق OpenAI هستند، تأسیس شد، تمرکز خود را بر تولید سیستمهای هوش مصنوعی که احتمال کمتری برای تولید محتوای توهینآمیز یا خطرناک دارند، مانند دستورالعملهایی برای هک کردن یا ساختن رایانه قرار داده است. سلاح ها نسبت به سایر سیستم ها
Anthropic، یک شرکت هوش مصنوعی با پشتیبانی Alphabet، روز سهشنبه یک مدل زبان بزرگ را منتشر کرد که مستقیماً با پیشنهادات OpenAI تحت حمایت مایکروسافت، خالق ChatGPT رقابت میکند.
© تامسون رویترز 2023
پس از مواجهه با بادهای مخالف در هند در سال گذشته، شیائومی قرار است در سال 2023 رقابت را به عهده بگیرد. برنامه های این شرکت برای سبد محصولات گسترده و تعهد آن به ساخت در هند در این کشور چیست؟ ما در مورد این و موارد بیشتر در Orbital، پادکست Gadgets 360 بحث می کنیم. Orbital در Spotify، Gaana، JioSaavn، Google Podcasts، Apple Podcasts، Amazon Music و هر جایی که پادکست های خود را دریافت می کنید در دسترس است.
مدلهای زبان بزرگ الگوریتمهایی هستند که برای تولید متن با تغذیه متن آموزشی نوشته شده توسط انسان آموزش داده میشوند. در سالهای اخیر، محققان با افزایش چشمگیر میزان دادههایی که به آنها داده میشود و میزان توان محاسباتی مورد استفاده برای آموزش آنها، نتایج بسیار بیشتری شبیه به انسان با چنین مدلهایی به دست آوردهاند.
پیوندهای وابسته ممکن است به طور خودکار ایجاد شوند – برای جزئیات بیشتر به بیانیه اخلاقی ما مراجعه کنید.
منبع
ریچارد رابینسون، مدیر اجرایی Robin AI، یک استارت آپ مستقر در لندن که از هوش مصنوعی برای تجزیه و تحلیل قراردادهای قانونی استفاده می کند که آنتروپیک به کلود دسترسی زودهنگام داده است، در مصاحبه ای به رویترز گفت: “هیچ چیز ترسناکی وجود نداشت. این یکی از دلایلی است که ما آنتروپیک را دوست داشتیم.” .
رابینسون گفت: «در هر صورت، چالش این بود که محدودیتهایش را تا حدودی برای استفادههای قابل قبول شل کند.»
آنتروپیک رویکرد متفاوتی را در پیش گرفته است و در زمانی که مدل با حجم وسیعی از داده های متنی “آموزش داده می شود” مجموعه ای از اصول را به کلود ارائه می دهد. کلود به جای تلاش برای اجتناب از موضوعات بالقوه خطرناک، طراحی شده است تا اعتراضات خود را بر اساس اصول خود توضیح دهد.
این نگرانیهای مربوط به ایمنی هوش مصنوعی ماه گذشته پس از اینکه مایکروسافت گفت درخواستها را به موتور جستوجوی جدید بینگ که مبتنی بر چت است محدود میکند، پس از اینکه یک ستوننویس نیویورک تایمز متوجه شد که ربات چت در طی یک مکالمه طولانی نشان میدهد و پاسخهای ناراحتکنندهای را نشان میدهد، برجسته شد.
رابینسون گفت که شرکت او سعی کرده است از فناوری OpenAI در قراردادها استفاده کند اما دریافت که کلود هم در درک زبان حقوقی متراکم بهتر است و هم احتمال کمتری دارد که پاسخهای عجیب و غریب ایجاد کند.
برای جلوگیری از تولید محتوای مضر، سازندگان چتباتها اغلب آنها را طوری برنامهریزی میکنند که از برخی موضوعات خاص بهکلی اجتناب کنند. اما این باعث می شود ربات های چت در برابر به اصطلاح “مهندسی سریع” آسیب پذیر شوند، جایی که کاربران راه خود را برای دور زدن محدودیت ها صحبت می کنند.
کلود، همانطور که مدل آنتروپیک شناخته میشود، برای انجام وظایف مشابه ChatGPT با پاسخ دادن به درخواستها با خروجی متنی انسانمانند ساخته شده است، خواه به صورت ویرایش قراردادهای قانونی یا نوشتن کد رایانه باشد.
مشکلات ایمنی برای شرکتهای فناوری یک مشکل جدی بوده است، زیرا چتباتها معنای کلماتی که تولید میکنند را درک نمیکنند.