Creator ChatGPT OpenAI در حال تشکیل تیم تحقیقاتی Superalignment جدید برای تحت کنترل درآوردن هوش مصنوعی فوق هوشمند

روز چهارشنبه گفت، خالق OpenAI ChatGPT قصد دارد منابع قابل توجهی را سرمایه‌گذاری کند و یک تیم تحقیقاتی جدید ایجاد کند که به دنبال اطمینان از ایمن ماندن هوش مصنوعی آن برای انسان‌ها باشد – در نهایت از هوش مصنوعی برای نظارت بر خود استفاده می‌کند.

ایلیا سوتسکور، یکی از بنیانگذاران OpenAI و جان لیک، رئیس همسویی، در یک پست وبلاگی نوشتند: «قدرت عظیم ابر هوش می تواند… منجر به ناتوانی بشریت یا حتی انقراض انسان شود. در حال حاضر، ما راه حلی برای هدایت یا کنترل یک هوش مصنوعی بالقوه فوق‌هوشمند و جلوگیری از سرکشی آن نداریم.»

او در مصاحبه ای گفت: “شما باید قبل از ایجاد هوش در سطح انسانی، همسویی را حل کنید، در غیر این صورت به طور پیش فرض آن را کنترل نخواهید کرد.” من شخصاً فکر نمی‌کنم که این یک برنامه خوب یا مطمئن باشد.»

کانر لیهی، مدافع ایمنی هوش مصنوعی، گفت که این طرح اساساً ناقص بود زیرا هوش مصنوعی اولیه در سطح انسانی می‌توانست پیش از آنکه مجبور به حل مشکلات ایمنی هوش مصنوعی شود، خراب شود و ویران کند.

هدف این تیم ایجاد یک محقق هم‌ترازی هوش مصنوعی «در سطح انسانی» و سپس مقیاس‌بندی آن از طریق مقادیر زیادی قدرت محاسباتی است. OpenAI می‌گوید این بدان معناست که آنها سیستم‌های هوش مصنوعی را با استفاده از بازخورد انسانی آموزش می‌دهند، سیستم‌های هوش مصنوعی را برای کمک به ارزیابی انسان آموزش می‌دهند و در نهایت سیستم‌های هوش مصنوعی را برای انجام تحقیقات همترازی آموزش می‌دهند.

آنها نوشتند که OpenAI، با حمایت مایکروسافت، 20 درصد از توان محاسباتی خود را در چهار سال آینده به حل این مشکل اختصاص می دهد. علاوه بر این، این شرکت در حال تشکیل تیم جدیدی است که حول این تلاش سازماندهی می کند، به نام تیم Superalignment.

نویسندگان پست وبلاگ پیش بینی کردند که هوش مصنوعی فوق هوشمند – سیستم هایی باهوش تر از انسان ها – می تواند در این دهه از راه برسد. به گفته نویسندگان، انسان‌ها برای کنترل هوش مصنوعی فوق‌هوشمند به تکنیک‌های بهتری نسبت به آنچه که در حال حاضر موجود است نیاز خواهند داشت، از این رو نیاز به پیشرفت‌هایی در به اصطلاح «تحقیقات همسویی» است که بر اطمینان از مفید ماندن هوش مصنوعی برای انسان تمرکز دارد.

خطرات بالقوه هوش مصنوعی هم برای محققان هوش مصنوعی و هم برای عموم مردم مورد توجه بوده است. در ماه آوریل، گروهی از رهبران و کارشناسان صنعت هوش مصنوعی نامه ای سرگشاده را امضا کردند که در آن خواستار توقف شش ماهه در توسعه سیستم های قدرتمندتر از GPT-4 OpenAI شدند و خطرات احتمالی برای جامعه را ذکر کردند. نظرسنجی ماه مه رویترز/ایپسوس نشان داد که بیش از دو سوم آمریکایی ها در مورد اثرات منفی احتمالی هوش مصنوعی نگران هستند و 61 درصد معتقدند که می تواند تمدن را تهدید کند.

© تامسون رویترز 2023


از Nothing Phone 2 گرفته تا Motorola Razr 40 Ultra، انتظار می رود چندین گوشی هوشمند جدید در ماه جولای معرفی شوند. ما درباره همه هیجان‌انگیزترین گوشی‌های هوشمند که در این ماه عرضه می‌شوند و بیشتر در آخرین قسمت Orbital، پادکست Gadgets 360 صحبت می‌کنیم. Orbital در Spotify، Gaana، JioSaavn، Google Podcasts، Apple Podcasts، Amazon Music و هر جایی که پادکست های خود را دریافت می کنید در دسترس است.
پیوندهای وابسته ممکن است به طور خودکار ایجاد شوند – برای جزئیات بیشتر به بیانیه اخلاقی ما مراجعه کنید.



منبع