روز چهارشنبه گفت، خالق OpenAI ChatGPT قصد دارد منابع قابل توجهی را سرمایهگذاری کند و یک تیم تحقیقاتی جدید ایجاد کند که به دنبال اطمینان از ایمن ماندن هوش مصنوعی آن برای انسانها باشد – در نهایت از هوش مصنوعی برای نظارت بر خود استفاده میکند.
ایلیا سوتسکور، یکی از بنیانگذاران OpenAI و جان لیک، رئیس همسویی، در یک پست وبلاگی نوشتند: «قدرت عظیم ابر هوش می تواند… منجر به ناتوانی بشریت یا حتی انقراض انسان شود. در حال حاضر، ما راه حلی برای هدایت یا کنترل یک هوش مصنوعی بالقوه فوقهوشمند و جلوگیری از سرکشی آن نداریم.»
او در مصاحبه ای گفت: “شما باید قبل از ایجاد هوش در سطح انسانی، همسویی را حل کنید، در غیر این صورت به طور پیش فرض آن را کنترل نخواهید کرد.” من شخصاً فکر نمیکنم که این یک برنامه خوب یا مطمئن باشد.»
کانر لیهی، مدافع ایمنی هوش مصنوعی، گفت که این طرح اساساً ناقص بود زیرا هوش مصنوعی اولیه در سطح انسانی میتوانست پیش از آنکه مجبور به حل مشکلات ایمنی هوش مصنوعی شود، خراب شود و ویران کند.
هدف این تیم ایجاد یک محقق همترازی هوش مصنوعی «در سطح انسانی» و سپس مقیاسبندی آن از طریق مقادیر زیادی قدرت محاسباتی است. OpenAI میگوید این بدان معناست که آنها سیستمهای هوش مصنوعی را با استفاده از بازخورد انسانی آموزش میدهند، سیستمهای هوش مصنوعی را برای کمک به ارزیابی انسان آموزش میدهند و در نهایت سیستمهای هوش مصنوعی را برای انجام تحقیقات همترازی آموزش میدهند.
آنها نوشتند که OpenAI، با حمایت مایکروسافت، 20 درصد از توان محاسباتی خود را در چهار سال آینده به حل این مشکل اختصاص می دهد. علاوه بر این، این شرکت در حال تشکیل تیم جدیدی است که حول این تلاش سازماندهی می کند، به نام تیم Superalignment.
نویسندگان پست وبلاگ پیش بینی کردند که هوش مصنوعی فوق هوشمند – سیستم هایی باهوش تر از انسان ها – می تواند در این دهه از راه برسد. به گفته نویسندگان، انسانها برای کنترل هوش مصنوعی فوقهوشمند به تکنیکهای بهتری نسبت به آنچه که در حال حاضر موجود است نیاز خواهند داشت، از این رو نیاز به پیشرفتهایی در به اصطلاح «تحقیقات همسویی» است که بر اطمینان از مفید ماندن هوش مصنوعی برای انسان تمرکز دارد.
خطرات بالقوه هوش مصنوعی هم برای محققان هوش مصنوعی و هم برای عموم مردم مورد توجه بوده است. در ماه آوریل، گروهی از رهبران و کارشناسان صنعت هوش مصنوعی نامه ای سرگشاده را امضا کردند که در آن خواستار توقف شش ماهه در توسعه سیستم های قدرتمندتر از GPT-4 OpenAI شدند و خطرات احتمالی برای جامعه را ذکر کردند. نظرسنجی ماه مه رویترز/ایپسوس نشان داد که بیش از دو سوم آمریکایی ها در مورد اثرات منفی احتمالی هوش مصنوعی نگران هستند و 61 درصد معتقدند که می تواند تمدن را تهدید کند.
© تامسون رویترز 2023