از زمانی که OpenAI به ChatGPT، یک ربات چت که جملاتی شبیه نثر واقعی نوشته شده توسط انسان را تولید میکند، منتشر شد، رسانههای اجتماعی با استفادههای سرگرمکننده و کممخاطب از این فناوری در شبکههای اجتماعی پر از غوغا شدند. از ربات خواسته شده است دستور العمل های کوکتل بسازد، اشعار بسازد و یک فیلمنامه جزیره گیلیگان بنویسد که در آن غارگان با کووید سروکار دارند. ChatGPT از برخی از دام های چت ربات های گذشته – مانند زبان نژادپرستانه یا نفرت پرهیز می کند – و هیجان در مورد تکرار این فناوری قابل لمس است. مهارت ChatGPT در ارائه پاسخهای روان و معتبر و پاسخ دادن به سؤالات مرتبط و اضافی در یک رشته منسجم، گواهی بر پیشرفت هوش مصنوعی است. اما این موضوع همچنین سوالات زیادی را در مورد اینکه چگونه خوانندگان می توانند تفاوت بین محتوای ربات و زبان نوشته شده توسط انسان را تشخیص دهند، ایجاد می کند. این به این دلیل است که متن ChatGPT میتواند به سطح خاصی از آنچه استیون کولبرت کمدین زمانی آن را «حقیقت» مینامید، دست یابد – چیزی که ظاهر و احساس واقعی بودن دارد، حتی اگر بر اساس واقعیت نباشد.
این ابزار هفته گذشته منتشر شد. تا روز دوشنبه، Stack Overflow، یک سایت پرسش و پاسخ برای برنامه نویسان کامپیوتر، پاسخ های ایجاد شده توسط ChatGPT را به طور موقت ممنوع کرد، با مدیرانی که می گفتند هزاران پست از این قبیل را می بینند – و این که اغلب حاوی نادرستی هستند، که آنها را به طور قابل توجهی برای سایت مضر می کند. و حتی زمانی که پاسخها دقیق هستند، مطالب تولید شده توسط رباتها در مورد تاریخ یا علم به اندازه کافی خوب است تا بحثهایی را در مورد اینکه آیا میتوان از آن برای تقلب در آزمونها، مقالهها یا برنامههای شغلی استفاده کرد، برانگیخت. واقعی یا غیرواقعی، پاسخهای ChatGPT پژواک نزدیکی از گفتار انسان است، فکسی از چیزهای واقعی، و این موضوع را تقویت میکند که OpenAI ممکن است مجبور باشد راهی برای پرچمگذاری چنین محتوایی بهعنوان تولید شده توسط نرمافزار و نه توسط انسان ایجاد کند.
آرویند نارایانان، استاد علوم کامپیوتر در دانشگاه پرینستون، ربات چت را در روز انتشار آن روی سوالات اولیه امنیت اطلاعات آزمایش کرد. نتیجه گیری او: شما نمی توانید تشخیص دهید که پاسخ اشتباه است، مگر اینکه از قبل بدانید چه چیزی درست است.
او در مصاحبه ای گفت: “من هیچ مدرکی ندیدم که ChatGPT آنقدر متقاعد کننده باشد که بتواند کارشناسان را متقاعد کند.” مطمئناً این یک مشکل است که افراد غیرمتخصص می توانند آن را بسیار معقول و معتبر و معتبر بدانند. او گفت که این موضوع همچنین برای معلمانی که کاری را تعیین می کنند که به جای تحلیل یا تفکر انتقادی، بازخوانی حقایق را می طلبد، مشکل است. چت بات قسمت اول را به خوبی انجام می دهد، اما معمولاً روی دومی سقوط می کند.
ChatGPT جدیدترین فناوری هوش مصنوعی زبان OpenAI است، یک فروشگاه تحقیقاتی هوش مصنوعی که در سال 2015 توسط حامیانی از جمله ایلان ماسک تأسیس شد. مدیر اجرایی فعلی و کارآفرین، سام آلتمن؛ و دانشمند ارشد ایلیا سوتسکور. ماسک در سال 2019 به مشارکت خود پایان داد و OpenAI اکنون به شدت توسط مایکروسافت تأمین می شود. این شرکت بر روی چندین نسخه از GPT تمرکز کرده است، یک مدل به اصطلاح زبان بزرگ، که حجم عظیمی از محتوای موجود در اینترنت را اسکن می کند و از آن برای پیش بینی نحوه تولید متن استفاده می کند. ChatGPT تکراری است که برای پاسخ دادن به سوالات “آموزش داده شده است”.
استفاده از ابزار هوش مصنوعی برای نوشتن یک خبر اساسی، نقاط قوت و همچنین معایب احتمالی آن را نشان می دهد. از این ربات که از مایکروسافت خواسته شده است قطعه ای در مورد درآمدهای سه ماهه مایکروسافت بنویسد، نسخه معتبری از چیزی را تولید می کند که می توانست مقاله ای در مورد نتایج مالی مایکروسافت در حدود سال 2021 باشد. داستان در مورد افزایش درآمد و سود، به دلیل نرم افزار محاسبات ابری قوی و ویدئو صحبت می کند. فروش بازی ChatGPT خطاهای آشکاری که آن را به عنوان نوشته شده توسط یک ربات پرچم گذاری می کرد، مرتکب نشد. اعداد اشتباه بودند، اما در محوطه توپ بودند.
این ربات اعتبار خود را با افزودن یک نقل قول جعلی از ساتیا نادلا، مدیر عامل مایکروسافت، تقویت کرد و مشکل نگران کننده ای در آن وجود دارد. این نظر که اعدام مایکروسافت در یک دوره سخت همهگیر را ستایش میکند، بسیار باورپذیر است حتی این گزارشگر مایکروسافت مجبور شد بررسی کند که آیا واقعی است یا خیر. در واقع کاملا ساخته شده بود.
همانطور که سارا برد، معاون اخلاق هوش مصنوعی مایکروسافت در مصاحبهای در اوایل سال جاری توضیح داد، مدلهای زبانی مانند GPT آموختهاند که انسانها اغلب از ادعاها با یک نقل قول پشتیبان میگیرند – بنابراین نرمافزار آن رفتار را تقلید میکند، اما از درک انسان از اخلاق و اسناد بهره نمیبرد. . نرم افزار یک نقل قول، یک سخنران یا هر دو را می سازد.
استقبال مشتاقانه از ChatGPT در تضاد بارز دیگری با نمایش برجسته اخیر یک مدل زبانی است – Meta’s Galactica، که مجموع مقالات علمی و کتاب های درسی را دریافت کرد و قرار بود از آن “یادگیری” برای بیرون ریختن حقیقت علمی استفاده کند. کاربران دریافتند که ربات کلمات کلیدی علمی را با نادرستی و سوگیری در هم آمیخته است و باعث شد متا، شرکت مادر فیس بوک، از این مشکل جلوگیری کند. نارایانان گفت: “من مطمئن نیستم که چگونه کسی فکر می کند که این ایده خوبی است.” “در علم، دقت کل بازی است.”
بر اساس یک سلب مسئولیت در این سرویس، OpenAI به وضوح بیان می کند که چت ربات آن “قادر به تولید گفتار شبیه انسان” نیست. مدلهای زبانی مانند ChatGPT برای شبیهسازی الگوهای زبانی انسان و ایجاد پاسخهایی شبیه به نحوه واکنش انسان طراحی شدهاند، اما توانایی تولید گفتار انسانمانند را ندارند.
ChatGPT همچنین برای جلوگیری از برخی از مشکلات آشکارتر و برای توضیح بهتر احتمال خطا طراحی شده است. این نرم افزار فقط در سال گذشته بر روی داده ها آموزش داده شده است. مثلا در مورد انتخابات میان دوره ای امسال سوال بپرسید و نرم افزار محدودیت های خود را پذیرفته است. میگوید: «متاسفم، اما من یک مدل زبان بزرگ هستم که توسط OpenAI آموزش دیدهام و هیچ اطلاعاتی درباره رویدادهای جاری یا نتایج انتخابات اخیر ندارم». “داده های آموزشی من فقط تا سال 2021 افزایش می یابد و من توانایی مرور اینترنت یا دسترسی به اطلاعات به روز را ندارم. آیا چیز دیگری هست که بتوانم به شما کمک کنم؟»
نمونههای ارائهشده توسط OpenAI نشان میدهد که ChatGPT از پاسخ دادن به سؤالات مربوط به قلدری یا ارائه محتوای خشونتآمیز خودداری میکند. این به سوالی که در شورش ۶ ژانویه ۲۰۲۱ در ساختمان کنگره ایالات متحده مطرح کردم پاسخ نداد و گاهی اوقات تصدیق میکند که اشتباه کرده است. OpenAI گفت که ChatGPT را به عنوان یک «پیشنمایش پژوهشی» منتشر کرده است تا بازخورد استفاده واقعی را در خود بگنجاند، که آن را راهی حیاتی برای ساختن سیستمهای ایمن میداند.
در حال حاضر، برخی چیزها را بسیار اشتباه می کند. گری مارکوس، استاد بازنشسته دانشگاه نیویورک، نمونه هایی از جمله توصیه ChatGPT در مورد دوچرخه سواری از سانفرانسیسکو به مائوئی را جمع آوری و در توییتر به اشتراک گذاشته است. رونگ-چینگ چانگ، دانشجوی دکترای دانشگاه کالیفرنیا، رباتی را به دست آورد تا در اعتراضات میدان تیانآنمن درباره آدمخواری صحبت کند. به همین دلیل است که برخی از کارشناسان هوش مصنوعی می گویند این نگران کننده است که برخی از مدیران و کاربران فناوری این فناوری را راهی برای جایگزینی جستجوی اینترنتی می دانند، به خصوص که ChatGPT کار خود را نشان نمی دهد یا منابع آن را فهرست نمی کند.
“اگر پاسخی دریافت کردید که نمی توانید آن را دنبال کنید و بگویید: “این از کجا می آید؟ چه چشم اندازی را نشان می دهد؟ منبع این اطلاعات چیست؟ امیلی بندر، استاد زبانشناسی دانشگاه واشنگتن و نویسنده مقالهای در اوایل سال جاری، میگوید، پس شما بهطور باورنکردنی در برابر چیزهایی که ساخته میشوند و یا بهطور مستقیم ساخته میشوند آسیبپذیر هستید یا بدترین سوگیریها را در مجموعه دادهها منعکس میکنید. نگرانیهایی را که توسط چترباتهای زبان هوش مصنوعی که ادعا میکنند جستجوی وب را بهبود میبخشند، نشان داد. این مقاله تا حد زیادی در پاسخ به ایده هایی بود که توسط گوگل رونمایی شد.
بندر گفت: «نوعی برنامه قاتل برای این نوع فناوری موقعیتی است که شما به هیچ چیز صادقانه نیاز ندارید. هیچ کس نمی تواند بر اساس آن تصمیم بگیرد.»
این نرمافزار همچنین میتواند برای راهاندازی کمپینهای “astroturfing” مورد استفاده قرار گیرد – که به نظر میرسد نظری از حجم زیادی از مفسران مردمی سرچشمه میگیرد، اما در واقع از یک عملیات مدیریت شده مرکزی سرچشمه میگیرد.
همانطور که سیستمهای هوش مصنوعی در تقلید از انسان بهتر میشوند، سؤالات در مورد چگونگی تشخیص اینکه چه زمانی بخشی از محتوا – یک تصویر، یک مقاله – توسط برنامهای در پاسخ به چند کلمه جهتگیری انسان ایجاد شده است و مسئولیت آن به عهده چه کسی است، چند برابر میشود. مطمئن شوید که خوانندگان یا بینندگان منشأ محتوا را می دانند. در سال 2018، زمانی که گوگل Duplex را منتشر کرد، یک هوش مصنوعی که گفتار انسان را برای تماس با شرکتها از طرف کاربران شبیهسازی میکرد، پس از شکایتهایی که از فریبکاری آنها صورت میگرفت، مجبور شد تشخیص دهد که تماسها از سوی یک ربات انجام میشود.
این ایده ای است که OpenAI گفته است آن را بررسی کرده است – برای مثال، سیستم DALL-E آن برای تولید تصاویر از متن، امضایی را روی تصاویر قرار می دهد که بیان می کند آنها توسط هوش مصنوعی ایجاد شده اند – و این شرکت به تحقیق در مورد تکنیک های افشای منشأ آن ادامه می دهد. متن ایجاد شده توسط چیزهای آن مانند GPT. خط مشی OpenAI همچنین بیان می کند که کاربرانی که چنین محتوایی را به اشتراک می گذارند باید به وضوح نشان دهند که توسط یک ماشین ساخته شده است.
نارایانان گفت: «به طور کلی، وقتی ابزاری وجود دارد که میتوان از آن سوء استفاده کرد، اما کاربردهای مثبت زیادی نیز دارد، ما مسئولیت را بر عهده کاربر ابزار میگذاریم. “اما اینها ابزارهای بسیار قدرتمندی هستند و شرکت های تولید کننده آنها منابع خوبی دارند. و بنابراین شاید آنها باید بخشی از مسئولیت اخلاقی را در اینجا بر عهده بگیرند.”
© 2022 بلومبرگ LP