ChatGPT می تواند انسان ها را حتی زمانی که اشتباه است فریب دهد، از ادعاها با نقل قول های جعلی پشتیبانی می کند


از زمانی که OpenAI به ChatGPT، یک ربات چت که جملاتی شبیه نثر واقعی نوشته شده توسط انسان را تولید می‌کند، منتشر شد، رسانه‌های اجتماعی با استفاده‌های سرگرم‌کننده و کم‌مخاطب از این فناوری در شبکه‌های اجتماعی پر از غوغا شدند. از ربات خواسته شده است دستور العمل های کوکتل بسازد، اشعار بسازد و یک فیلمنامه جزیره گیلیگان بنویسد که در آن غارگان با کووید سروکار دارند. ChatGPT از برخی از دام های چت ربات های گذشته – مانند زبان نژادپرستانه یا نفرت پرهیز می کند – و هیجان در مورد تکرار این فناوری قابل لمس است. مهارت ChatGPT در ارائه پاسخ‌های روان و معتبر و پاسخ دادن به سؤالات مرتبط و اضافی در یک رشته منسجم، گواهی بر پیشرفت هوش مصنوعی است. اما این موضوع همچنین سوالات زیادی را در مورد اینکه چگونه خوانندگان می توانند تفاوت بین محتوای ربات و زبان نوشته شده توسط انسان را تشخیص دهند، ایجاد می کند. این به این دلیل است که متن ChatGPT می‌تواند به سطح خاصی از آنچه استیون کولبرت کمدین زمانی آن را «حقیقت» می‌نامید، دست یابد – چیزی که ظاهر و احساس واقعی بودن دارد، حتی اگر بر اساس واقعیت نباشد.

این ابزار هفته گذشته منتشر شد. تا روز دوشنبه، Stack Overflow، یک سایت پرسش و پاسخ برای برنامه نویسان کامپیوتر، پاسخ های ایجاد شده توسط ChatGPT را به طور موقت ممنوع کرد، با مدیرانی که می گفتند هزاران پست از این قبیل را می بینند – و این که اغلب حاوی نادرستی هستند، که آنها را به طور قابل توجهی برای سایت مضر می کند. و حتی زمانی که پاسخ‌ها دقیق هستند، مطالب تولید شده توسط ربات‌ها در مورد تاریخ یا علم به اندازه کافی خوب است تا بحث‌هایی را در مورد اینکه آیا می‌توان از آن برای تقلب در آزمون‌ها، مقاله‌ها یا برنامه‌های شغلی استفاده کرد، برانگیخت. واقعی یا غیرواقعی، پاسخ‌های ChatGPT پژواک نزدیکی از گفتار انسان است، فکسی از چیزهای واقعی، و این موضوع را تقویت می‌کند که OpenAI ممکن است مجبور باشد راهی برای پرچم‌گذاری چنین محتوایی به‌عنوان تولید شده توسط نرم‌افزار و نه توسط انسان ایجاد کند.

آرویند نارایانان، استاد علوم کامپیوتر در دانشگاه پرینستون، ربات چت را در روز انتشار آن روی سوالات اولیه امنیت اطلاعات آزمایش کرد. نتیجه گیری او: شما نمی توانید تشخیص دهید که پاسخ اشتباه است، مگر اینکه از قبل بدانید چه چیزی درست است.

او در مصاحبه ای گفت: “من هیچ مدرکی ندیدم که ChatGPT آنقدر متقاعد کننده باشد که بتواند کارشناسان را متقاعد کند.” مطمئناً این یک مشکل است که افراد غیرمتخصص می توانند آن را بسیار معقول و معتبر و معتبر بدانند. او گفت که این موضوع همچنین برای معلمانی که کاری را تعیین می کنند که به جای تحلیل یا تفکر انتقادی، بازخوانی حقایق را می طلبد، مشکل است. چت بات قسمت اول را به خوبی انجام می دهد، اما معمولاً روی دومی سقوط می کند.

ChatGPT جدیدترین فناوری هوش مصنوعی زبان OpenAI است، یک فروشگاه تحقیقاتی هوش مصنوعی که در سال 2015 توسط حامیانی از جمله ایلان ماسک تأسیس شد. مدیر اجرایی فعلی و کارآفرین، سام آلتمن؛ و دانشمند ارشد ایلیا سوتسکور. ماسک در سال 2019 به مشارکت خود پایان داد و OpenAI اکنون به شدت توسط مایکروسافت تأمین می شود. این شرکت بر روی چندین نسخه از GPT تمرکز کرده است، یک مدل به اصطلاح زبان بزرگ، که حجم عظیمی از محتوای موجود در اینترنت را اسکن می کند و از آن برای پیش بینی نحوه تولید متن استفاده می کند. ChatGPT تکراری است که برای پاسخ دادن به سوالات “آموزش داده شده است”.

استفاده از ابزار هوش مصنوعی برای نوشتن یک خبر اساسی، نقاط قوت و همچنین معایب احتمالی آن را نشان می دهد. از این ربات که از مایکروسافت خواسته شده است قطعه ای در مورد درآمدهای سه ماهه مایکروسافت بنویسد، نسخه معتبری از چیزی را تولید می کند که می توانست مقاله ای در مورد نتایج مالی مایکروسافت در حدود سال 2021 باشد. داستان در مورد افزایش درآمد و سود، به دلیل نرم افزار محاسبات ابری قوی و ویدئو صحبت می کند. فروش بازی ChatGPT خطاهای آشکاری که آن را به عنوان نوشته شده توسط یک ربات پرچم گذاری می کرد، مرتکب نشد. اعداد اشتباه بودند، اما در محوطه توپ بودند.

این ربات اعتبار خود را با افزودن یک نقل قول جعلی از ساتیا نادلا، مدیر عامل مایکروسافت، تقویت کرد و مشکل نگران کننده ای در آن وجود دارد. این نظر که اعدام مایکروسافت در یک دوره سخت همه‌گیر را ستایش می‌کند، بسیار باورپذیر است حتی این گزارشگر مایکروسافت مجبور شد بررسی کند که آیا واقعی است یا خیر. در واقع کاملا ساخته شده بود.

همانطور که سارا برد، معاون اخلاق هوش مصنوعی مایکروسافت در مصاحبه‌ای در اوایل سال جاری توضیح داد، مدل‌های زبانی مانند GPT آموخته‌اند که انسان‌ها اغلب از ادعاها با یک نقل قول پشتیبان می‌گیرند – بنابراین نرم‌افزار آن رفتار را تقلید می‌کند، اما از درک انسان از اخلاق و اسناد بهره نمی‌برد. . نرم افزار یک نقل قول، یک سخنران یا هر دو را می سازد.

استقبال مشتاقانه از ChatGPT در تضاد بارز دیگری با نمایش برجسته اخیر یک مدل زبانی است – Meta’s Galactica، که مجموع مقالات علمی و کتاب های درسی را دریافت کرد و قرار بود از آن “یادگیری” برای بیرون ریختن حقیقت علمی استفاده کند. کاربران دریافتند که ربات کلمات کلیدی علمی را با نادرستی و سوگیری در هم آمیخته است و باعث شد متا، شرکت مادر فیس بوک، از این مشکل جلوگیری کند. نارایانان گفت: “من مطمئن نیستم که چگونه کسی فکر می کند که این ایده خوبی است.” “در علم، دقت کل بازی است.”

بر اساس یک سلب مسئولیت در این سرویس، OpenAI به وضوح بیان می کند که چت ربات آن “قادر به تولید گفتار شبیه انسان” نیست. مدل‌های زبانی مانند ChatGPT برای شبیه‌سازی الگوهای زبانی انسان و ایجاد پاسخ‌هایی شبیه به نحوه واکنش انسان طراحی شده‌اند، اما توانایی تولید گفتار انسان‌مانند را ندارند.

ChatGPT همچنین برای جلوگیری از برخی از مشکلات آشکارتر و برای توضیح بهتر احتمال خطا طراحی شده است. این نرم افزار فقط در سال گذشته بر روی داده ها آموزش داده شده است. مثلا در مورد انتخابات میان دوره ای امسال سوال بپرسید و نرم افزار محدودیت های خود را پذیرفته است. می‌گوید: «متاسفم، اما من یک مدل زبان بزرگ هستم که توسط OpenAI آموزش دیده‌ام و هیچ اطلاعاتی درباره رویدادهای جاری یا نتایج انتخابات اخیر ندارم». “داده های آموزشی من فقط تا سال 2021 افزایش می یابد و من توانایی مرور اینترنت یا دسترسی به اطلاعات به روز را ندارم. آیا چیز دیگری هست که بتوانم به شما کمک کنم؟»

نمونه‌های ارائه‌شده توسط OpenAI نشان می‌دهد که ChatGPT از پاسخ دادن به سؤالات مربوط به قلدری یا ارائه محتوای خشونت‌آمیز خودداری می‌کند. این به سوالی که در شورش ۶ ژانویه ۲۰۲۱ در ساختمان کنگره ایالات متحده مطرح کردم پاسخ نداد و گاهی اوقات تصدیق می‌کند که اشتباه کرده است. OpenAI گفت که ChatGPT را به عنوان یک «پیش‌نمایش پژوهشی» منتشر کرده است تا بازخورد استفاده واقعی را در خود بگنجاند، که آن را راهی حیاتی برای ساختن سیستم‌های ایمن می‌داند.

در حال حاضر، برخی چیزها را بسیار اشتباه می کند. گری مارکوس، استاد بازنشسته دانشگاه نیویورک، نمونه هایی از جمله توصیه ChatGPT در مورد دوچرخه سواری از سانفرانسیسکو به مائوئی را جمع آوری و در توییتر به اشتراک گذاشته است. رونگ-چینگ چانگ، دانشجوی دکترای دانشگاه کالیفرنیا، رباتی را به دست آورد تا در اعتراضات میدان تیان‌آن‌من درباره آدم‌خواری صحبت کند. به همین دلیل است که برخی از کارشناسان هوش مصنوعی می گویند این نگران کننده است که برخی از مدیران و کاربران فناوری این فناوری را راهی برای جایگزینی جستجوی اینترنتی می دانند، به خصوص که ChatGPT کار خود را نشان نمی دهد یا منابع آن را فهرست نمی کند.

“اگر پاسخی دریافت کردید که نمی توانید آن را دنبال کنید و بگویید: “این از کجا می آید؟ چه چشم اندازی را نشان می دهد؟ منبع این اطلاعات چیست؟ امیلی بندر، استاد زبان‌شناسی دانشگاه واشنگتن و نویسنده مقاله‌ای در اوایل سال جاری، می‌گوید، پس شما به‌طور باورنکردنی در برابر چیزهایی که ساخته می‌شوند و یا به‌طور مستقیم ساخته می‌شوند آسیب‌پذیر هستید یا بدترین سوگیری‌ها را در مجموعه داده‌ها منعکس می‌کنید. نگرانی‌هایی را که توسط چت‌ربات‌های زبان هوش مصنوعی که ادعا می‌کنند جستجوی وب را بهبود می‌بخشند، نشان داد. این مقاله تا حد زیادی در پاسخ به ایده هایی بود که توسط گوگل رونمایی شد.

بندر گفت: «نوعی برنامه قاتل برای این نوع فناوری موقعیتی است که شما به هیچ چیز صادقانه نیاز ندارید. هیچ کس نمی تواند بر اساس آن تصمیم بگیرد.»

این نرم‌افزار همچنین می‌تواند برای راه‌اندازی کمپین‌های “astroturfing” مورد استفاده قرار گیرد – که به نظر می‌رسد نظری از حجم زیادی از مفسران مردمی سرچشمه می‌گیرد، اما در واقع از یک عملیات مدیریت شده مرکزی سرچشمه می‌گیرد.

همانطور که سیستم‌های هوش مصنوعی در تقلید از انسان بهتر می‌شوند، سؤالات در مورد چگونگی تشخیص اینکه چه زمانی بخشی از محتوا – یک تصویر، یک مقاله – توسط برنامه‌ای در پاسخ به چند کلمه جهت‌گیری انسان ایجاد شده است و مسئولیت آن به عهده چه کسی است، چند برابر می‌شود. مطمئن شوید که خوانندگان یا بینندگان منشأ محتوا را می دانند. در سال 2018، زمانی که گوگل Duplex را منتشر کرد، یک هوش مصنوعی که گفتار انسان را برای تماس با شرکت‌ها از طرف کاربران شبیه‌سازی می‌کرد، پس از شکایت‌هایی که از فریب‌کاری آن‌ها صورت می‌گرفت، مجبور شد تشخیص دهد که تماس‌ها از سوی یک ربات انجام می‌شود.

این ایده ای است که OpenAI گفته است آن را بررسی کرده است – برای مثال، سیستم DALL-E آن برای تولید تصاویر از متن، امضایی را روی تصاویر قرار می دهد که بیان می کند آنها توسط هوش مصنوعی ایجاد شده اند – و این شرکت به تحقیق در مورد تکنیک های افشای منشأ آن ادامه می دهد. متن ایجاد شده توسط چیزهای آن مانند GPT. خط مشی OpenAI همچنین بیان می کند که کاربرانی که چنین محتوایی را به اشتراک می گذارند باید به وضوح نشان دهند که توسط یک ماشین ساخته شده است.

نارایانان گفت: «به طور کلی، وقتی ابزاری وجود دارد که می‌توان از آن سوء استفاده کرد، اما کاربردهای مثبت زیادی نیز دارد، ما مسئولیت را بر عهده کاربر ابزار می‌گذاریم. “اما اینها ابزارهای بسیار قدرتمندی هستند و شرکت های تولید کننده آنها منابع خوبی دارند. و بنابراین شاید آنها باید بخشی از مسئولیت اخلاقی را در اینجا بر عهده بگیرند.”

© 2022 بلومبرگ LP


پیوندهای وابسته ممکن است به طور خودکار ایجاد شوند – برای جزئیات بیشتر به بیانیه اخلاقی ما مراجعه کنید.



منبع