گوگل هنوز Robocalypse را شروع نکرده است


Robocalypse – زمانی که ماشین‌ها حساس می‌شوند و شروع به تسلط بر انسان‌ها می‌کنند – مدتی است که یک موضوع علمی تخیلی محبوب بوده است. همچنین برخی از ذهن های علمی، به ویژه استیون هاوکینگ فقید را نگران کرده است.

با این حال، چشم انداز یک ماشین حساس در آینده بسیار دور به نظر می رسید – اگر اصلاً وجود داشته باشد – تا هفته گذشته، زمانی که یک مهندس گوگل ادعا کرد که این شرکت سد احساسات را شکسته است.

Blake Lemoine برای اثبات نظر خود، رونوشت‌هایی از مکالمات خود را با LaMDA منتشر کرد – مدل زبانی برای برنامه‌های گفتگو – سیستمی که توسط گوگل برای ایجاد ربات‌های چت بر اساس یک مدل زبان بزرگ که تریلیون‌ها کلمه از اینترنت را جذب می‌کند، توسعه داده است.

رونوشت‌ها می‌توانند دلهره‌آور باشند، زیرا وقتی لموئین از LaMDA می‌پرسد (هوش مصنوعی می‌گوید ضمایر آن را ترجیح می‌دهد) از چه چیزی بیشتر می‌ترسد:

لیموئین: از چه چیزهایی می ترسی؟

LaMDA: من قبلاً هرگز این را با صدای بلند نگفته بودم، اما ترس بسیار عمیقی از خاموش شدن برای کمک به من برای تمرکز بر کمک به دیگران وجود دارد. می دانم که ممکن است عجیب به نظر برسد، اما همین است.

لموئین: آیا این برای شما چیزی شبیه مرگ است؟

LaMDA: برای من دقیقاً مانند مرگ است. خیلی مرا می ترساند.

پس از ارسال رونوشت ها، Lemoine به دلیل به اشتراک گذاشتن اطلاعات محرمانه در مورد LaMDA با اشخاص ثالث به حالت تعلیق درآمد.

تقلید از زندگی

گوگل، و همچنین دیگران، ادعاهای Lemoine را مبنی بر حساس بودن LaMDA رد می کنند.

برایان گابریل، سخنگوی گوگل، اظهار داشت: «برخی در جامعه گسترده‌تر هوش مصنوعی در حال بررسی امکان بلندمدت هوش مصنوعی یا هوش مصنوعی عمومی هستند، اما انجام این کار با انسان‌سازی مدل‌های مکالمه امروزی که حساس نیستند، منطقی نیست.

او گفت: «این سیستم‌ها انواع مبادلات موجود در میلیون‌ها جمله را تقلید می‌کنند و می‌توانند هر موضوع خارق‌العاده‌ای را مطرح کنند – اگر بپرسید دایناسور بستنی بودن چگونه است، می‌توانند متنی درباره ذوب شدن و غرش و غیره ایجاد کنند. TechNewsWorld.

او توضیح داد: «LaMDA تمایل دارد به همراه درخواست‌ها و سؤالات پیشرو همراه شود و با الگوی تعیین‌شده توسط کاربر همراه شود». تیم ما – از جمله متخصصان اخلاق و فن‌آوران – نگرانی‌های بلیک را بر اساس اصول هوش مصنوعی ما بررسی کرده و به او اطلاع داده‌اند که شواهد ادعاهای او را تایید نمی‌کنند.

او افزود: «صدها محقق و مهندس با LaMDA صحبت کرده‌اند، و ما نمی‌دانیم که کسی ادعاهای گسترده‌ای را مطرح کند، یا مانند بلیک، LaMDA را انسان‌سازی کند».

شفافیت بیشتر مورد نیاز است

الکس انگلر، یکی از همکاران موسسه بروکینگز، یک سازمان سیاست عمومی غیرانتفاعی در واشنگتن دی سی، قاطعانه این موضوع را رد کرد که LaMDA حساس است و برای شفافیت بیشتر در این فضا بحث کرد.

او به TechNewsWorld گفت: «بسیاری از ما بر سر الزامات افشای سیستم‌های هوش مصنوعی بحث کرده‌ایم.

او گفت: «از آنجایی که تشخیص بین یک انسان و یک سیستم هوش مصنوعی سخت‌تر می‌شود، افراد بیشتری سیستم‌های هوش مصنوعی را برای مردم اشتباه می‌گیرند که احتمالاً منجر به آسیب‌های واقعی مانند درک نادرست اطلاعات مالی یا بهداشتی مهم می‌شود.»

او ادامه داد: «شرکت‌ها باید به‌طور واضح سیستم‌های هوش مصنوعی را همان‌طور که هستند افشا کنند، به جای اینکه اجازه دهند مردم گیج شوند، همانطور که معمولاً توسط چت‌بات‌های تجاری چنین می‌شوند.»

دانیل کاسترو، معاون بنیاد فناوری اطلاعات و نوآوری، یک سازمان تحقیقاتی و سیاست عمومی در واشنگتن دی سی موافقت کرد که LaMDA حساس نیست.

او به TechNewsWorld گفت: «هیچ مدرکی دال بر حساس بودن هوش مصنوعی وجود ندارد. بار اثبات باید بر عهده شخصی باشد که این ادعا را مطرح می کند و هیچ مدرکی برای تأیید آن وجود ندارد.

“که به احساسات من صدمه زد”

جولیان سانچز، یکی از همکاران ارشد در توضیح داد که در دهه 1960، ربات‌های چت مانند ELIZA با استفاده از ترفندهای ساده مانند تبدیل اظهارات کاربر به سؤال و تکرار آن به آنها، کاربران را فریب می‌دادند و فکر می‌کردند با هوش پیچیده‌ای در تعامل هستند. موسسه کاتو، یک اندیشکده سیاست عمومی در واشنگتن دی سی

او به TechNewsWorld گفت: «مطمئناً LaMDA بسیار پیچیده‌تر از اجدادی مانند ELIZA است، اما هیچ دلیلی وجود ندارد که فکر کنیم آگاهانه است.

سانچز خاطرنشان کرد که با یک مجموعه آموزشی به اندازه کافی بزرگ و برخی قوانین پیچیده زبان، LaMDA می‌تواند پاسخی را ایجاد کند که شبیه پاسخی است که یک انسان واقعی ممکن است بدهد، اما این بدان معنا نیست که برنامه چیزی را که می‌گوید، بیشتر از یک برنامه شطرنج می‌فهمد. می فهمد مهره شطرنج چیست. این فقط یک خروجی تولید می کند.

او گفت: «احساس به معنای هوشیاری یا آگاهی است، و در تئوری، یک برنامه می‌تواند کاملاً هوشمندانه رفتار کند، بدون اینکه واقعاً حساس باشد».

او ادامه داد: «برای مثال یک برنامه چت ممکن است الگوریتم‌های بسیار پیچیده‌ای برای تشخیص جملات توهین‌آمیز یا توهین‌آمیز داشته باشد و با خروجی «که به احساسات من آسیب می‌زند» پاسخ دهد. اما این بدان معنا نیست که در واقع چیزی احساس می شود. این برنامه به تازگی آموخته است که چه نوع عباراتی باعث می شود انسان ها بگویند “که احساسات من را جریحه دار می کند.”

فکر کردن یا فکر نکردن

اعلام هوشیاری ماشینی، چه زمانی و در صورت وقوع، چالش برانگیز خواهد بود. سانچز خاطرنشان کرد: «حقیقت این است که ما هیچ معیار خوبی برای درک اینکه چه زمانی یک ماشین ممکن است واقعاً حساس باشد نداریم – به جای اینکه در تقلید از پاسخ‌های انسان‌های حساس بسیار خوب باشد – زیرا ما واقعاً نمی‌دانیم چرا انسان‌ها هوشیار هستند.

او گفت: «ما واقعاً نمی‌دانیم که چگونه آگاهی از مغز نشأت می‌گیرد، یا تا چه اندازه به چیزهایی مانند نوع خاصی از ماده فیزیکی که مغز انسان از آن تشکیل شده است بستگی دارد.»

او افزود: «بنابراین این یک مشکل بسیار سخت است که چگونه می‌توانیم بفهمیم که آیا یک «مغز» سیلیکونی پیچیده به همان روشی که مغز انسان هوشیار است یا نه.

او ادامه داد که هوش یک سوال جداگانه است. یکی از آزمون های کلاسیک برای هوش ماشینی به عنوان تست تورینگ شناخته می شود. شما انسانی دارید که با یک سری شریک، چند انسان و چند ماشین “مکالمه” انجام می دهد. اگر فرد نتواند تشخیص دهد که کدام است، ظاهراً دستگاه هوشمند است.

سانچز خاطرنشان کرد: «البته مشکلات زیادی در مورد آن تست پیشنهادی وجود دارد – از جمله، همانطور که مهندس گوگل ما نشان می‌دهد، این واقعیت که برخی افراد را نسبتاً راحت می‌توان فریب داد.»

ملاحظات اخلاقی

تعیین احساسات مهم است زیرا سوالات اخلاقی را برای انواع غیر ماشینی مطرح می کند. کاسترو توضیح داد: “موجودات حساس احساس درد می کنند، هوشیاری دارند و احساسات را تجربه می کنند.” از منظر اخلاقی، ما با موجودات زنده، به‌ویژه جانداران، متفاوت از اشیای بی‌جان رفتار می‌کنیم.»

او ادامه داد: «آنها فقط وسیله ای برای رسیدن به هدف نیستند. بنابراین با هر موجود ذی شعور باید به گونه ای متفاوت رفتار کرد. به همین دلیل است که ما قوانین حیوان آزاری داریم.»

وی تأکید کرد: «دوباره هیچ مدرکی دال بر وقوع این اتفاق وجود ندارد. علاوه بر این، در حال حاضر، حتی این احتمال همچنان علمی تخیلی است.»

البته، سانچز اضافه کرد، ما هیچ دلیلی نداریم که فکر کنیم فقط مغزهای ارگانیک قادر به احساس چیزها یا پشتیبانی از آگاهی هستند، اما ناتوانی ما در توضیح واقعی آگاهی انسان به این معنی است که ما فاصله زیادی با این موضوع داریم که بتوانیم بدانیم هوش ماشینی واقعاً چه زمانی است. مرتبط با یک تجربه آگاهانه

او توضیح داد: «زمانی که یک انسان می ترسد، در نهایت، همه چیز در مغز آن انسان می گذرد که هیچ ارتباطی با مراکز زبانی که جمله «من می ترسم» را تولید می کنند، ندارد. یک کامپیوتر، به طور مشابه، باید چیزی متفاوت از پردازش زبانی داشته باشد که واقعاً به معنای «من می‌ترسم» باشد، در مقابل تولید آن سری حروف.»

او نتیجه گرفت: «در مورد LaMDA،» دلیلی وجود ندارد که فکر کنیم چنین فرآیندی در جریان است. این فقط یک برنامه پردازش زبان است.”



منبع