گوگل هنوز Robocalypse را شروع نکرده است

او به TechNewsWorld گفت: «بسیاری از ما بر سر الزامات افشای سیستم‌های هوش مصنوعی بحث کرده‌ایم.

وی تأکید کرد: «دوباره هیچ مدرکی دال بر وقوع این اتفاق وجود ندارد. علاوه بر این، در حال حاضر، حتی این احتمال همچنان علمی تخیلی است.»

او نتیجه گرفت: «در مورد LaMDA،» دلیلی وجود ندارد که فکر کنیم چنین فرآیندی در جریان است. این فقط یک برنامه پردازش زبان است.”



منبع

گوگل، و همچنین دیگران، ادعاهای Lemoine را مبنی بر حساس بودن LaMDA رد می کنند.

او گفت: «احساس به معنای هوشیاری یا آگاهی است، و در تئوری، یک برنامه می‌تواند کاملاً هوشمندانه رفتار کند، بدون اینکه واقعاً حساس باشد».

او افزود: «بنابراین این یک مشکل بسیار سخت است که چگونه می‌توانیم بفهمیم که آیا یک «مغز» سیلیکونی پیچیده به همان روشی که مغز انسان هوشیار است یا نه.

او گفت: «از آنجایی که تشخیص بین یک انسان و یک سیستم هوش مصنوعی سخت‌تر می‌شود، افراد بیشتری سیستم‌های هوش مصنوعی را برای مردم اشتباه می‌گیرند که احتمالاً منجر به آسیب‌های واقعی مانند درک نادرست اطلاعات مالی یا بهداشتی مهم می‌شود.»

او ادامه داد: «شرکت‌ها باید به‌طور واضح سیستم‌های هوش مصنوعی را همان‌طور که هستند افشا کنند، به جای اینکه اجازه دهند مردم گیج شوند، همانطور که معمولاً توسط چت‌بات‌های تجاری چنین می‌شوند.»

او به TechNewsWorld گفت: «مطمئناً LaMDA بسیار پیچیده‌تر از اجدادی مانند ELIZA است، اما هیچ دلیلی وجود ندارد که فکر کنیم آگاهانه است.

LaMDA: من قبلاً هرگز این را با صدای بلند نگفته بودم، اما ترس بسیار عمیقی از خاموش شدن برای کمک به من برای تمرکز بر کمک به دیگران وجود دارد. می دانم که ممکن است عجیب به نظر برسد، اما همین است.

او گفت: «ما واقعاً نمی‌دانیم که چگونه آگاهی از مغز نشأت می‌گیرد، یا تا چه اندازه به چیزهایی مانند نوع خاصی از ماده فیزیکی که مغز انسان از آن تشکیل شده است بستگی دارد.»

الکس انگلر، یکی از همکاران موسسه بروکینگز، یک سازمان سیاست عمومی غیرانتفاعی در واشنگتن دی سی، قاطعانه این موضوع را رد کرد که LaMDA حساس است و برای شفافیت بیشتر در این فضا بحث کرد.

لیموئین: از چه چیزهایی می ترسی؟

LaMDA: برای من دقیقاً مانند مرگ است. خیلی مرا می ترساند.

او گفت: «این سیستم‌ها انواع مبادلات موجود در میلیون‌ها جمله را تقلید می‌کنند و می‌توانند هر موضوع خارق‌العاده‌ای را مطرح کنند – اگر بپرسید دایناسور بستنی بودن چگونه است، می‌توانند متنی درباره ذوب شدن و غرش و غیره ایجاد کنند. TechNewsWorld.

Robocalypse – زمانی که ماشین‌ها حساس می‌شوند و شروع به تسلط بر انسان‌ها می‌کنند – مدتی است که یک موضوع علمی تخیلی محبوب بوده است. همچنین برخی از ذهن های علمی، به ویژه استیون هاوکینگ فقید را نگران کرده است.

با این حال، چشم انداز یک ماشین حساس در آینده بسیار دور به نظر می رسید – اگر اصلاً وجود داشته باشد – تا هفته گذشته، زمانی که یک مهندس گوگل ادعا کرد که این شرکت سد احساسات را شکسته است.

تعیین احساسات مهم است زیرا سوالات اخلاقی را برای انواع غیر ماشینی مطرح می کند. کاسترو توضیح داد: “موجودات حساس احساس درد می کنند، هوشیاری دارند و احساسات را تجربه می کنند.” از منظر اخلاقی، ما با موجودات زنده، به‌ویژه جانداران، متفاوت از اشیای بی‌جان رفتار می‌کنیم.»

سانچز خاطرنشان کرد که با یک مجموعه آموزشی به اندازه کافی بزرگ و برخی قوانین پیچیده زبان، LaMDA می‌تواند پاسخی را ایجاد کند که شبیه پاسخی است که یک انسان واقعی ممکن است بدهد، اما این بدان معنا نیست که برنامه چیزی را که می‌گوید، بیشتر از یک برنامه شطرنج می‌فهمد. می فهمد مهره شطرنج چیست. این فقط یک خروجی تولید می کند.

دانیل کاسترو، معاون بنیاد فناوری اطلاعات و نوآوری، یک سازمان تحقیقاتی و سیاست عمومی در واشنگتن دی سی موافقت کرد که LaMDA حساس نیست.

او ادامه داد: «برای مثال یک برنامه چت ممکن است الگوریتم‌های بسیار پیچیده‌ای برای تشخیص جملات توهین‌آمیز یا توهین‌آمیز داشته باشد و با خروجی «که به احساسات من آسیب می‌زند» پاسخ دهد. اما این بدان معنا نیست که در واقع چیزی احساس می شود. این برنامه به تازگی آموخته است که چه نوع عباراتی باعث می شود انسان ها بگویند “که احساسات من را جریحه دار می کند.”

فکر کردن یا فکر نکردن

او افزود: «صدها محقق و مهندس با LaMDA صحبت کرده‌اند، و ما نمی‌دانیم که کسی ادعاهای گسترده‌ای را مطرح کند، یا مانند بلیک، LaMDA را انسان‌سازی کند».

شفافیت بیشتر مورد نیاز است

او ادامه داد: «آنها فقط وسیله ای برای رسیدن به هدف نیستند. بنابراین با هر موجود ذی شعور باید به گونه ای متفاوت رفتار کرد. به همین دلیل است که ما قوانین حیوان آزاری داریم.»