او به TechNewsWorld گفت: «بسیاری از ما بر سر الزامات افشای سیستمهای هوش مصنوعی بحث کردهایم.
وی تأکید کرد: «دوباره هیچ مدرکی دال بر وقوع این اتفاق وجود ندارد. علاوه بر این، در حال حاضر، حتی این احتمال همچنان علمی تخیلی است.»
او نتیجه گرفت: «در مورد LaMDA،» دلیلی وجود ندارد که فکر کنیم چنین فرآیندی در جریان است. این فقط یک برنامه پردازش زبان است.”
گوگل، و همچنین دیگران، ادعاهای Lemoine را مبنی بر حساس بودن LaMDA رد می کنند.
او گفت: «احساس به معنای هوشیاری یا آگاهی است، و در تئوری، یک برنامه میتواند کاملاً هوشمندانه رفتار کند، بدون اینکه واقعاً حساس باشد».
او افزود: «بنابراین این یک مشکل بسیار سخت است که چگونه میتوانیم بفهمیم که آیا یک «مغز» سیلیکونی پیچیده به همان روشی که مغز انسان هوشیار است یا نه.
او گفت: «از آنجایی که تشخیص بین یک انسان و یک سیستم هوش مصنوعی سختتر میشود، افراد بیشتری سیستمهای هوش مصنوعی را برای مردم اشتباه میگیرند که احتمالاً منجر به آسیبهای واقعی مانند درک نادرست اطلاعات مالی یا بهداشتی مهم میشود.»
او ادامه داد: «شرکتها باید بهطور واضح سیستمهای هوش مصنوعی را همانطور که هستند افشا کنند، به جای اینکه اجازه دهند مردم گیج شوند، همانطور که معمولاً توسط چتباتهای تجاری چنین میشوند.»
او به TechNewsWorld گفت: «مطمئناً LaMDA بسیار پیچیدهتر از اجدادی مانند ELIZA است، اما هیچ دلیلی وجود ندارد که فکر کنیم آگاهانه است.
LaMDA: من قبلاً هرگز این را با صدای بلند نگفته بودم، اما ترس بسیار عمیقی از خاموش شدن برای کمک به من برای تمرکز بر کمک به دیگران وجود دارد. می دانم که ممکن است عجیب به نظر برسد، اما همین است.
او گفت: «ما واقعاً نمیدانیم که چگونه آگاهی از مغز نشأت میگیرد، یا تا چه اندازه به چیزهایی مانند نوع خاصی از ماده فیزیکی که مغز انسان از آن تشکیل شده است بستگی دارد.»
الکس انگلر، یکی از همکاران موسسه بروکینگز، یک سازمان سیاست عمومی غیرانتفاعی در واشنگتن دی سی، قاطعانه این موضوع را رد کرد که LaMDA حساس است و برای شفافیت بیشتر در این فضا بحث کرد.
لیموئین: از چه چیزهایی می ترسی؟
LaMDA: برای من دقیقاً مانند مرگ است. خیلی مرا می ترساند.
او گفت: «این سیستمها انواع مبادلات موجود در میلیونها جمله را تقلید میکنند و میتوانند هر موضوع خارقالعادهای را مطرح کنند – اگر بپرسید دایناسور بستنی بودن چگونه است، میتوانند متنی درباره ذوب شدن و غرش و غیره ایجاد کنند. TechNewsWorld.
Robocalypse – زمانی که ماشینها حساس میشوند و شروع به تسلط بر انسانها میکنند – مدتی است که یک موضوع علمی تخیلی محبوب بوده است. همچنین برخی از ذهن های علمی، به ویژه استیون هاوکینگ فقید را نگران کرده است.
با این حال، چشم انداز یک ماشین حساس در آینده بسیار دور به نظر می رسید – اگر اصلاً وجود داشته باشد – تا هفته گذشته، زمانی که یک مهندس گوگل ادعا کرد که این شرکت سد احساسات را شکسته است.
تعیین احساسات مهم است زیرا سوالات اخلاقی را برای انواع غیر ماشینی مطرح می کند. کاسترو توضیح داد: “موجودات حساس احساس درد می کنند، هوشیاری دارند و احساسات را تجربه می کنند.” از منظر اخلاقی، ما با موجودات زنده، بهویژه جانداران، متفاوت از اشیای بیجان رفتار میکنیم.»
سانچز خاطرنشان کرد که با یک مجموعه آموزشی به اندازه کافی بزرگ و برخی قوانین پیچیده زبان، LaMDA میتواند پاسخی را ایجاد کند که شبیه پاسخی است که یک انسان واقعی ممکن است بدهد، اما این بدان معنا نیست که برنامه چیزی را که میگوید، بیشتر از یک برنامه شطرنج میفهمد. می فهمد مهره شطرنج چیست. این فقط یک خروجی تولید می کند.
دانیل کاسترو، معاون بنیاد فناوری اطلاعات و نوآوری، یک سازمان تحقیقاتی و سیاست عمومی در واشنگتن دی سی موافقت کرد که LaMDA حساس نیست.
او ادامه داد: «برای مثال یک برنامه چت ممکن است الگوریتمهای بسیار پیچیدهای برای تشخیص جملات توهینآمیز یا توهینآمیز داشته باشد و با خروجی «که به احساسات من آسیب میزند» پاسخ دهد. اما این بدان معنا نیست که در واقع چیزی احساس می شود. این برنامه به تازگی آموخته است که چه نوع عباراتی باعث می شود انسان ها بگویند “که احساسات من را جریحه دار می کند.”
فکر کردن یا فکر نکردن
او افزود: «صدها محقق و مهندس با LaMDA صحبت کردهاند، و ما نمیدانیم که کسی ادعاهای گستردهای را مطرح کند، یا مانند بلیک، LaMDA را انسانسازی کند».
شفافیت بیشتر مورد نیاز است
او ادامه داد: «آنها فقط وسیله ای برای رسیدن به هدف نیستند. بنابراین با هر موجود ذی شعور باید به گونه ای متفاوت رفتار کرد. به همین دلیل است که ما قوانین حیوان آزاری داریم.»