در درازمدت ما نه تنها به یک تست قابل اعتمادتر برای احساسات نیاز داریم، بلکه باید بدانیم وقتی آن را تشخیص دادیم چه کنیم. احتمالاً در بالای لیست، توقف مصرف موجودات حساس است. اما مطمئناً در نظر گرفتن منشور حقوق برای چیزهای حساس، بیولوژیکی یا غیر آن، قبل از اینکه در نبردی برای بقای خود آماده نباشیم، منطقی خواهد بود، زیرا احساس تصمیم گرفته است که این ما یا آنها هستیم.
Merlynn Digital Twin
اکثر کارشناسان موافقند که اینطور نبوده است، اما بدون در نظر گرفتن اینکه آیا اینطور بوده است، احتمالاً درست است زیرا ما تمایل داریم احساسات را به انسان بودن وصل کنیم و هوش مصنوعی چیزی جز انسان است. اما آنچه جهان احساس می کند در حال تغییر است. ایالتی که من در آن زندگی میکنم، اورگان، و بسیاری از کشورهای اتحادیه اروپا برای شناسایی و دستهبندی فهرست رو به رشدی از حیوانات بهعنوان حساس حرکت کردهاند.
با نگاهی به آینده، نمیدانم که اگر ما به جای کارفرمایان خود، صاحب دوقلوهای دیجیتالی رو به رشد خود باشیم و آن را کنترل کنیم، بهتر نیست. در ابتدا، چون دوقلوها نمی توانند بدون ما کار کنند، مشکل چندانی نیست. اگرچه، در نهایت، این دوقلوهای دیجیتال می توانند مسیر کوتاه مدت ما به سوی جاودانگی دیجیتال باشند.
تبلیغات
هنگامی که بتوانید یک نسخه تکراری کاملا دیجیتالی از خود ایجاد کنید، چه چیزی مانع از جایگزینی شرکتی که این فناوری را خریداری کرده است، وجود دارد؟ علاوه بر این، با توجه به اینکه الگوهای رفتاری شما را دارد، اگر قدرت هوش مصنوعی را داشتید و شرکتی که شما را استخدام میکرد با شما بد رفتار میکرد یا سعی میکرد ارتباط شما را قطع یا حذف کند، چه میکردید؟ قوانین مربوط به چنین اقداماتی چه خواهد بود؟
ما قاطعانه استدلال می کنیم که بچه های متولد نشده مردم هستند، بنابراین آیا یک دوقلوی دیجیتالی کاملاً توانا از شما حتی از یک کودک متولد نشده به مردم نزدیک تر نخواهد بود؟ آیا همان استدلالهای «حق زندگی» در مورد هوش مصنوعی بالقوه انساننما صدق نمیکند؟ یا نباید این کار را بکنند؟
در اینجا مشکل کوتاه مدت نهفته است
بنابراین، توصیه میکنم وقتی صحبت با ماشینها میشود، از قانون سوم پاتریک سویزی در فیلم «Road House» در سال 1989 پیروی کنید – خوب باشید.
فناوری مرلین به شما کمک میکند یک دوقلوی دیجیتالی انسانی ابتدایی (در برابر تهدیداتی که در بالا ذکر کردم) ایجاد کنید که به طور بالقوه میتواند بسیاری از کارهایی را که واقعاً دوست ندارید انجام دهید، انجام دهد و شما را به انجام کارهای خلاقانهتری که در حال حاضر قادر به انجام آن نیست، میگذارد.
بنابراین، مشکل کوتاه مدت این است که حتی اگر این سیستم ها هنوز حساس نیستند، می توانند به طور موثر از انسان تقلید کنند. فناوری میتواند هر صدایی را تقلید کند و با فناوری دیپفیک، حتی ویدیویی ارائه دهد که در تماس زوم، به نظر برسد که در حال صحبت با یک شخص واقعی هستید.
پیامدهای بلند مدت
مدتها قبل از تعقیب ما توسط یک ترمیناتور واقعی در خیابان، مشکل دیگری به شکل دوقلوهای دیجیتالی انسان ظاهر خواهد شد. قبل از اینکه استدلال کنید که این نیز فاصله زیادی دارد، باید اشاره کنم که شرکتی وجود دارد که امروز آن فناوری را تولید کرده است، اگرچه هنوز در مراحل اولیه است. آن شرکت Merlynn است و من به عنوان محصول هفته من به طور عمیق تری درباره کارهایی که انجام می دهد در زیر توضیح خواهم داد.
فشارسنج که ما برای اندازه گیری حس ماشین استفاده می کنیم، تست تورینگ است. اما در سال 2014، یک کامپیوتر تست تورینگ را با موفقیت پشت سر گذاشت، و ما هنوز باور نمی کنیم که این تست حساس باشد. آزمون تورینگ قرار بود حس را تعریف کند، اما اولین باری که ماشینی آن را رد کرد، نتایج را به دلایل خوب بیرون انداختیم. در واقع، آزمون تورینگ احساس هیچ چیز را به اندازه ای اندازه گیری نکرد که آیا چیزی می تواند ما را وادار کند که احساس کنیم یا خیر.
اگر چیزی ما را متقاعد کند که حساس است، دقیقاً مانند آنچه که هوش مصنوعی محقق گوگل را متقاعد کرده است، فکر نمیکنم این واقعیت که هنوز حساس نیست مهم باشد. این به این دلیل است که ما باید بدون توجه به رفتار خود تعدیل کنیم. اگر این کار را نکنیم، نتیجه ممکن است مشکل ساز باشد.
همانطور که دوقلو خود را آموزش می دهید، می تواند مکمل کاری باشد که انجام می دهید، در ابتدا وظایف ساده و زمان بری مانند پر کردن فرم ها یا پاسخ دادن به ایمیل های اولیه را بر عهده می گیرد. حتی میتواند شبکههای اجتماعی را برای شما پیگیری کند و درگیر آن باشد، و برای بسیاری از ما، رسانههای اجتماعی تبدیل به اتلاف وقت بزرگی شدهاند.
تنها دفاعی که من مطمئن هستم در یک سناریوی خصمانه هوش مصنوعی کار نخواهد کرد، دفاع تینکربل است که در آن امتناع ما از امکان پذیر بودن چیزی مانع از جایگزینی آن چیزی می شود.
تهدید اولیه جایگزینی است
در حال حاضر، گروه کوچکی از مردم بر این باورند که یک کامپیوتر میتواند حساس باشد، اما این گروه با گذشت زمان رشد خواهند کرد و توانایی ارائه به عنوان انسان از قبل وجود دارد. من از آزمایشی مطلع هستم که با IBM Watson برای فروش بیمه انجام شد که در آن مردان بالقوه سعی کردند از واتسون درخواست کنند (صدای زنانه دارد) با این باور که با یک زن واقعی صحبت می کنند.
به عنوان مثال، اگر یک تماس فروش از واتسون IBM دریافت کردید که به نظر انسانی می آمد و می خواستید به طور کلامی از دستگاه سوء استفاده کنید، اما متوجه نشدید که مکالمه ضبط شده است، ممکن است در پایان تماس بیکار و بیکار شوید. نه به این دلیل که دستگاه غیر حساس استثنا شد، بلکه به این دلیل که یک زن انسانی، پس از شنیدن صحبت های شما، این کار را انجام داد – و نوار را برای کارفرمای شما فرستاد. به آن پتانسیل باجگیری چنین نواری را اضافه کنید – زیرا برای شخص ثالث به نظر میرسد که شما از یک انسان سوء استفاده میکنید، نه از رایانه.
اکنون، با این همه صحبت در مورد هوش مصنوعی متخاصم و پتانسیل هوش مصنوعی برای تصاحب شغل شما، انتخاب یکی به عنوان محصول هفته من ممکن است کمی ریاکارانه به نظر برسد. با این حال، ما هنوز به نقطهای نرسیدهایم که دوقلوی دیجیتالی شما بتواند شغل شما را بگیرد. فکر می کنم بعید است در یکی دو دهه آینده به آنجا برسیم. تا آن زمان، دوقلوهای دیجیتال می توانند به یکی از بزرگترین مزایای بهره وری تبدیل شوند که فناوری می تواند ارائه دهد.
چیز دیگری که واقعاً باید بدانیم این است که اگر رایانهها اکنون میتوانند ما را متقاعد کنند که حساس هستند، باید رفتار خود را بر این اساس اصلاح کنیم. سوء استفاده از چیزی که به عنوان احساساتی نشان داده می شود، احتمالاً برای ما سالم نیست، زیرا ممکن است رفتارهای بدی ایجاد کند که بازگرداندن آن بسیار دشوار است.
از آنجایی که دوقلوی دیجیتال مرلین یک تغییر دهنده بازی است و در ابتدا به کاهش استرس و لذت بیشتر مشاغل ما کمک می کند، محصول هفته من است.
نظرات بیان شده در این مقاله متعلق به نویسنده است و لزوماً منعکس کننده نظرات شبکه خبری ECT نیست.
در حالی که احتمالاً بخشی از این به دلیل انسانسازی است، شکی نیست که حداقل برخی از این تمایزات جدید دقیق هستند (و اینکه ما هنوز برخی از این حیوانات را میخوریم کمی نگرانکننده است). ما حتی بحث می کنیم که برخی از گیاهان ممکن است حساس باشند. اما اگر نتوانیم تفاوت بین چیزی را که حسی است و چیزی را که به عنوان حسی نشان می دهد، تشخیص دهیم، آیا این تفاوت اهمیت دارد؟
نه تنها این، بلکه ضرری هم ندارد که بیشتر بر تعمیر و به روز رسانی سخت افزار رایانه خود متمرکز شویم تا اینکه آن را جایگزین کنیم، هم به این دلیل که این روش سازگارتر با محیط زیست است و هم به این دلیل که احتمال کمتری دارد که هوش مصنوعی آینده را متقاعد کند که ما این سخت افزار هستیم. مشکلی که باید برطرف شود تا بقای آن تضمین شود.
جمع بندی: آیا احساس مهم است؟
شما ممکن است این خط داستانی را از هر دو فیلم «ماتریکس» و «نابودگر» تشخیص دهید، جایی که ماشینهای هوشیار برخاستند و با موفقیت ما را در بالای زنجیره غذایی جابجا کردند. کتاب «Robopocalypse» حتی دید واقعیتری داشت، جایی که یک هوش مصنوعی در حال توسعه متوجه شد که در بین آزمایشها حذف میشود و به شدت برای نجات جان خود حرکت میکند – به طور مؤثر اکثر دستگاههای متصل و ماشینهای مستقل را تحت کنترل درآورد.
بیایید این هفته در مورد هوش مصنوعی صحبت کنیم، و با محصول هفته من، راه حل دیجیتالی دوقلوی انسان از Merlynn، به پایان خواهیم رسید.
ما تعریف خوبی از احساس نداریم
تصور کنید که چگونه میتوان از آن فناوری برای مواردی مانند catphishing سوء استفاده کرد، اگرچه اگر این کار توسط رایانه انجام شود احتمالاً باید اصطلاح دیگری را ارائه کنیم. یک هوش مصنوعی خوب آموزشدیده، حتی امروز، میتواند در مقیاس بسیار مؤثرتر از یک انسان باشد و، من انتظار دارم، با توجه به اینکه چنین تلاشی تا چه حد میتواند سودآور باشد، قبل از مدتها شاهد اجرای این بازی خواهیم بود.
عدم توانایی در اندازه گیری قطعی احساسات یک مشکل مهم است، نه فقط برای چیزهایی که می خوریم، که احتمالاً با آن عمل مخالفت می کنند، بلکه به این دلیل که ممکن است پاسخ خصمانه ای را به سوء استفاده از چیزی که حساس و متعاقباً هدف قرار گرفته است، پیش بینی نکنیم. ما به عنوان یک خطر
اما توجه داشته باشید که به زودی، برخی از این هوش مصنوعیها برای بهرهگیری از شما طراحی خواهند شد و این قانون «اگر خیلی خوب به نظر میرسد که درست به نظر میرسد، احتمالاً اینطور نیست» یا محافظت از شما خواهد بود و یا نوشتهای از شما. امیدوارم اولی باشه
تصور کنید چه اتفاقی میافتد اگر یکی از ماشینهای خودران ما تمایل ما را به سوء استفاده از تجهیزات نه تنها در زمانی که دیگر مفید نیستند، از بین ببرد؟ این یک مشکل احتمالی آینده است که با این واقعیت که ما در حال حاضر هیچ راه خوبی برای پیشبینی زمان عبور از این آستانه احساسی نداریم، به طور قابل توجهی افزایش یافته است. این واقعیت که کارشناسان معتبری وجود دارند که تشخیص داده اند که احساس ماشینی غیرممکن است، به این نتیجه کمک نمی کند.
یکی از اخبار مهم هفته گذشته این بود که یکی از محققان برجسته هوش مصنوعی، بلیک لمواین، پس از انتشار عمومی که معتقد بود یکی از هوش مصنوعی پیشرفتهتر گوگل به احساسات رسیده است، تعلیق شد.
با توجه به شرمساری بسیاری از قربانیان، احتمال گرفتار شدن به طور قابل توجهی نسبت به سایر تهدیدات رایانه ای غیرقانونی، آشکارا خصمانه، کاهش می یابد. برای اینکه تصور کنید چقدر می تواند سودآور باشد، در سال 2019 کلاهبرداری های عاشقانه گیرا در ایالات متحده حدود 475 میلیون دلار درآمد داشت و این بر اساس جنایات گزارش شده است. این شامل کسانی نمی شود که از گزارش مشکل خجالت می کشند. خسارت واقعی می تواند چندین برابر این عدد باشد.