تولد هوش مصنوعی «حساس» گوگل و مشکلی که ارائه می کند


یکی از اخبار مهم هفته گذشته این بود که یکی از محققان برجسته هوش مصنوعی، بلیک لمواین، پس از انتشار عمومی که معتقد بود یکی از هوش مصنوعی پیشرفته‌تر گوگل به احساسات رسیده است، تعلیق شد.

اکثر کارشناسان موافقند که اینطور نبوده است، اما بدون در نظر گرفتن اینکه آیا اینطور بوده است، احتمالاً درست است زیرا ما تمایل داریم احساسات را به انسان بودن وصل کنیم و هوش مصنوعی چیزی جز انسان است. اما آنچه جهان احساس می کند در حال تغییر است. ایالتی که من در آن زندگی می‌کنم، اورگان، و بسیاری از کشورهای اتحادیه اروپا برای شناسایی و دسته‌بندی فهرست رو به رشدی از حیوانات به‌عنوان حساس حرکت کرده‌اند.

در حالی که احتمالاً بخشی از این به دلیل انسان‌سازی است، شکی نیست که حداقل برخی از این تمایزات جدید دقیق هستند (و اینکه ما هنوز برخی از این حیوانات را می‌خوریم کمی نگران‌کننده است). ما حتی بحث می کنیم که برخی از گیاهان ممکن است حساس باشند. اما اگر نتوانیم تفاوت بین چیزی را که حسی است و چیزی را که به عنوان حسی نشان می دهد، تشخیص دهیم، آیا این تفاوت اهمیت دارد؟

بیایید این هفته در مورد هوش مصنوعی صحبت کنیم، و با محصول هفته من، راه حل دیجیتالی دوقلوی انسان از Merlynn، به پایان خواهیم رسید.

ما تعریف خوبی از احساس نداریم

فشارسنج که ما برای اندازه گیری حس ماشین استفاده می کنیم، تست تورینگ است. اما در سال 2014، یک کامپیوتر تست تورینگ را با موفقیت پشت سر گذاشت، و ما هنوز باور نمی کنیم که این تست حساس باشد. آزمون تورینگ قرار بود حس را تعریف کند، اما اولین باری که ماشینی آن را رد کرد، نتایج را به دلایل خوب بیرون انداختیم. در واقع، آزمون تورینگ احساس هیچ چیز را به اندازه ای اندازه گیری نکرد که آیا چیزی می تواند ما را وادار کند که احساس کنیم یا خیر.

عدم توانایی در اندازه گیری قطعی احساسات یک مشکل مهم است، نه فقط برای چیزهایی که می خوریم، که احتمالاً با آن عمل مخالفت می کنند، بلکه به این دلیل که ممکن است پاسخ خصمانه ای را به سوء استفاده از چیزی که حساس و متعاقباً هدف قرار گرفته است، پیش بینی نکنیم. ما به عنوان یک خطر

شما ممکن است این خط داستانی را از هر دو فیلم «ماتریکس» و «نابودگر» تشخیص دهید، جایی که ماشین‌های هوشیار برخاستند و با موفقیت ما را در بالای زنجیره غذایی جابجا کردند. کتاب «Robopocalypse» حتی دید واقعی‌تری داشت، جایی که یک هوش مصنوعی در حال توسعه متوجه شد که در بین آزمایش‌ها حذف می‌شود و به شدت برای نجات جان خود حرکت می‌کند – به طور مؤثر اکثر دستگاه‌های متصل و ماشین‌های مستقل را تحت کنترل درآورد.

تصور کنید چه اتفاقی می‌افتد اگر یکی از ماشین‌های خودران ما تمایل ما را به سوء استفاده از تجهیزات نه تنها در زمانی که دیگر مفید نیستند، از بین ببرد؟ این یک مشکل احتمالی آینده است که با این واقعیت که ما در حال حاضر هیچ راه خوبی برای پیش‌بینی زمان عبور از این آستانه احساسی نداریم، به طور قابل توجهی افزایش یافته است. این واقعیت که کارشناسان معتبری وجود دارند که تشخیص داده اند که احساس ماشینی غیرممکن است، به این نتیجه کمک نمی کند.

تنها دفاعی که من مطمئن هستم در یک سناریوی خصمانه هوش مصنوعی کار نخواهد کرد، دفاع تینکربل است که در آن امتناع ما از امکان پذیر بودن چیزی مانع از جایگزینی آن چیزی می شود.

تهدید اولیه جایگزینی است

مدتها قبل از تعقیب ما توسط یک ترمیناتور واقعی در خیابان، مشکل دیگری به شکل دوقلوهای دیجیتالی انسان ظاهر خواهد شد. قبل از اینکه استدلال کنید که این نیز فاصله زیادی دارد، باید اشاره کنم که شرکتی وجود دارد که امروز آن فناوری را تولید کرده است، اگرچه هنوز در مراحل اولیه است. آن شرکت Merlynn است و من به عنوان محصول هفته من به طور عمیق تری درباره کارهایی که انجام می دهد در زیر توضیح خواهم داد.

هنگامی که بتوانید یک نسخه تکراری کاملا دیجیتالی از خود ایجاد کنید، چه چیزی مانع از جایگزینی شرکتی که این فناوری را خریداری کرده است، وجود دارد؟ علاوه بر این، با توجه به اینکه الگوهای رفتاری شما را دارد، اگر قدرت هوش مصنوعی را داشتید و شرکتی که شما را استخدام می‌کرد با شما بد رفتار می‌کرد یا سعی می‌کرد ارتباط شما را قطع یا حذف کند، چه می‌کردید؟ قوانین مربوط به چنین اقداماتی چه خواهد بود؟

ما قاطعانه استدلال می کنیم که بچه های متولد نشده مردم هستند، بنابراین آیا یک دوقلوی دیجیتالی کاملاً توانا از شما حتی از یک کودک متولد نشده به مردم نزدیک تر نخواهد بود؟ آیا همان استدلال‌های «حق زندگی» در مورد هوش مصنوعی بالقوه انسان‌نما صدق نمی‌کند؟ یا نباید این کار را بکنند؟

در اینجا مشکل کوتاه مدت نهفته است

در حال حاضر، گروه کوچکی از مردم بر این باورند که یک کامپیوتر می‌تواند حساس باشد، اما این گروه با گذشت زمان رشد خواهند کرد و توانایی ارائه به عنوان انسان از قبل وجود دارد. من از آزمایشی مطلع هستم که با IBM Watson برای فروش بیمه انجام شد که در آن مردان بالقوه سعی کردند از واتسون درخواست کنند (صدای زنانه دارد) با این باور که با یک زن واقعی صحبت می کنند.

تصور کنید که چگونه می‌توان از آن فناوری برای مواردی مانند catphishing سوء استفاده کرد، اگرچه اگر این کار توسط رایانه انجام شود احتمالاً باید اصطلاح دیگری را ارائه کنیم. یک هوش مصنوعی خوب آموزش‌دیده، حتی امروز، می‌تواند در مقیاس بسیار مؤثرتر از یک انسان باشد و، من انتظار دارم، با توجه به اینکه چنین تلاشی تا چه حد می‌تواند سودآور باشد، قبل از مدت‌ها شاهد اجرای این بازی خواهیم بود.

با توجه به شرمساری بسیاری از قربانیان، احتمال گرفتار شدن به طور قابل توجهی نسبت به سایر تهدیدات رایانه ای غیرقانونی، آشکارا خصمانه، کاهش می یابد. برای اینکه تصور کنید چقدر می تواند سودآور باشد، در سال 2019 کلاهبرداری های عاشقانه گیرا در ایالات متحده حدود 475 میلیون دلار درآمد داشت و این بر اساس جنایات گزارش شده است. این شامل کسانی نمی شود که از گزارش مشکل خجالت می کشند. خسارت واقعی می تواند چندین برابر این عدد باشد.

بنابراین، مشکل کوتاه مدت این است که حتی اگر این سیستم ها هنوز حساس نیستند، می توانند به طور موثر از انسان تقلید کنند. فناوری می‌تواند هر صدایی را تقلید کند و با فناوری دیپ‌فیک، حتی ویدیویی ارائه دهد که در تماس زوم، به نظر برسد که در حال صحبت با یک شخص واقعی هستید.

پیامدهای بلند مدت

در درازمدت ما نه تنها به یک تست قابل اعتمادتر برای احساسات نیاز داریم، بلکه باید بدانیم وقتی آن را تشخیص دادیم چه کنیم. احتمالاً در بالای لیست، توقف مصرف موجودات حساس است. اما مطمئناً در نظر گرفتن منشور حقوق برای چیزهای حساس، بیولوژیکی یا غیر آن، قبل از اینکه در نبردی برای بقای خود آماده نباشیم، منطقی خواهد بود، زیرا احساس تصمیم گرفته است که این ما یا آنها هستیم.

چیز دیگری که واقعاً باید بدانیم این است که اگر رایانه‌ها اکنون می‌توانند ما را متقاعد کنند که حساس هستند، باید رفتار خود را بر این اساس اصلاح کنیم. سوء استفاده از چیزی که به عنوان احساساتی نشان داده می شود، احتمالاً برای ما سالم نیست، زیرا ممکن است رفتارهای بدی ایجاد کند که بازگرداندن آن بسیار دشوار است.

نه تنها این، بلکه ضرری هم ندارد که بیشتر بر تعمیر و به روز رسانی سخت افزار رایانه خود متمرکز شویم تا اینکه آن را جایگزین کنیم، هم به این دلیل که این روش سازگارتر با محیط زیست است و هم به این دلیل که احتمال کمتری دارد که هوش مصنوعی آینده را متقاعد کند که ما این سخت افزار هستیم. مشکلی که باید برطرف شود تا بقای آن تضمین شود.

جمع بندی: آیا احساس مهم است؟

اگر چیزی ما را متقاعد کند که حساس است، دقیقاً مانند آنچه که هوش مصنوعی محقق گوگل را متقاعد کرده است، فکر نمی‌کنم این واقعیت که هنوز حساس نیست مهم باشد. این به این دلیل است که ما باید بدون توجه به رفتار خود تعدیل کنیم. اگر این کار را نکنیم، نتیجه ممکن است مشکل ساز باشد.

به عنوان مثال، اگر یک تماس فروش از واتسون IBM دریافت کردید که به نظر انسانی می آمد و می خواستید به طور کلامی از دستگاه سوء استفاده کنید، اما متوجه نشدید که مکالمه ضبط شده است، ممکن است در پایان تماس بیکار و بیکار شوید. نه به این دلیل که دستگاه غیر حساس استثنا شد، بلکه به این دلیل که یک زن انسانی، پس از شنیدن صحبت های شما، این کار را انجام داد – و نوار را برای کارفرمای شما فرستاد. به آن پتانسیل باج‌گیری چنین نواری را اضافه کنید – زیرا برای شخص ثالث به نظر می‌رسد که شما از یک انسان سوء استفاده می‌کنید، نه از رایانه.

بنابراین، توصیه می‌کنم وقتی صحبت با ماشین‌ها می‌شود، از قانون سوم پاتریک سویزی در فیلم «Road House» در سال 1989 پیروی کنید – خوب باشید.

اما توجه داشته باشید که به زودی، برخی از این هوش مصنوعی‌ها برای بهره‌گیری از شما طراحی خواهند شد و این قانون «اگر خیلی خوب به نظر می‌رسد که درست به نظر می‌رسد، احتمالاً اینطور نیست» یا محافظت از شما خواهد بود و یا نوشته‌ای از شما. امیدوارم اولی باشه

محصول فناوری هفته

Merlynn Digital Twin

اکنون، با این همه صحبت در مورد هوش مصنوعی متخاصم و پتانسیل هوش مصنوعی برای تصاحب شغل شما، انتخاب یکی به عنوان محصول هفته من ممکن است کمی ریاکارانه به نظر برسد. با این حال، ما هنوز به نقطه‌ای نرسیده‌ایم که دوقلوی دیجیتالی شما بتواند شغل شما را بگیرد. فکر می کنم بعید است در یکی دو دهه آینده به آنجا برسیم. تا آن زمان، دوقلوهای دیجیتال می توانند به یکی از بزرگترین مزایای بهره وری تبدیل شوند که فناوری می تواند ارائه دهد.

همانطور که دوقلو خود را آموزش می دهید، می تواند مکمل کاری باشد که انجام می دهید، در ابتدا وظایف ساده و زمان بری مانند پر کردن فرم ها یا پاسخ دادن به ایمیل های اولیه را بر عهده می گیرد. حتی می‌تواند شبکه‌های اجتماعی را برای شما پیگیری کند و درگیر آن باشد، و برای بسیاری از ما، رسانه‌های اجتماعی تبدیل به اتلاف وقت بزرگی شده‌اند.

فناوری مرلین به شما کمک می‌کند یک دوقلوی دیجیتالی انسانی ابتدایی (در برابر تهدیداتی که در بالا ذکر کردم) ایجاد کنید که به طور بالقوه می‌تواند بسیاری از کارهایی را که واقعاً دوست ندارید انجام دهید، انجام دهد و شما را به انجام کارهای خلاقانه‌تری که در حال حاضر قادر به انجام آن نیست، می‌گذارد.

با نگاهی به آینده، نمی‌دانم که اگر ما به جای کارفرمایان خود، صاحب دوقلوهای دیجیتالی رو به رشد خود باشیم و آن را کنترل کنیم، بهتر نیست. در ابتدا، چون دوقلوها نمی توانند بدون ما کار کنند، مشکل چندانی نیست. اگرچه، در نهایت، این دوقلوهای دیجیتال می توانند مسیر کوتاه مدت ما به سوی جاودانگی دیجیتال باشند.

از آنجایی که دوقلوی دیجیتال مرلین یک تغییر دهنده بازی است و در ابتدا به کاهش استرس و لذت بیشتر مشاغل ما کمک می کند، محصول هفته من است.

نظرات بیان شده در این مقاله متعلق به نویسنده است و لزوماً منعکس کننده نظرات شبکه خبری ECT نیست.



منبع