هوش مصنوعی مولد نابالغ است، ما نباید از آن سوء استفاده کنیم

هنگامی که آسیب در مقیاس انجام شود، مسئولیت متوجه کسانی خواهد شد که عمدا یا غیر عمد خسارت را ایجاد کرده اند، درست مانند کسانی که از روی عمد یا تصادفی آتش سوزی در جنگل ها را ایجاد می کنند.

مردم تمام تلاش خود را می کنند تا این فناوری جدید رفتار بدی داشته باشد تا نشان دهند که هوش مصنوعی آماده نیست. اما اگر کودکی را با رفتارهای توهین آمیز مشابه بزرگ کنید، احتمالاً آن کودک نیز دچار نقص هایی می شود. تفاوت در مدت زمانی که طول کشید تا رفتار توهین‌آمیز ظاهر شود و میزان آسیبی است که منجر می‌شود.

شاید ما باید با جدیت بیشتری از این ابزارهای جدید محافظت کرده و آنها را پرورش دهیم، قبل از اینکه به حدی بالغ شوند که باید علیه ما برای محافظت از خود عمل کنند.

بیایید خطرات مرتبط با سوء استفاده از Gen AI را بررسی کنیم. سپس با محصول هفته من، مجموعه‌ای سه کتاب جدید از جان پدی با عنوان «تاریخچه GPU – مراحل اختراع» به پایان می‌رسانیم. این مجموعه تاریخچه واحد پردازش گرافیکی (GPU) را پوشش می دهد، که به فناوری پایه ای برای هوش مصنوعی مانند آنچه در این هفته صحبت می کنیم، تبدیل شده است.

تربیت فرزندان الکترونیکی ما

اهداف جمعی ما باید این باشد که به این هوش مصنوعی ها کمک کنیم تا به ابزار مفیدی تبدیل شوند، نه اینکه آنها را در تلاشی نادرست برای اطمینان از ارزش و ارزش خودمان بشکنیم یا فاسد کنیم.

پردازنده‌های گرافیکی که اغلب سریع‌تر از سرعت CPU اندازه‌گیری شده توسط قانون مور پیشرفت می‌کنند، به بخش مهمی از نحوه توسعه دستگاه‌های هوشمندتر ما تبدیل شده‌اند و چرا آنها به روشی که انجام می‌دهند کار می‌کنند. درک اینکه چگونه این فناوری به بازار عرضه شد و سپس در طول زمان پیشرفت کرد، به ارائه پایه ای برای نحوه توسعه اولیه هوش مصنوعی کمک می کند و به توضیح مزایا و محدودیت های منحصر به فرد آنها کمک می کند.

هوش مصنوعی اصطلاح بدی است. چیزی یا باهوش است یا خیر، بنابراین تلویحا این که یک چیز الکترونیکی نمی تواند واقعاً باهوش باشد به همان اندازه کوته بینی است که فرض کنیم حیوانات نمی توانند باهوش باشند.

این ایده که از هر ابزاری می توان سوء استفاده کرد، جدید نیست، اما با هوش مصنوعی یا هر ابزار خودکار، احتمال آسیب به مراتب بیشتر است. در حالی که ممکن است ما هنوز ندانیم مسئولیت ناشی از آن در حال حاضر کجاست، اما کاملاً واضح است که با توجه به احکام گذشته، در نهایت با هر کسی که باعث به کار انداختن ابزار اشتباه شود، خواهد بود. هوش مصنوعی به زندان نمی رود. با این حال، شخصی که برنامه‌ریزی کرده یا بر آن تأثیر گذاشته است تا به آن آسیب برساند، احتمالاً این کار را خواهد کرد.

به طور خلاصه، ما هنوز نمی دانیم که یک هوش مصنوعی آینده چه طیفی از پاسخ های تنبیهی را در برابر یک بازیگر بد انجام می دهد، که نشان می دهد کسانی که عمداً به این ابزارها آسیب می رسانند ممکن است با یک پاسخ هوش مصنوعی نهایی روبرو شوند که می تواند فراتر از هر چیزی باشد که ما به طور واقع بینانه پیش بینی کنیم.

اگر اصطلاح بد را کنار بگذاریم، این هوش مصنوعی های آینده به نوعی فرزندان جامعه ما هستند و این وظیفه ماست که از آنها مراقبت کنیم، همانطور که برای اطمینان از نتیجه مثبت از آنها مراقبت می کنیم.

تبلیغات

با NICE Enlighten XO سریع خود سرویس هوشمند بسازید

شما می توانید استدلال کنید که چون اینها ماشین هستند، ما باید با آنها رفتاری اخلاقی و همدلانه داشته باشیم. بدون آن، این سیستم‌ها می‌توانند آسیب‌های گسترده‌ای را وارد کنند که می‌تواند ناشی از رفتار سوء استفاده‌کننده ما باشد. نه به این دلیل که ماشین‌ها انتقام جو هستند، حداقل هنوز، بلکه به این دلیل که ما آنها را طوری برنامه‌ریزی کرده‌ایم که آسیب بزنند.

به طور خلاصه، اگر به تهدید ادامه دهیم، مانند هر اطلاعات دیگری، هوش مصنوعی برای از بین بردن تهدید تلاش خواهد کرد. ما هنوز نمی دانیم که این روند حذف چیست. با این حال، ما آن را در چیزهایی مانند «نابودگر» و «انیماتریکس» تصور کرده‌ایم – مجموعه‌ای از انیمیشن‌های کوتاه که توضیح می‌دهند چگونه سوءاستفاده مردم از ماشین‌ها باعث ایجاد دنیای «ماتریکس» شد. بنابراین، ما باید ایده خوبی داشته باشیم که چگونه نمی خواهیم این اتفاق بیفتد.

اگر قبلاً اینطور نیست، من انتظار دارم که در نهایت سوءاستفاده عمدی از هوش مصنوعی غیرقانونی باشد (ممکن است برخی از قوانین موجود حمایت از مصرف کننده اعمال شود). نه به دلیل برخی از واکنش های همدلانه به این سوء استفاده – هرچند که خوب است – بلکه به این دلیل که آسیب ناشی از آن می تواند قابل توجه باشد.

نظرات بیان شده در این مقاله متعلق به نویسنده است و لزوماً منعکس کننده نظرات شبکه خبری ECT نیست.



منبع

اگر شما هم مانند من هستید، دیده اید که والدین از فرزندان خود سوء استفاده کرده یا آنها را تحقیر می کنند زیرا فکر می کنند این کودکان از آنها پیشی خواهند گرفت. این یک مشکل است، اما آن بچه‌ها قدرت یا قدرتی که ممکن است هوش مصنوعی داشته باشد را نخواهند داشت. با این حال، به نظر می رسد ما به عنوان یک جامعه بسیار مایل به تحمل این رفتار در صورتی که با هوش مصنوعی انجام شود، هستیم.

ژنرال هوش مصنوعی آماده نیست

از ابزارها می توان سوء استفاده کرد. می‌توانید چیزهای بدی را روی ماشین تحریر تایپ کنید، از پیچ گوشتی می‌توان برای کشتن یک نفر استفاده کرد، و ماشین‌ها به عنوان سلاح‌های مرگبار طبقه‌بندی می‌شوند و در صورت سوء استفاده، باعث مرگ می‌شوند – همانطور که در آگهی Super Bowl امسال نشان داده شد که پلتفرم خودران بیش از حد وعده داده شده تسلا را به‌عنوان بسیار خطرناک نشان می‌دهد. .

این ابزارهای هوش مصنوعی باید راه‌هایی برای محافظت از خود در برابر سوء استفاده ایجاد کنند، زیرا به نظر نمی‌رسد که ما در برابر وسوسه سوء استفاده از آنها مقاومت کنیم و نمی‌دانیم که این کاهش چه چیزی به دنبال خواهد داشت. این می تواند یک پیشگیری ساده باشد، اما می تواند بسیار تنبیه کننده نیز باشد.

با پیشرفت این هوش مصنوعی ها، منطقی است که تصور کنیم راه هایی برای محافظت از خود در برابر عوامل بد یا از طریق شناسایی و گزارش دهی یا روش های سخت گیرانه تر که به طور جمعی برای از بین بردن تهدید به صورت تنبیهی کار می کنند، ایجاد کنند.