هنگامی که آسیب در مقیاس انجام شود، مسئولیت متوجه کسانی خواهد شد که عمدا یا غیر عمد خسارت را ایجاد کرده اند، درست مانند کسانی که از روی عمد یا تصادفی آتش سوزی در جنگل ها را ایجاد می کنند.
مردم تمام تلاش خود را می کنند تا این فناوری جدید رفتار بدی داشته باشد تا نشان دهند که هوش مصنوعی آماده نیست. اما اگر کودکی را با رفتارهای توهین آمیز مشابه بزرگ کنید، احتمالاً آن کودک نیز دچار نقص هایی می شود. تفاوت در مدت زمانی که طول کشید تا رفتار توهینآمیز ظاهر شود و میزان آسیبی است که منجر میشود.
شاید ما باید با جدیت بیشتری از این ابزارهای جدید محافظت کرده و آنها را پرورش دهیم، قبل از اینکه به حدی بالغ شوند که باید علیه ما برای محافظت از خود عمل کنند.
بیایید خطرات مرتبط با سوء استفاده از Gen AI را بررسی کنیم. سپس با محصول هفته من، مجموعهای سه کتاب جدید از جان پدی با عنوان «تاریخچه GPU – مراحل اختراع» به پایان میرسانیم. این مجموعه تاریخچه واحد پردازش گرافیکی (GPU) را پوشش می دهد، که به فناوری پایه ای برای هوش مصنوعی مانند آنچه در این هفته صحبت می کنیم، تبدیل شده است.
تربیت فرزندان الکترونیکی ما
اهداف جمعی ما باید این باشد که به این هوش مصنوعی ها کمک کنیم تا به ابزار مفیدی تبدیل شوند، نه اینکه آنها را در تلاشی نادرست برای اطمینان از ارزش و ارزش خودمان بشکنیم یا فاسد کنیم.
پردازندههای گرافیکی که اغلب سریعتر از سرعت CPU اندازهگیری شده توسط قانون مور پیشرفت میکنند، به بخش مهمی از نحوه توسعه دستگاههای هوشمندتر ما تبدیل شدهاند و چرا آنها به روشی که انجام میدهند کار میکنند. درک اینکه چگونه این فناوری به بازار عرضه شد و سپس در طول زمان پیشرفت کرد، به ارائه پایه ای برای نحوه توسعه اولیه هوش مصنوعی کمک می کند و به توضیح مزایا و محدودیت های منحصر به فرد آنها کمک می کند.
هوش مصنوعی اصطلاح بدی است. چیزی یا باهوش است یا خیر، بنابراین تلویحا این که یک چیز الکترونیکی نمی تواند واقعاً باهوش باشد به همان اندازه کوته بینی است که فرض کنیم حیوانات نمی توانند باهوش باشند.
این ایده که از هر ابزاری می توان سوء استفاده کرد، جدید نیست، اما با هوش مصنوعی یا هر ابزار خودکار، احتمال آسیب به مراتب بیشتر است. در حالی که ممکن است ما هنوز ندانیم مسئولیت ناشی از آن در حال حاضر کجاست، اما کاملاً واضح است که با توجه به احکام گذشته، در نهایت با هر کسی که باعث به کار انداختن ابزار اشتباه شود، خواهد بود. هوش مصنوعی به زندان نمی رود. با این حال، شخصی که برنامهریزی کرده یا بر آن تأثیر گذاشته است تا به آن آسیب برساند، احتمالاً این کار را خواهد کرد.
به طور خلاصه، ما هنوز نمی دانیم که یک هوش مصنوعی آینده چه طیفی از پاسخ های تنبیهی را در برابر یک بازیگر بد انجام می دهد، که نشان می دهد کسانی که عمداً به این ابزارها آسیب می رسانند ممکن است با یک پاسخ هوش مصنوعی نهایی روبرو شوند که می تواند فراتر از هر چیزی باشد که ما به طور واقع بینانه پیش بینی کنیم.
اگر اصطلاح بد را کنار بگذاریم، این هوش مصنوعی های آینده به نوعی فرزندان جامعه ما هستند و این وظیفه ماست که از آنها مراقبت کنیم، همانطور که برای اطمینان از نتیجه مثبت از آنها مراقبت می کنیم.
تبلیغات