ایمنی جهانی هوش مصنوعی با عدم تصمیم گیری، تاخیرهای نظارتی مانع شده است

دولت‌ها به دنبال ایجاد ضمانت‌های امنیتی پیرامون هوش مصنوعی هستند، اما موانع و بلاتکلیفی، توافق‌های بین‌المللی را در مورد اولویت‌ها و موانعی که باید اجتناب شود، به تأخیر می‌اندازد.

در نوامبر 2023، بریتانیا اعلامیه بلچلی خود را منتشر کرد و با افزایش تلاش‌های جهانی برای همکاری در زمینه ایمنی هوش مصنوعی با 28 کشور از جمله ایالات متحده، چین و اتحادیه اروپا موافقت کرد.

تلاش ها برای پیگیری مقررات ایمنی هوش مصنوعی در ماه مه با دومین اجلاس جهانی هوش مصنوعی ادامه یافت، که طی آن بریتانیا و جمهوری کره تعهدی را از 16 شرکت جهانی فناوری هوش مصنوعی به مجموعه ای از نتایج ایمنی بر اساس آن توافق تضمین کردند.

بریتانیا در بیانیه جداگانه‌ای که همراه با این بیانیه است، گفت: «اعلامیه با ایجاد توافق و مسئولیت مشترک در مورد خطرات، فرصت‌ها و فرآیندی رو به جلو برای همکاری بین‌المللی در زمینه ایمنی و تحقیقات هوش مصنوعی مرزی، به ویژه از طریق همکاری علمی بیشتر، اهداف کلیدی اجلاس سران را برآورده می‌کند».

قانون هوش مصنوعی اتحادیه اروپا که در ماه مه به تصویب رسید، به اولین قانون مهم در جهان تبدیل شد که هوش مصنوعی را تنظیم می کند. این شامل اختیارات اجرایی و مجازات هایی مانند جریمه های 38 میلیون دلاری یا 7 درصد از درآمد جهانی سالانه آنها در صورت نقض قانون توسط شرکت ها است.

به دنبال آن، در پاسخی که اخیراً توسط جانی منتشر شد، یک گروه دو حزبی از سناتورهای آمریکایی پیشنهاد کردند که کنگره 32 میلیارد دلار قانون هزینه های اضطراری برای هوش مصنوعی تهیه کند و گزارشی منتشر کرد مبنی بر اینکه ایالات متحده باید از فرصت های هوش مصنوعی استفاده کند و خطرات را برطرف کند.

«دولت‌ها باید کاملاً در هوش مصنوعی مشارکت داشته باشند، به‌ویژه وقتی صحبت از مسائل امنیت ملی می‌شود. ما باید از فرصت های هوش مصنوعی استفاده کنیم، اما مراقب خطرات نیز باشیم. جوزف تاکر، مهندس اصلی هوش مصنوعی و محقق امنیتی در شرکت امنیتی SaaS AppOmni، به TechNewsWorld گفت: تنها راه دولت‌ها برای انجام این کار، اطلاع‌رسانی است و اطلاع‌رسانی به زمان و هزینه زیادی نیاز دارد.

ایمنی هوش مصنوعی برای پلتفرم های SaaS ضروری است

اهمیت ایمنی هوش مصنوعی هر روز در حال افزایش است. Thacker خاطرنشان کرد: تقریباً هر محصول نرم افزاری، از جمله برنامه های کاربردی هوش مصنوعی، اکنون به عنوان یک برنامه نرم افزاری به عنوان سرویس (SaaS) ساخته شده است. در نتیجه، اطمینان از امنیت و یکپارچگی این پلتفرم‌های SaaS بسیار مهم خواهد بود.

ما به اقدامات امنیتی قوی برای برنامه های SaaS نیاز داریم. سرمایه گذاری در امنیت SaaS باید اولویت اصلی هر شرکتی باشد که هوش مصنوعی را توسعه می دهد یا به کار می گیرد.

فروشندگان موجود SaaS هوش مصنوعی را به همه چیز اضافه می کنند و ریسک بیشتری را معرفی می کنند. او گفت که سازمان های دولتی باید این را در نظر بگیرند.

پاسخ ایالات متحده به نیازهای ایمنی هوش مصنوعی

تاکر از دولت ایالات متحده می‌خواهد که رویکردی سریع‌تر و آگاهانه‌تر برای رویارویی با واقعیت‌های استانداردهای ایمنی از دست رفته هوش مصنوعی اتخاذ کند. با این حال، او تعهد 16 شرکت بزرگ هوش مصنوعی را در اولویت قرار دادن ایمنی و استقرار مسئولانه مدل‌های هوش مصنوعی مرزی ستایش کرد.

“این نشان دهنده آگاهی رو به رشد از خطرات هوش مصنوعی و تمایل به تعهد برای کاهش آنها است. با این حال، آزمون واقعی این خواهد بود که این شرکت‌ها تا چه اندازه به تعهدات خود عمل می‌کنند و تا چه حد در اقدامات ایمنی خود شفاف هستند.»

با این حال، ستایش او در دو زمینه کلیدی کم بود. او هیچ اشاره ای به پیامدها یا مشوق های همسویی ندید. وی افزود که هر دو بسیار مهم هستند.

به گفته تاکر، الزام شرکت‌های هوش مصنوعی به انتشار چارچوب‌های ایمنی نشان‌دهنده مسئولیت‌پذیری است که بینشی در مورد کیفیت و عمق آزمایش آنها ارائه می‌دهد. شفافیت امکان بررسی عمومی را فراهم می کند.

او مشاهده کرد: “همچنین ممکن است به اشتراک گذاری دانش و توسعه بهترین شیوه ها در سراسر صنعت مجبور شود.”

ثکر همچنین خواهان اقدام قانونی سریعتر در این زمینه است. با این حال، او فکر می کند که با توجه به کندی حرکت مقامات آمریکایی در آینده نزدیک، یک حرکت مهم برای دولت ایالات متحده چالش برانگیز خواهد بود.

او گفت: «یک گروه دو حزبی که برای ارائه این توصیه‌ها گرد هم می‌آیند، امیدواریم گفت‌وگوهای زیادی را آغاز کند.

هنوز ناشناخته ها در مقررات هوش مصنوعی پیمایش می شوند

ملیسا روزی، مدیر هوش مصنوعی در AppOmni با این نظر موافق بود که نشست جهانی هوش مصنوعی یک گام بزرگ به جلو در حفاظت از تکامل هوش مصنوعی بود. مقررات کلیدی هستند.

او به TechNewsWorld گفت: «اما قبل از اینکه بتوانیم به تنظیم مقررات فکر کنیم، باید اکتشافات بیشتری انجام شود.

او افزود، اینجاست که همکاری بین شرکت‌های صنعت هوش مصنوعی برای پیوستن داوطلبانه به طرح‌های ایمنی هوش مصنوعی بسیار مهم است.

«تعیین آستانه ها و اقدامات عینی اولین چالشی است که باید بررسی شود. من فکر نمی‌کنم که هنوز آماده تنظیم آن‌ها برای حوزه هوش مصنوعی به عنوان یک کل نیستیم.

بررسی و داده‌های بیشتری لازم است تا بررسی کنیم که اینها چه می‌توانند باشند. Ruzzi اضافه کرد که یکی از بزرگترین چالش‌ها این است که مقررات هوش مصنوعی همگام با پیشرفت‌های فناوری بدون اینکه مانعی برای آنها ایجاد کند، پیش می‌رود.

با تعریف آسیب هوش مصنوعی شروع کنید

به گفته دیوید براچلر، مشاور امنیتی اصلی در گروه NCC، دولت ها باید تعاریف آسیب را به عنوان نقطه شروع در تنظیم دستورالعمل های هوش مصنوعی در نظر بگیرند.

با رایج‌تر شدن فناوری هوش مصنوعی، ممکن است تغییری در طبقه‌بندی ریسک هوش مصنوعی از ظرفیت محاسباتی آموزشی آن ایجاد شود. این استاندارد بخشی از فرمان اجرایی اخیر ایالات متحده بود.

در عوض، این تغییر ممکن است به سمت آسیب ملموسی که هوش مصنوعی در زمینه اجرای خود وارد می کند، تبدیل شود. وی خاطرنشان کرد که قوانین مختلف به این امکان اشاره دارد.

براچلر به TechNewsWorld گفت: «به عنوان مثال، یک سیستم هوش مصنوعی که چراغ‌های راهنمایی را کنترل می‌کند، باید اقدامات ایمنی بسیار بیشتری را نسبت به یک دستیار خرید در نظر بگیرد، حتی اگر دومی برای آموزش به قدرت محاسباتی بیشتری نیاز داشته باشد.

تاکنون، دیدگاه روشنی از اولویت‌های مقررات برای توسعه و استفاده از هوش مصنوعی وجود ندارد. دولت ها باید تأثیر واقعی بر مردم را در نحوه اجرای این فناوری ها در اولویت قرار دهند. او مشاهده کرد که قانون نباید برای پیش بینی آینده بلندمدت یک فناوری به سرعت در حال تغییر تلاش کند.

اگر خطری از فناوری‌های هوش مصنوعی پدیدار شود، دولت‌ها می‌توانند پس از مشخص شدن اطلاعات، به آن واکنش نشان دهند. براخلر تصریح کرد که تلاش برای از پیش قانونی کردن این تهدیدها احتمالاً تیری در تاریکی است.

او گفت: «اما اگر به دنبال جلوگیری از آسیب به افراد از طریق قوانین هدفمند باشیم، لازم نیست پیش‌بینی کنیم که چگونه هوش مصنوعی در شکل یا مد در آینده تغییر می‌کند.

ایجاد تعادل در کنترل دولتی، نظارت قانونی

هکر هنگام تنظیم هوش مصنوعی تعادل دشواری بین کنترل و نظارت می بیند. نتیجه نباید خفه کردن نوآوری با قوانین سنگین یا تکیه صرف بر خود تنظیمی شرکت باشد.

“من معتقدم که یک چارچوب نظارتی ساده همراه با مکانیسم‌های نظارتی با کیفیت بالا راهی است که باید طی شود. دولت‌ها باید حفاظ‌هایی را تعیین کنند و انطباق را اجرا کنند و در عین حال اجازه دهند توسعه مسئولانه ادامه یابد.»

تاکر تشابهاتی بین فشار برای مقررات هوش مصنوعی و پویایی در مورد سلاح های هسته ای می بیند. او هشدار داد که کشورهایی که به تسلط هوش مصنوعی دست می یابند می توانند از مزایای اقتصادی و نظامی قابل توجهی برخوردار شوند.

این امر انگیزه هایی را برای کشورها ایجاد می کند تا به سرعت قابلیت های هوش مصنوعی را توسعه دهند. با این حال، همکاری جهانی در زمینه ایمنی هوش مصنوعی نسبت به سلاح‌های هسته‌ای امکان‌پذیرتر است، زیرا ما تأثیرات شبکه‌ای بیشتری با اینترنت و رسانه‌های اجتماعی داریم.»

منبع