دولتها به دنبال ایجاد ضمانتهای امنیتی پیرامون هوش مصنوعی هستند، اما موانع و بلاتکلیفی، توافقهای بینالمللی را در مورد اولویتها و موانعی که باید اجتناب شود، به تأخیر میاندازد.
در نوامبر 2023، بریتانیا اعلامیه بلچلی خود را منتشر کرد و با افزایش تلاشهای جهانی برای همکاری در زمینه ایمنی هوش مصنوعی با 28 کشور از جمله ایالات متحده، چین و اتحادیه اروپا موافقت کرد.
تلاش ها برای پیگیری مقررات ایمنی هوش مصنوعی در ماه مه با دومین اجلاس جهانی هوش مصنوعی ادامه یافت، که طی آن بریتانیا و جمهوری کره تعهدی را از 16 شرکت جهانی فناوری هوش مصنوعی به مجموعه ای از نتایج ایمنی بر اساس آن توافق تضمین کردند.
بریتانیا در بیانیه جداگانهای که همراه با این بیانیه است، گفت: «اعلامیه با ایجاد توافق و مسئولیت مشترک در مورد خطرات، فرصتها و فرآیندی رو به جلو برای همکاری بینالمللی در زمینه ایمنی و تحقیقات هوش مصنوعی مرزی، به ویژه از طریق همکاری علمی بیشتر، اهداف کلیدی اجلاس سران را برآورده میکند».
قانون هوش مصنوعی اتحادیه اروپا که در ماه مه به تصویب رسید، به اولین قانون مهم در جهان تبدیل شد که هوش مصنوعی را تنظیم می کند. این شامل اختیارات اجرایی و مجازات هایی مانند جریمه های 38 میلیون دلاری یا 7 درصد از درآمد جهانی سالانه آنها در صورت نقض قانون توسط شرکت ها است.
به دنبال آن، در پاسخی که اخیراً توسط جانی منتشر شد، یک گروه دو حزبی از سناتورهای آمریکایی پیشنهاد کردند که کنگره 32 میلیارد دلار قانون هزینه های اضطراری برای هوش مصنوعی تهیه کند و گزارشی منتشر کرد مبنی بر اینکه ایالات متحده باید از فرصت های هوش مصنوعی استفاده کند و خطرات را برطرف کند.
«دولتها باید کاملاً در هوش مصنوعی مشارکت داشته باشند، بهویژه وقتی صحبت از مسائل امنیت ملی میشود. ما باید از فرصت های هوش مصنوعی استفاده کنیم، اما مراقب خطرات نیز باشیم. جوزف تاکر، مهندس اصلی هوش مصنوعی و محقق امنیتی در شرکت امنیتی SaaS AppOmni، به TechNewsWorld گفت: تنها راه دولتها برای انجام این کار، اطلاعرسانی است و اطلاعرسانی به زمان و هزینه زیادی نیاز دارد.
ایمنی هوش مصنوعی برای پلتفرم های SaaS ضروری است
اهمیت ایمنی هوش مصنوعی هر روز در حال افزایش است. Thacker خاطرنشان کرد: تقریباً هر محصول نرم افزاری، از جمله برنامه های کاربردی هوش مصنوعی، اکنون به عنوان یک برنامه نرم افزاری به عنوان سرویس (SaaS) ساخته شده است. در نتیجه، اطمینان از امنیت و یکپارچگی این پلتفرمهای SaaS بسیار مهم خواهد بود.
ما به اقدامات امنیتی قوی برای برنامه های SaaS نیاز داریم. سرمایه گذاری در امنیت SaaS باید اولویت اصلی هر شرکتی باشد که هوش مصنوعی را توسعه می دهد یا به کار می گیرد.
فروشندگان موجود SaaS هوش مصنوعی را به همه چیز اضافه می کنند و ریسک بیشتری را معرفی می کنند. او گفت که سازمان های دولتی باید این را در نظر بگیرند.
پاسخ ایالات متحده به نیازهای ایمنی هوش مصنوعی
تاکر از دولت ایالات متحده میخواهد که رویکردی سریعتر و آگاهانهتر برای رویارویی با واقعیتهای استانداردهای ایمنی از دست رفته هوش مصنوعی اتخاذ کند. با این حال، او تعهد 16 شرکت بزرگ هوش مصنوعی را در اولویت قرار دادن ایمنی و استقرار مسئولانه مدلهای هوش مصنوعی مرزی ستایش کرد.
“این نشان دهنده آگاهی رو به رشد از خطرات هوش مصنوعی و تمایل به تعهد برای کاهش آنها است. با این حال، آزمون واقعی این خواهد بود که این شرکتها تا چه اندازه به تعهدات خود عمل میکنند و تا چه حد در اقدامات ایمنی خود شفاف هستند.»
با این حال، ستایش او در دو زمینه کلیدی کم بود. او هیچ اشاره ای به پیامدها یا مشوق های همسویی ندید. وی افزود که هر دو بسیار مهم هستند.
به گفته تاکر، الزام شرکتهای هوش مصنوعی به انتشار چارچوبهای ایمنی نشاندهنده مسئولیتپذیری است که بینشی در مورد کیفیت و عمق آزمایش آنها ارائه میدهد. شفافیت امکان بررسی عمومی را فراهم می کند.
او مشاهده کرد: “همچنین ممکن است به اشتراک گذاری دانش و توسعه بهترین شیوه ها در سراسر صنعت مجبور شود.”
ثکر همچنین خواهان اقدام قانونی سریعتر در این زمینه است. با این حال، او فکر می کند که با توجه به کندی حرکت مقامات آمریکایی در آینده نزدیک، یک حرکت مهم برای دولت ایالات متحده چالش برانگیز خواهد بود.
او گفت: «یک گروه دو حزبی که برای ارائه این توصیهها گرد هم میآیند، امیدواریم گفتوگوهای زیادی را آغاز کند.
هنوز ناشناخته ها در مقررات هوش مصنوعی پیمایش می شوند
ملیسا روزی، مدیر هوش مصنوعی در AppOmni با این نظر موافق بود که نشست جهانی هوش مصنوعی یک گام بزرگ به جلو در حفاظت از تکامل هوش مصنوعی بود. مقررات کلیدی هستند.
او به TechNewsWorld گفت: «اما قبل از اینکه بتوانیم به تنظیم مقررات فکر کنیم، باید اکتشافات بیشتری انجام شود.
او افزود، اینجاست که همکاری بین شرکتهای صنعت هوش مصنوعی برای پیوستن داوطلبانه به طرحهای ایمنی هوش مصنوعی بسیار مهم است.
«تعیین آستانه ها و اقدامات عینی اولین چالشی است که باید بررسی شود. من فکر نمیکنم که هنوز آماده تنظیم آنها برای حوزه هوش مصنوعی به عنوان یک کل نیستیم.
بررسی و دادههای بیشتری لازم است تا بررسی کنیم که اینها چه میتوانند باشند. Ruzzi اضافه کرد که یکی از بزرگترین چالشها این است که مقررات هوش مصنوعی همگام با پیشرفتهای فناوری بدون اینکه مانعی برای آنها ایجاد کند، پیش میرود.
با تعریف آسیب هوش مصنوعی شروع کنید
به گفته دیوید براچلر، مشاور امنیتی اصلی در گروه NCC، دولت ها باید تعاریف آسیب را به عنوان نقطه شروع در تنظیم دستورالعمل های هوش مصنوعی در نظر بگیرند.
با رایجتر شدن فناوری هوش مصنوعی، ممکن است تغییری در طبقهبندی ریسک هوش مصنوعی از ظرفیت محاسباتی آموزشی آن ایجاد شود. این استاندارد بخشی از فرمان اجرایی اخیر ایالات متحده بود.
در عوض، این تغییر ممکن است به سمت آسیب ملموسی که هوش مصنوعی در زمینه اجرای خود وارد می کند، تبدیل شود. وی خاطرنشان کرد که قوانین مختلف به این امکان اشاره دارد.
براچلر به TechNewsWorld گفت: «به عنوان مثال، یک سیستم هوش مصنوعی که چراغهای راهنمایی را کنترل میکند، باید اقدامات ایمنی بسیار بیشتری را نسبت به یک دستیار خرید در نظر بگیرد، حتی اگر دومی برای آموزش به قدرت محاسباتی بیشتری نیاز داشته باشد.
تاکنون، دیدگاه روشنی از اولویتهای مقررات برای توسعه و استفاده از هوش مصنوعی وجود ندارد. دولت ها باید تأثیر واقعی بر مردم را در نحوه اجرای این فناوری ها در اولویت قرار دهند. او مشاهده کرد که قانون نباید برای پیش بینی آینده بلندمدت یک فناوری به سرعت در حال تغییر تلاش کند.
اگر خطری از فناوریهای هوش مصنوعی پدیدار شود، دولتها میتوانند پس از مشخص شدن اطلاعات، به آن واکنش نشان دهند. براخلر تصریح کرد که تلاش برای از پیش قانونی کردن این تهدیدها احتمالاً تیری در تاریکی است.
او گفت: «اما اگر به دنبال جلوگیری از آسیب به افراد از طریق قوانین هدفمند باشیم، لازم نیست پیشبینی کنیم که چگونه هوش مصنوعی در شکل یا مد در آینده تغییر میکند.
ایجاد تعادل در کنترل دولتی، نظارت قانونی
هکر هنگام تنظیم هوش مصنوعی تعادل دشواری بین کنترل و نظارت می بیند. نتیجه نباید خفه کردن نوآوری با قوانین سنگین یا تکیه صرف بر خود تنظیمی شرکت باشد.
“من معتقدم که یک چارچوب نظارتی ساده همراه با مکانیسمهای نظارتی با کیفیت بالا راهی است که باید طی شود. دولتها باید حفاظهایی را تعیین کنند و انطباق را اجرا کنند و در عین حال اجازه دهند توسعه مسئولانه ادامه یابد.»
تاکر تشابهاتی بین فشار برای مقررات هوش مصنوعی و پویایی در مورد سلاح های هسته ای می بیند. او هشدار داد که کشورهایی که به تسلط هوش مصنوعی دست می یابند می توانند از مزایای اقتصادی و نظامی قابل توجهی برخوردار شوند.
این امر انگیزه هایی را برای کشورها ایجاد می کند تا به سرعت قابلیت های هوش مصنوعی را توسعه دهند. با این حال، همکاری جهانی در زمینه ایمنی هوش مصنوعی نسبت به سلاحهای هستهای امکانپذیرتر است، زیرا ما تأثیرات شبکهای بیشتری با اینترنت و رسانههای اجتماعی داریم.»