جنیفر هادلستون، محقق سیاست فناوری در موسسه کاتو، یک اندیشکده واشنگتن دی سی، توضیح داد که هوش مصنوعی، مانند بسیاری از فناوری ها و ابزارها، می تواند برای اهداف مختلف مورد استفاده قرار گیرد.
وی افزود: «اما سیاستگذاران باید مراقب باشند که هوش مصنوعی را به طور غیرمنصفانه با استانداردهای متفاوتی در نظر نگیرند یا مقرراتی را وضع نکنند که برای هوش مصنوعی منطقی نیست.» به عنوان مثال، برخی از الزامات ایمنی در وسایل نقلیه امروزی، مانند فرمان و آینههای دید عقب، برای وسایل نقلیه خودران بدون مسافر یا راننده منطقی نیست.
دانیل کاسترو، معاون بنیاد فناوری اطلاعات و نوآوری، یک سازمان تحقیقاتی و سیاست گذاری عمومی، در واشنگتن دی سی اظهار داشت: سیاستگذاران می توانند برای تنظیم هوش مصنوعی بدون ایجاد مانع در نوآوری، چند کار انجام دهند.
او گفت: «مردم از FDA انتقاد میکنند، این که این سازمان مستعد دستگیری نظارتی است، اینکه توسط شرکتهای دارویی اداره میشود، اما ما هنوز در دنیایی بهتر از دوره قبل از FDA هستیم، زمانی که هر کسی میتواند هر چیزی را بفروشد و هر چیزی را روی برچسب بگذارد». .
کورتز اشاره کرد که بسیاری از مردم معتقدند فناوری خنثی است.
او ادامه داد: یکی دیگر از موارد این است که بر رفتارها تمرکز کنیم. به عنوان مثال، تبعیض در هنگام استخدام کارمندان یا اجاره آپارتمان غیرقانونی است – اینکه آیا یک انسان یا یک سیستم هوش مصنوعی تصمیم می گیرد باید بی ربط باشد.
میرا موراتی، مدیر ارشد فناوری OpenAI، روز یکشنبه در مصاحبهای با مجله تایم اذعان کرد که این فناوری نیاز به تنظیم مقررات دارد.
گرگ استرلینگ، یکی از بنیانگذاران Near Media، یک وب سایت خبری، تفسیری و تحلیلی، معتقد است از آنجایی که بازار مشوق هایی برای سوء استفاده فراهم می کند، احتمالاً برخی مقررات ضروری است.
او در پاسخ به این سوال که آیا دخالت دولت در این مرحله از توسعه هوش مصنوعی ممکن است مانع نوآوری شود، پاسخ داد: «هنوز زود نیست. با توجه به تأثیری که این فناوریها خواهند داشت، برای همه بسیار مهم است که شروع به مشارکت کنند.»
کاسترو به TechNewsWorld گفت: «یکی از آنها تمرکز بر موارد استفاده خاص است. برای مثال، تنظیم خودروهای خودران باید متفاوت از تنظیم هوش مصنوعی مورد استفاده برای تولید موسیقی باشد.»
او گفت: «ما باید به راههایی نگاه کنیم که قوانین موجود در حال حاضر برای تنظیم هوش مصنوعی کافی است، و راههایی که آنها انجام نمیدهند و نیاز به انجام کار جدید و خلاق بودن دارند، چیست.»
او اذعان کرد که مقررات خیلی زودهنگام یا خیلی سنگین می تواند به نوآوری آسیب برساند و مزایای هوش مصنوعی را محدود کند.
دولت ها باید کارشناسان هوش مصنوعی و رهبران صنعت را گرد هم بیاورند تا به طور مشترک چارچوبی را برای مقررات احتمالی آینده تنظیم کنند. استرلینگ گفت که احتمالاً باید از نظر دامنه بین المللی نیز باشد.
قوانین موجود را در نظر بگیرید
او گفت: «فکر نمیکنم فناوری خنثی باشد. ما باید به بازیگران بد فکر کنیم. اما ما باید به تصمیمات ضعیف افرادی که این چیزها را خلق میکنند و در جهان عرضه میکنند نیز فکر کنیم.»
تبلیغات
او تاکید کرد: «شفاف بودن در مورد الگوریتمها و منابع محتوایی که ابزارهای هوش مصنوعی مشتق شدهاند، باید تعادل را تشویق کند و سوءاستفادهها را کاهش دهد.»
برای بدترین سناریوها برنامه ریزی کنید
او ادامه داد که بسیاری از این استفادهها مثبت هستند و مصرفکنندگان در حال حاضر با استفادههای مفید از هوش مصنوعی، مانند ترجمه بلادرنگ و ناوبری بهتر ترافیک مواجه شدهاند. هادلستون به TechNewsWorld گفت: «قبل از درخواست برای مقررات جدید، سیاستگذاران باید در نظر بگیرند که چگونه قوانین موجود در مورد موضوعاتی مانند تبعیض ممکن است نگرانیها را برطرف کند.
او گفت: «من ترجیح میدهم مقرراتی که توسعهدهندگان و تولیدکنندگان محتوا را ملزم میکند در مورد الگوریتمهایی که استفاده میکنند کاملاً شفاف باشند.» آنها می توانند توسط یک نهاد شخص ثالث متشکل از دانشگاهیان و برخی از نهادهای تجاری بررسی شوند.
Vena مایل است یک رویکرد “شفاف” برای مقررات ببیند.
او اظهار داشت که در دهه 1990 از این نوع اثر خفه کننده در اینترنت جلوگیری شد، از طریق مقررات “لمس ملایم” مانند بخش 230 قانون نجابت ارتباطات، که به پلتفرم های آنلاین از مسئولیت در قبال محتوای شخص ثالث که در وب سایت آنها ظاهر می شود مصونیت می بخشد.
میسون کورتز، مدرس بالینی در کلینیک Cyberlaw در دانشکده حقوق دانشگاه هاروارد در کمبریج ماساچوست، اضافه کرد که هوش مصنوعی باید تنظیم شود، اما نحوه تنظیم آن نیز باید در نظر گرفته شود.
کورتز به TechNewsWorld گفت: “ما قوانین کلی زیادی داریم که کارها را قانونی یا غیرقانونی می کند، صرف نظر از اینکه آنها توسط یک انسان یا یک هوش مصنوعی انجام شوند.”
“آیا راه حل خوبی وجود دارد که فقط جنبه های خوب هوش مصنوعی را به تصویر بکشد و تمام جنبه های بد را متوقف کند؟ ونا ادامه داد: احتمالاً نه، اما برخی ساختارها بهتر از بیساختاری هستند.
وی افزود: «ما باید تلاش کنیم تا جایی که می توانیم در مقررات پیشگیرانه عمل کنیم. رجوع از طریق نظام حقوقی پس از وقوع ضرر صورت می گیرد. اگر آسیب هرگز رخ ندهد، بهتر است.»
تبلیغات
به عنوان مثال، او خاطرنشان کرد که مقررات کلی در مورد مسئولیت خودروهای خودران وجود ندارد. با این حال، اگر یک وسیله نقلیه خودران باعث تصادف شود، هنوز بسیاری از زمینههای قانونی وجود دارد که میتوان به آنها اشاره کرد، مانند قانون سهل انگاری و قانون مسئولیت محصول. او توضیح داد که اینها راه های بالقوه ای برای تنظیم استفاده از هوش مصنوعی هستند.
لمس سبک مورد نیاز است
تبلیغات
او افزود: «اجازه دادن به هوش مصنوعی خوب و هوش مصنوعی بد برای کسی خوب نیست. ما نمی توانیم تضمین کنیم که هوش مصنوعی خوب در این مبارزه پیروز خواهد شد و آسیب جانبی می تواند بسیار قابل توجه باشد.
مقررات بدون خفه کردن
موراتی به تایم گفت: «برای OpenAI و شرکتهایی مانند ما مهم است که این موضوع را به شیوهای کنترلشده و مسئولانه به آگاهی عمومی بیاورند. “اما ما گروه کوچکی از مردم هستیم و به تعداد زیادی ورودی بیشتر در این سیستم و ورودی های بسیار بیشتری نیاز داریم که فراتر از فناوری ها باشد – قطعاً تنظیم کننده ها و دولت ها و همه افراد دیگر.”
با این حال، کورتز پذیرفت که بسیاری از قوانین موجود پس از این واقعیت وارد عمل می شوند. او گفت: «بنابراین، به نوعی، آنها در رتبه دوم قرار دارند. “اما آنها یک اقدام مهم هستند که باید در حین تدوین مقررات انجام شود.”
با این حال، کورتز معتقد است که دولت می تواند بدون تعطیل کردن یک صنعت، ترمزهای معقولی را بر روی چیزی اعمال کند.
با این حال، Mark N. Vena، رئیس و تحلیلگر اصلی SmartTech Research در سن خوزه، کالیفرنیا، استدلال می کند که مقررات سنگین می تواند صنعت در حال رشد هوش مصنوعی را سرکوب کند.
او در پایان گفت: «من هر کسی را که هوش مصنوعی را برای یک مورد خاص توسعه میدهد تشویق میکنم که نه تنها به این فکر کند که مورد استفاده آنها چیست، بلکه بدترین استفاده ممکن برای فناوری آنها چیست.»