مدیر عامل انویدیا می گوید هوش مصنوعی ابزارهای قدرتمندی ایجاد خواهد کرد که به مقررات قانونی و هنجارهای اجتماعی نیاز دارند

هوانگ گفت که نهادهای استاندارد مهندسی باید استانداردهایی را برای ساختن سیستم‌های هوش مصنوعی ایمن ایجاد کنند، مشابه اینکه بدنه‌های پزشکی قوانینی را برای عمل ایمن پزشکی وضع می‌کنند. اما او همچنین گفت که قوانین و هنجارهای اجتماعی نقش کلیدی را برای هوش مصنوعی ایفا می کنند.

قانونگذارانی مانند تد لیو، نماینده دموکرات کالیفرنیا در مجلس نمایندگان ایالات متحده، خواستار ایجاد یک آژانس فدرال ایالات متحده شده اند که هوش مصنوعی را تنظیم کند. لیو در مقاله‌ای در نیویورک تایمز در روز دوشنبه استدلال کرد که سیستم‌هایی مانند تشخیص چهره که توسط سازمان‌های مجری قانون استفاده می‌شود احتمالاً می‌تواند افراد بی‌گناه از گروه‌های اقلیت را به اشتباه شناسایی کند.

هوانگ گفت: “هنجار اجتماعی برای استفاده از آن چیست؟ هنجارهای قانونی برای استفاده از آن باید توسعه یابد.” “همه چیز در حال حاضر در حال تغییر است. این واقعیت که همه ما در مورد آن صحبت می کنیم، ما را در مکان بسیار بهتری قرار می دهد تا در نهایت در مکان خوبی قرار بگیریم.”

هوانگ در یک رویداد در استکهلم صحبت می‌کرد، جایی که مقامات روز سه‌شنبه گفتند که در حال ارتقاء سریع‌ترین ابررایانه سوئد با استفاده از ابزارهای Nvidia هستند تا، در میان چیزهای دیگر، چیزی را توسعه دهند که به عنوان یک مدل زبان بزرگ شناخته می‌شود که به زبان سوئدی مسلط خواهد بود.

هوانگ یکی از برجسته‌ترین چهره‌های هوش مصنوعی است، زیرا تراشه‌های انویدیا به طور گسترده در این زمینه استفاده می‌شوند، از جمله در ابررایانه‌ای که مایکروسافت برای راه‌اندازی OpenAI ساخته است، که مایکروسافت روز دوشنبه اعلام کرد سرمایه‌گذاری چند میلیارد دلاری در آن انجام می‌دهد.

جنسن هوانگ، مدیر اجرایی انویدیا، روز سه‌شنبه گفت که حوزه رو به رشد هوش مصنوعی ابزارهای قدرتمندی را ایجاد می‌کند که نیازمند مقررات قانونی و هنجارهای اجتماعی است که هنوز کار نشده است.

هوانگ گفت: «به یاد داشته باشید، اگر یک قدم به عقب بردارید و به همه چیزهایی در زندگی فکر کنید که برای جامعه راحت، توانمند یا شگفت‌انگیز هستند، احتمالاً آسیب‌های بالقوه‌ای نیز به همراه خواهد داشت.

© تامسون رویترز 2023


پیوندهای وابسته ممکن است به طور خودکار ایجاد شوند – برای جزئیات بیشتر به بیانیه اخلاقی ما مراجعه کنید.



منبع