بیایید در مورد طرح اولیه مایکروسافت برای مدیریت هوش مصنوعی صحبت کنیم، و با محصول هفته من، خط جدیدی از ردیابها که میتواند به پیگیری مواردی که اغلب در مکانیابی با آنها مشکل داریم، به پایان برسد.
مثال EEOC
نکته دوم اسمیت نیاز به ترمزهای ایمنی موثر برای سیستم های هوش مصنوعی است که زیرساخت های حیاتی را کنترل می کنند. اگر یک هوش مصنوعی که زیرساختهای حیاتی را کنترل میکند از ریل خارج شود، میتواند باعث آسیبهای عظیم یا حتی مرگ در مقیاس قابل توجهی شود.
اولین نکته اسمیت پیاده سازی و ایجاد چارچوب های ایمنی هوش مصنوعی تحت رهبری دولت است. اغلب اوقات، دولت ها متوجه نمی شوند که برخی از ابزارهای مورد نیاز برای رسیدگی به یک مشکل را در اختیار دارند و زمان زیادی را برای اختراع مجدد چرخ تلف می کنند.
Pebblebee Trackers: گیره برای کلید، کیف و موارد دیگر. برچسب برای چمدان، ژاکت و غیره؛ و کارت برای کیف پول و سایر فضاهای باریک. (اعتبار تصویر: Pebblebee)
اسمیت در ادامه صحبت می کند که چگونه باید از فناوری برای بهبود شرایط انسانی به عنوان یک اولویت استفاده کنیم، نه فقط برای کاهش هزینه ها و افزایش درآمد. مانند IBM که تلاش مشابهی انجام داده است، اسمیت و مایکروسافت معتقدند که باید از فناوری برای بهبود افراد استفاده کرد نه جایگزین کردن آنها.
اما مشکل AirTags این است که آنها فقط در صورتی کار می کنند که شما یک آیفون داشته باشید، مانند همسر من، به این معنی که او می تواند چیزها را ردیابی کند، اما من نمی توانم چون یک گوشی اندرویدی دارم. با کاشی، یا باید دستگاه را در صورت از بین رفتن باتری تعویض کنید یا باتری را تعویض کنید، که دردناک است. بنابراین، اغلب، زمانی که ما نیاز به پیدا کردن چیزی داریم، باتری آن تمام می شود.
ایالات متحده رهبری فناوری را به پوست خود حفظ کرده است، اما در ذهن من شکی نیست که اگر دولت بدون راهنمایی برای تنظیم هوش مصنوعی اقدام کند، آنها به سادگی این فرصت را به چین منتقل می کنند. به همین دلیل است که گزارش اخیر مایکروسافت با عنوان “هوش مصنوعی حاکم: طرحی برای آینده” بسیار مهم است.
احمقانه است که بدون زمینه درخواست مقررات داشته باشیم. وقتی دولتها نسبت به چیزی که اطلاعات کمی در مورد آن دارند واکنش تاکتیکی نشان میدهند، میتوانند بیشتر از اینکه فایده داشته باشند، آسیب وارد کنند. من با چند مثال ضد انحصار کار را شروع کردم، اما شاید زشت ترین نمونه آن کمیسیون فرصت های شغلی برابر (EEOC) باشد.
از آنجایی که Pebblebee با اپل و اندروید کار میکند و میتوانید باتریها را دوباره شارژ کنید، بهتر از Tile یا AirTag اپل به یک نیاز شخصی پاسخ میدهد – و محصول هفته من است.
کار قابل توجهی توسط موسسه ملی استانداردها و فناوری ایالات متحده (NIST) در قالب چارچوب مدیریت ریسک هوش مصنوعی (AI RMF) انجام شده است. این یک چارچوب خوب، هرچند ناقص است. اولین نکته اسمیت این است که از آن استفاده کرده و بر آن بنا شود.
به خوبی انجام شد!
بسیاری از رهبران فناوری توافق دارند که در حالی که هوش مصنوعی میتواند برای انسان بسیار مفید باشد، ممکن است مورد سوء استفاده قرار گیرد یا از طریق سهل انگاری، به بشریت آسیب نهایی برساند. اما نگاه به دولتها برای رسیدگی به این مشکل بدون راهنمایی، احمقانه خواهد بود، زیرا سیاستمداران اغلب حتی فناوری را که سالها استفاده کردهاند، درک نمیکنند، چه رسد به چیزی که به تازگی وارد بازار شده است.
در حال ارائه چارچوبی برای آنچه که راه حل باید و صادقانه بگویم باید به نظر برسد تا اطمینان حاصل شود که خطرات مربوط به استفاده از هوش مصنوعی را از قبل کاهش می دهیم و هنگامی که مشکلاتی وجود دارد، ابزارها و راه حل های از قبل موجود برای رسیدگی به آنها وجود دارد. یکی از مهمترین آنها یک سوئیچ خاموش اضطراری است که امکان خاتمه زیبای یک برنامه هوش مصنوعی را فراهم می کند که از ریل خارج شده است.
هنگام تلاش برای یافتن مکان یک دستگاه ردیاب، بوق میزند و روشن میشود، و پیدا کردن چیزها در شب راحتتر و کمتر شبیه یک بازی بد مارکوپولو (کاش آشکارسازهای دود این کار را میکردند).
نکته سوم اسمیت توسعه یک چارچوب قانونی و نظارتی گسترده بر اساس معماری فناوری برای هوش مصنوعی است. هوش مصنوعی اشتباه می کند. مردم ممکن است تصمیماتی را که یک هوش مصنوعی می گیرد دوست نداشته باشند، حتی اگر درست باشند، و مردم ممکن است هوش مصنوعی را به خاطر چیزهایی که هوش مصنوعی کنترلی بر آنها نداشت، سرزنش کنند.
اکنون میتوانیم به گذشته نگاه کنیم و ببینیم که EEOC واقعاً چیزی را اصلاح نکرده است، اما منابع انسانی را از سازمانی متمرکز بر مراقبت و تغذیه کارمندان به سازمانی متمرکز بر انطباق تبدیل کرده است، که اغلب به معنای پوشاندن مسائل کارمندان است. به جای رسیدگی به مشکلات
برد اسمیت قدم بر می دارد
این بیانیه اهمیت و ضرورت حفاظت از انسان ها را به ذهن متبادر می کند و ما را وادار می کند تا در مورد پیامدهای فناوری جدید فکر کنیم تا اطمینان حاصل کنیم که استفاده هایی که از آن داریم مفید است و مضر نیست.
دولت کلاسهایی از سیستمهایی را تعریف میکند که به نردههای محافظ نیاز دارند، دستورالعملهایی را در مورد ماهیت آن اقدامات حفاظتی ارائه میکند و الزام میکند که سیستمهای مرتبط الزامات امنیتی خاصی را برآورده کنند – مانند اینکه فقط در مراکز دادهای که برای چنین استفادههایی آزمایش شده و مجوز دارند، مستقر شوند.
مایکروسافت فقط به دولت نمیرود و از آن میخواهد که برای حل مشکلی که دولتها هنوز کاملاً آن را درک نکردهاند، اقدام کند.
او اشاره می کند که هوش مصنوعی می تواند یک شمشیر باشد، اما همچنین می تواند به طور موثر به عنوان سپری که به طور بالقوه قدرتمندتر از هر شمشیر موجود روی این سیاره است، استفاده شود. باید برای حمایت از دموکراسی و حقوق اساسی مردم در همه جا استفاده شود.
او همچنین، که این روزها بسیار نادر است، در مورد نیاز به پیشبینی اینکه فناوری در آینده باید کجا باشد صحبت میکند تا بتوانیم مشکلات را پیشبینی کنیم نه اینکه به طور مداوم و تاکتیکی صرفاً به آنها پاسخ دهیم. نیاز به شفافیت، پاسخگویی، و اطمینان از استفاده قانونی از فناوری، همگی برای این تلاش حیاتی هستند و به خوبی بیان شده اند.
تجزیه و تحلیل طرح 5 نقطه ای
طرح اولیه مایکروسافت نمونهای است، زیرا در حالی که اکثر افراد به دولت میگویند «شما باید کاری انجام دهید» که میتواند منجر به مشکلات طولانیمدت دیگری شود، اسمیت بیان کرده است که فکر میکند راهحل باید چگونه باشد، و او به این موضوع پی میبرد. آن را به زیبایی در یک طرح پنج نقطه ای نشان می دهد.
نظرات بیان شده در این مقاله متعلق به نویسنده است و لزوماً منعکس کننده نظرات شبکه خبری ECT نیست.
علاوه بر این، ما سه گربه داریم، به این معنی که دامپزشک به طور منظم برای مراقبت از آنها به ما مراجعه می کند. تعدادی از گربههای ما مکانهای منحصربهفرد و خلاقانهای برای مخفی شدن پیدا کردهاند تا ناخنهایشان کوتاه نشود یا حصیر بریده نشوند. بنابراین، ما از ردیابهایی مانند Tile و AirTags استفاده میکنیم.
اسمیت از اوکراین به عنوان مثالی یاد می کند که در آن بخش های دولتی و خصوصی به طور موثر برای ایجاد یک دفاع قدرتمند گرد هم آمده اند. او معتقد است، همانطور که من معتقدم، ما باید از نمونه اوکراین الگوبرداری کنیم تا اطمینان حاصل کنیم که هوش مصنوعی به پتانسیل خود برای کمک به جهان برای حرکت به سوی فردایی بهتر می رسد.