پرونده YouTube در دادگاه عالی ایالات متحده می تواند پیامدهایی برای ChatGPT و AI داشته باشد

این مورد تنها یکی از جنبه‌های گفتگوی نوظهور در مورد اینکه آیا مصونیت بخش 230 باید در مورد مدل‌های هوش مصنوعی که بر روی مجموعه‌ای از داده‌های آنلاین موجود آموزش دیده‌اند اما قادر به تولید آثار اصلی هستند اعمال شود، است.

کارل سابو، معاون و مشاور عمومی NetChoice، یک گروه تجاری صنعت فناوری، می‌گوید: “هوش مصنوعی در واقع چیزی ایجاد نمی‌کند. این محتوای موجود را می‌گیرد و آن را به شکلی متفاوت یا قالبی متفاوت قرار می‌دهد.”

کامرون کری، یکی از اعضای اندیشکده موسسه بروکینگز در واشنگتن و کارشناس هوش مصنوعی، گفت: «بحث واقعاً بر سر این است که آیا سازماندهی اطلاعات موجود به صورت آنلاین از طریق موتورهای توصیه برای شکل دادن به محتوا آنقدر مهم است که مسئولیت پذیر شود یا خیر. “شما هم در رابطه با یک چت بات مشکلات مشابهی دارید.”

در مواردی که به نظر می رسد مدل هوش مصنوعی منابع موجود را بازنویسی می کند، سپر ممکن است همچنان اعمال شود. اما چت ربات‌هایی مانند ChatGPT برای ایجاد پاسخ‌های تخیلی شناخته شده‌اند که به نظر می‌رسد هیچ ارتباطی با اطلاعات موجود در سایر نقاط آنلاین ندارند، وضعیتی که کارشناسان معتقدند احتمالاً محافظت نمی‌شود.

پرونده ای که توسط دادگاه عالی تصمیم گیری می شود شامل درخواست تجدید نظر خانواده نوهمی گونزالس، یک دانشجوی 23 ساله از کالیفرنیا است که در سال 2015 توسط شبه نظامیان اسلام گرا در پاریس به ضرب گلوله کشته شد. شکایت علیه یوتیوب

نمایندگان OpenAI و Google به درخواست ها برای اظهار نظر پاسخ ندادند.

تصمیم دادگاه در مورد آن مسائل فراتر از پلتفرم های رسانه های اجتماعی است. حکم آن می‌تواند بر بحث در حال ظهور در مورد اینکه آیا شرکت‌هایی که چت‌ربات‌های مولد هوش مصنوعی مانند ChatGPT از OpenAI، شرکتی که مایکروسافت در آن سرمایه‌گذار اصلی است، یا Bard از Google Alphabet باید در برابر ادعاهای قانونی مانند افترا یا نقض حریم خصوصی محافظت شوند یا خیر تأثیر بگذارد. و کارشناسان حقوقی

© تامسون رویترز 2023


پیوندهای وابسته ممکن است به طور خودکار ایجاد شوند – برای جزئیات بیشتر به بیانیه اخلاقی ما مراجعه کنید.



منبع

کارشناسان اضافه کردند که به این دلیل است که الگوریتم‌هایی که ابزارهای مولد هوش مصنوعی مانند ChatGPT و جانشین آن GPT-4 را تقویت می‌کنند، به روشی مشابه با الگوریتم‌هایی عمل می‌کنند که ویدیوها را به کاربران یوتیوب پیشنهاد می‌کنند.

این شکایت گوگل را به ارائه “حمایت مادی” از تروریسم متهم کرد و ادعا کرد که یوتیوب از طریق الگوریتم های پلتفرم اشتراک ویدئو، ویدیوهای گروه شبه نظامی دولت اسلامی را که مسئولیت حملات پاریس را بر عهده گرفته است، به طور غیرقانونی به کاربران خاص توصیه می کند.

هنگامی که دادگاه عالی ایالات متحده در ماه های آینده تصمیم بگیرد که آیا سپر قدرتمند محافظت از شرکت های اینترنتی را تضعیف کند، این حکم همچنین می تواند پیامدهایی برای فناوری های در حال توسعه سریع مانند ربات چت هوش مصنوعی ChatGPT داشته باشد.

حفاظت‌های بخش 230 عموماً برای محتوای شخص ثالث از کاربران یک پلت‌فرم فناوری اعمال می‌شود و نه اطلاعاتی که یک شرکت به توسعه آن کمک کرده است. دادگاه ها هنوز در مورد اینکه آیا پاسخ یک چت ربات هوش مصنوعی پوشش داده می شود، بررسی نکرده اند.

قاضی قرار است تا پایان ژوئن تصمیم بگیرد که آیا یوتیوب آلفابت به دلیل توصیه های ویدیویی خود به کاربران قابل شکایت است یا خیر. این مورد آزمایش می‌کند که آیا قانون ایالات متحده که از پلتفرم‌های فناوری در برابر مسئولیت قانونی در قبال محتوای منتشر شده آنلاین توسط کاربرانشان محافظت می‌کند، زمانی که شرکت‌ها از الگوریتم‌هایی برای هدف قرار دادن کاربران با توصیه‌ها استفاده می‌کنند نیز اعمال می‌شود یا خیر.

سابو گفت که بخش 230 ضعیف کار غیرممکنی را برای توسعه دهندگان هوش مصنوعی ایجاد می کند و آنها را در معرض سیل دعوی قضایی قرار می دهد که می تواند نوآوری را خفه کند.

وایدن در بیانیه ای به رویترز گفت: “بخش 230 در مورد محافظت از کاربران و سایت ها برای میزبانی و سازماندهی سخنرانی کاربران است. این بخش نباید از شرکت ها در برابر عواقب اقدامات و محصولات خود محافظت کند.”

هانی فرید، فن‌شناس و استاد دانشگاه کالیفرنیا، برکلی، می‌گوید که استدلال این که توسعه‌دهندگان هوش مصنوعی باید از طرح‌های قضایی در مورد مدل‌هایی که «برنامه‌نویسی، آموزش و به کار گرفته‌شده‌اند» مصون باشند، تخیل را فراتر می‌برد.

فرید گفت: «وقتی شرکت‌ها در دعاوی مدنی مسئول آسیب‌های ناشی از محصولات تولیدی خود هستند، محصولات ایمن‌تری تولید می‌کنند. و هنگامی که آنها مسئولیتی ندارند، محصولات کمتر ایمن تولید می کنند.”

در خلال مشاجرات در ماه فوریه، قضات دیوان عالی درباره تضعیف حمایت های مندرج در قانون، معروف به بخش 230 قانون نجابت ارتباطات در سال 1996، ابراز تردید کردند. در حالی که این پرونده مستقیماً به هوش مصنوعی مولد مربوط نمی شود، قاضی نیل گورسوش خاطرنشان کرد که هوش مصنوعی ابزارهایی که “شعر” و “جدال” را تولید می کنند احتمالاً از چنین حمایت های قانونی برخوردار نیستند.

برخی از کارشناسان پیش‌بینی می‌کنند که دادگاه‌ها ممکن است راه وسطی را در نظر بگیرند و زمینه‌ای را بررسی کنند که در آن مدل هوش مصنوعی یک پاسخ بالقوه مضر ایجاد کرد.

“عواقب اقدامات خود”

با وجود مخالفت دو حزبی با مصونیت، صنعت فناوری تلاش کرده است تا بخش 230 را حفظ کند. آنها گفتند ابزارهایی مانند ChatGPT مانند موتورهای جستجو عمل می کنند و کاربران را در پاسخ به یک درخواست به محتوای موجود هدایت می کنند.

سناتور دموکرات، ران وایدن، که در هنگام حضور در مجلس نمایندگان به تدوین آن قانون کمک کرد، گفت که سپر مسئولیت نباید در مورد ابزارهای مولد هوش مصنوعی اعمال شود زیرا چنین ابزارهایی “محتوا ایجاد می کنند”.