گوگل می گوید مهندس نرم افزاری را اخراج کرده است که ادعا می کند چت ربات هوش مصنوعی آن حساس است


گوگل آلفابت روز جمعه اعلام کرد یک مهندس نرم افزار ارشد را که ادعا می کرد چت ربات هوش مصنوعی (AI) این شرکت، LaMDA فردی خودآگاه است، اخراج کرده است.

گوگل که ماه گذشته مهندس نرم افزار Blake Lemoine را مرخصی گرفت، گفت که او سیاست های شرکت را نقض کرده است و ادعاهای او در مورد LaMDA را “کاملاً بی اساس” می داند.

سخنگوی گوگل در ایمیلی به رویترز گفت: «مایه تاسف است که علی‌رغم تعامل طولانی در این موضوع، بلیک همچنان تصمیم گرفت به‌طور مداوم سیاست‌های شفاف استخدامی و امنیت داده‌ها را که شامل نیاز به حفاظت از اطلاعات محصول می‌شود، نقض کند».

سال گذشته، گوگل گفت که LaMDA – مدل زبانی برای برنامه‌های گفتگو – بر اساس تحقیقات این شرکت ساخته شده است که نشان می‌دهد مدل‌های زبان مبتنی بر Transformer که بر روی گفتگو آموزش دیده‌اند، می‌توانند اساساً درباره هر چیزی صحبت کنند.

گوگل و بسیاری از دانشمندان برجسته به سرعت دیدگاه های Lemoine را نادرست رد کردند و گفتند LaMDA صرفاً یک الگوریتم پیچیده است که برای تولید زبان انسانی قانع کننده طراحی شده است.

اخراج Lemoine اولین بار توسط Big Technology، یک خبرنامه فناوری و جامعه گزارش شد.

© تامسون رویترز 2022




منبع