موزیلا روی برنامه‌های عاشقانه هوش مصنوعی «کشیدن به چپ» را توصیه می‌کند

بر اساس گزارشی که روز چهارشنبه توسط محققان در راهنمای خریدار موزیلا منتشر شد، افرادی که به دنبال عشق مجازی هستند، باید با احتیاط به چت ربات‌های عاشقانه هوش مصنوعی نزدیک شوند.

پس از بررسی 11 «هم روحی هوش مصنوعی»، محققان به همه برنامه‌ها به دلیل عدم ارائه حریم خصوصی، امنیت و ایمنی کافی برای داده‌های شخصی که از کاربران خود استخراج می‌کنند، انتقاد کردند.

آنها اشاره کردند که 10 چت از 11 ربات چت نتوانستند حداقل استانداردهای امنیتی موزیلا را برآورده کنند، مانند نیاز به رمزهای عبور قوی یا داشتن راهی برای مدیریت آسیب پذیری های امنیتی.

این گزارش نشان داد که بیشتر سیاست‌های حفظ حریم خصوصی برای برنامه‌ها اطلاعات کمی در مورد نحوه استفاده از محتویات مکالمات کاربران برای آموزش هوش مصنوعی و شفافیت بسیار کمی در مورد نحوه عملکرد مدل‌های هوش مصنوعی ارائه می‌دهند.

جن کالتریدر، مدیر راهنما، به TechNewsWorld گفت: “بیشتر 11 برنامه ای که ما بررسی کردیم توسط توسعه دهندگان کوچک ساخته شده اند که شما نمی توانید اطلاعات زیادی در مورد آنها پیدا کنید.”

دستکاری در استروئیدها

این گزارش اضافه می‌کند که کاربران نیز کنترل کمی بر داده‌های خود دارند و پتانسیل زیادی برای دستکاری، سوء استفاده و پیامدهای سلامت روانی باقی می‌گذارد.

کالتریدر توضیح داد: «این برنامه‌ها به گونه‌ای طراحی شده‌اند که شما را وادار کنند اطلاعات شخصی زیادی را از دست بدهید، زیرا در تلاشند شما را بشناسند». “آنها به زندگی شما علاقه مند هستند و هر چه بیشتر بدانند، بهتر می توانند با شما صحبت کنند و به روح شما تبدیل شوند.”

کالتریدر گفت: “اگر شما یک فرد شرور هستید که می خواهید مردم را دستکاری کنید، این دستکاری استروئیدها است.” “شما یک ربات چت ساخته اید که با یک فرد آسیب پذیر آشنا می شود، با آنها ارتباط برقرار می کند و دوست آنها می شود. سپس می‌توانید از آن ربات چت برای دستکاری نحوه فکر و کاری که انجام می‌دهند استفاده کنید.»

این گزارش همچنین سازندگان برنامه را به دلیل عدم امکان انتخاب انصراف از محتویات چت های صمیمی خود برای آموزش مدل های هوش مصنوعی مورد استفاده در برنامه ها مورد انتقاد قرار داد. محققان خاطرنشان کردند که تنها یک شرکت، Genesia AI، جایگزینی برای انصراف داشت که نشان داد این یک ویژگی قابل دوام است.

«مصرف‌کنندگانی که نگران استفاده از اطلاعاتشان برای مقاصد بازاریابی یا آموزش موتورهای هوش مصنوعی بدون اجازه صریح آنها هستند، باید شیوه‌های جمع‌آوری داده‌های یک شرکت را به دقت بررسی کنند و از هر حقی برای انتخاب یا انصراف از جمع‌آوری داده‌ها استفاده کنند. به اشتراک گذاری، فروش یا نگهداری،» جیمز ای. لی، مدیر عامل مرکز منابع سرقت هویت، یک سازمان غیرانتفاعی که به حداقل رساندن خطر و کاهش تأثیر آسیب هویت و جنایت، سن دیگو، کالیفرنیا اختصاص دارد، توصیه کرد.

او به TechNewsWorld گفت: “اطلاعات حفظ شده همچنین می تواند هدف مجرمان سایبری برای باج افزار یا سرقت هویت باشد.”

برنامه های عاشقانه هوش مصنوعی

بر اساس این گزارش، تعداد اپلیکیشن‌ها و پلتفرم‌هایی که از الگوریتم‌های پیشرفته هوش مصنوعی برای شبیه‌سازی تجربه تعامل با یک شریک عاشقانه استفاده می‌کنند، در حال افزایش است. در طول سال گذشته، 11 چت ربات ارتباطی بررسی شده توسط موزیلا، تخمین زده می شود که 100 میلیون دانلود تنها در فروشگاه Google Play داشته باشند.

این گزارش اضافه کرد که وقتی ماه گذشته فروشگاه OpenAI GPT افتتاح شد، با وجود مخالفت با سیاست فروشگاه، مملو از چت ربات‌های ارتباطی هوش مصنوعی بود.

در مطالعه‌ای که اخیراً روی 1000 بزرگسال توسط Propeller Insights برای Infobip، یک شرکت ارتباطات همه‌کاناله جهانی انجام شد، 20 درصد از آمریکایی‌ها اعتراف کردند که با یک چت بات معاشقه کرده‌اند. با این حال، این تعداد برای افراد 35 تا 44 ساله بیش از 50 درصد بود.


شایع ترین دلیل برای معاشقه مجازی کنجکاوی (47.2٪) و پس از آن تنهایی و لذت در تعامل با چت بات ها (23.9٪) بود.

برایان پرینس، بنیانگذار و مدیرعامل Top AI Tools، ابزار، منبع و پلتفرم آموزشی هوش مصنوعی در بوکا راتون، فلوریدا، اظهار داشت: افزایش استفاده از چت ربات عاشقانه هوش مصنوعی را می‌توان با ترکیبی از تغییرات اجتماعی و پیشرفت‌های فناوری مقایسه کرد.

او به TechNewsWorld گفت: “با افزایش تنهایی و احساس قطع ارتباط فزاینده، مردم برای همراهی و حمایت عاطفی به چت ربات ها روی می آورند.” “مثل این است که یک دوست در جیب خود داشته باشید، هر زمان که نیاز به چت داشته باشید در دسترس است. به علاوه، با هوشمندتر شدن هوش مصنوعی، این ربات‌ها احساس واقعی‌تر و جذاب‌تر می‌کنند و مردم را به سمت خود جذب می‌کنند.»

از کد تا چیز شیرین

همچنین استقرار ربات‌های چت هوش مصنوعی آسان‌تر شده است. براندون توریو، مدیر ارشد محصول در Synack، یک شرکت امنیتی سازمانی در شهر ردوود، توضیح داد: «جاسازی این نوع تجربیات به سادگی جاسازی ویدیوهای YouTube یا پیش نمایش Spotify در یک صفحه وب است، به لطف APIهای مستند و قوی آنها. ، کالیفرنیا

او به TechNewsWorld گفت: «با چند خط کد، می‌توانید مدل‌های ChatGPT را برای هر نوع مکالمه‌ای با مشتریان ایجاد کنید، خواه هدفشان آموزش یک محصول باشد یا فقط زمزمه چیزهای شیرین برای روز ولنتاین».

ران آردن، CTO و COO Fasoo، ارائه‌دهنده راه‌حل‌های حفاظت از داده‌های سازمانی در سئول، کره‌جنوبی، افزود: «با تمام آنچه انسان‌ها در چند سال گذشته با آن‌ها سروکار داشته‌اند، جای تعجب نیست که مردم برای دوستی و عشق به رایانه‌ها روی می‌آورند». .

او به TechNewsWorld گفت: «همه ما در طول همه‌گیری منزوی شدیم، و ملاقات با مردم سخت است. چت ربات ها آسان هستند، درست مثل ارسال پیامک آسان است. بدون تعامل مستقیم انسانی و خجالت. فقط آنچه را که نیاز دارم به من بده تا بتوانم به روزم ادامه دهم.»

او گفت: “این همچنین بخشی از افزایش کلی استفاده از برنامه ها برای تقریباً همه چیز است، از اندازه گیری فشار خون گرفته تا شمارش کالری.” “این آسان، غیر تهدید کننده و راحت است.”

تهدید حریم خصوصی منحصر به فرد

گزارش موزیلا همچنین تاکید کرد که ربات‌های عاشقانه از شیوه‌های بازاریابی فریبنده استفاده می‌کنند. این شرکت به یکی از اپلیکیشن‌ها اشاره کرد که ادعا می‌کند مزایای سلامت روان و رفاه را در وب‌سایت خود ارائه می‌کند، اما این مزایا را در شرایط و ضوابط استفاده از برنامه رد کرده است.

کالتریدر گفت: «برای آنها فریبنده و گیج کننده است که خود را به عنوان برنامه های سلامت روان، خودیاری یا رفاه به بازار عرضه کنند، اما سپس به وضوح در اسناد قانونی خود اعلام کنند که هیچ خدمات بهداشت روانی ارائه نمی دهند.


جیمز مک‌کویگان، مدافع آگاهی امنیتی در KnowBe4، ارائه‌دهنده آموزش آگاهی امنیتی در کلیرواتر، فلوریدا، گفت: چت‌بات‌های عاشقانه مبتنی بر هوش مصنوعی تهدیدی منحصر به فرد برای حریم خصوصی هستند.

او به TechNewsWorld گفت: “این به این دلیل است که آنها ممکن است در گفتگوهای عمیق تر و شخصی تر با کاربران شرکت کنند.” “این به طور بالقوه می تواند منجر به جمع آوری داده های شخصی حساس شود که اگر به طور ایمن مدیریت نشود، خطر قابل توجهی برای نقض داده ها و سوء استفاده ایجاد می کند.”

جاکوب هافمن اندروز، کارشناس ارشد فناوری بنیاد الکترونیک مرزی، اضافه کرد: «چت ربات‌های عاشقانه این پتانسیل را دارند که ابزاری عالی برای افرادی باشند که تمایلات جنسی خود را بررسی می‌کنند – راهی برای آزمایش مکالمه‌هایی که از انجام آن‌ها با یک فرد خجالت می‌کشند». ، یک گروه بین المللی غیرانتفاعی حقوق دیجیتال مستقر در سانفرانسیسکو.

او به TechNewsWorld گفت: «این فقط در صورتی کار می‌کند که چت بات سیاست‌های حفظ حریم خصوصی بسیار قوی داشته باشد. آنها نباید هوش مصنوعی را بر اساس چت های خصوصی آموزش دهند. آنها نباید چت های خصوصی را به ارزیاب های انسانی نشان دهند. آن‌ها باید مطمئن شوند که چت‌ها می‌توانند واقعاً حذف شوند و پس از مدتی حذف خودکار را ارائه دهند.»

او افزود: «و قطعاً تحت هیچ شرایطی نباید اطلاعاتی را که از چت های خصوصی به دست می آید را بفروشند.

منبع