توییتر تحت مدیریت ایلان ماسک با تکیه بر اتوماسیون تا تعدیل محتوای علیه سخنان نفرت‌انگیز


رئیس جدید اعتماد و ایمنی خود به رویترز گفت: توییتر ایلان ماسک به شدت بر روی خودکارسازی تا محتوای متوسط ​​متکی است، برخی از بررسی‌های دستی را حذف می‌کند و از محدودیت‌های توزیع حمایت می‌کند تا اینکه به طور کامل برخی سخنرانی‌ها را حذف کند.

الا ایروین، نایب رئیس بخش اعتماد و ایمنی توییتر، گفت که توییتر همچنین هشتگ‌های مستعد سوء استفاده و نتایج جستجو را در مناطقی از جمله استثمار کودکان، بدون توجه به تأثیرات بالقوه بر «استفاده‌های خوش‌خیم» از این اصطلاحات، به شدت محدود می‌کند.

ایروین روز پنجشنبه در اولین مصاحبه ای که یکی از مدیران توییتر از زمان خرید شرکت رسانه های اجتماعی توسط ماسک در اواخر اکتبر انجام داد، گفت: “بزرگترین چیزی که تغییر کرده این است که تیم کاملاً قدرت دارد تا سریع حرکت کند و تا حد امکان تهاجمی باشد.”

اظهارات او در حالی بیان می‌شود که محققان از افزایش سخنان نفرت‌انگیز در سرویس رسانه‌های اجتماعی خبر می‌دهند، پس از اینکه ماسک اعلام کرد عفو حساب‌هایی را که تحت رهبری قبلی این شرکت تعلیق شده‌اند و قانون را نقض نکرده‌اند یا در «هرزنامه‌های فاحش» شرکت نکرده‌اند، اعلام کرده‌اند.

از زمانی که ماسک نیمی از کارکنان توییتر را کاهش داد و اولتیماتوم برای ساعات طولانی کار که منجر به از دست دادن صدها کارمند دیگر شد، این شرکت با پرسش‌هایی در مورد توانایی و تمایل خود برای تعدیل محتوای مضر و غیرقانونی مواجه شد.

و تبلیغ کنندگان، منبع اصلی درآمد توییتر، به دلیل نگرانی در مورد ایمنی نام تجاری از پلت فرم فرار کرده اند.

روز جمعه، ماسک در دیدار با امانوئل ماکرون، رئیس جمهور فرانسه، قول “تقویت قابل توجه تعدیل محتوا و حفاظت از آزادی بیان” را داد.

ایروین گفت ماسک تیم را تشویق کرد که کمتر نگران تأثیر اقداماتشان بر رشد یا درآمد کاربران باشند و گفت که ایمنی اولویت اصلی شرکت است. او گفت: “او تاکید می کند که هر روز، چند بار در روز.”

به گفته کارمندان سابق آشنا با این کار، رویکردی به ایمنی که ایروین شرح داد حداقل تا حدی منعکس کننده سرعت بخشیدن به تغییراتی است که از سال گذشته در مورد مدیریت توئیتر با رفتار نفرت انگیز و سایر تخلفات خط مشی برنامه ریزی شده بود.

یکی از رویکردها، که در شعار صنعت «آزادی بیان، نه آزادی دسترسی» گنجانده شده است، مستلزم انتشار توییت‌هایی است که خط‌مشی‌های شرکت را نقض می‌کنند، اما آنها را از نمایش در مکان‌هایی مانند جدول زمانی و جستجوی خانه منع می‌کند.

توییتر مدت‌هاست که چنین ابزارهای «فیلتر دید» را پیرامون اطلاعات نادرست به کار می‌برد و پیش از خرید ماسک، آنها را در سیاست رفتار نفرت‌انگیز رسمی خود گنجانده بود. این رویکرد امکان گفتار آزادتر را فراهم می کند و در عین حال آسیب های احتمالی مرتبط با محتوای توهین آمیز ویروسی را کاهش می دهد.

بر اساس گزارش مرکز مقابله با نفرت دیجیتال، تعداد توییت‌های حاوی محتوای نفرت‌انگیز در توییتر در هفته قبل از اینکه ماسک در 23 نوامبر توییت کرد که برداشت‌ها یا دیدگاه‌ها درباره سخنان نفرت‌انگیز در حال کاهش است، به شدت افزایش یافت. از چنین محتوایی، در حالی که ماسک کاهش دید را تبلیغ می کند.

به گفته محققان، توییت‌های حاوی کلماتی که در آن هفته ضد سیاه‌پوستان بودند، سه برابر تعداد مشاهده‌شده در ماه قبل از به قدرت رسیدن ماسک بود، در حالی که توییت‌هایی که حاوی توهین همجنس‌گرا بودند 31 درصد افزایش یافت.

“ریسک های بیشتر، سریع حرکت کنید”

ایروین که در ماه ژوئن به شرکت ملحق شد و پیش از این در سایر شرکت‌ها از جمله Amazon.com و گوگل نقش‌های ایمنی را بر عهده داشت، پیشنهاداتی مبنی بر اینکه توییتر منابع یا تمایلی برای محافظت از پلتفرم ندارد را رد کرد.

او گفت که اخراج کارکنان به طور قابل توجهی بر کارمندان تمام وقت یا پیمانکارانی که در آنچه شرکت به عنوان بخش “بهداشت” خود از آن یاد می کند، از جمله در “زمینه های مهم” مانند ایمنی کودکان و تعدیل محتوا، کار می کنند.

دو منبع آگاه با این کاهش ها گفتند که بیش از 50 درصد از واحد مهندسی بهداشت بیکار شده است. ایروین فوراً به درخواست برای اظهار نظر در مورد این ادعا پاسخ نداد، اما قبلاً اینکه تیم بهداشت به شدت تحت تأثیر اخراج‌ها قرار گرفته بود را رد کرد.

او افزود که تعداد افرادی که روی ایمنی کودکان کار می کنند از زمان خرید تغییر نکرده است و مدیر محصول تیم هنوز آنجاست. ایروین گفت توییتر برخی از موقعیت ها را برای افرادی که شرکت را ترک کردند پر کرد، اگرچه او از ارائه ارقام خاص برای میزان گردش مالی خودداری کرد.

او گفت ماسک بیشتر بر روی استفاده از اتوماسیون متمرکز شده است و استدلال می‌کند که این شرکت در گذشته در سمت استفاده از بررسی‌های انسانی زمان‌بر و کار بر محتوای مضر اشتباه کرده است.

او گفت: “او تیم را تشویق کرد تا ریسک های بیشتری بپذیرد، سریع حرکت کند، سکو را ایمن کند.”

به عنوان مثال، در مورد ایمنی کودکان، ایروین گفت که توییتر به سمت حذف خودکار توییت‌های گزارش‌شده توسط چهره‌های مورد اعتماد با سابقه پرچم‌گذاری دقیق پست‌های مضر رفته است.

کارولینا کریستوفولتی، محقق اطلاعات تهدید در آزمایشگاه TRM که در زمینه مطالب سوء استفاده جنسی از کودکان تخصص دارد، گفت که متوجه شده است که توییتر اخیراً برخی از محتواها را با سرعت 30 ثانیه پس از گزارشش حذف کرده است، بدون اینکه گزارش خود را دریافت کند یا تصمیم خود را تأیید کند.

در مصاحبه روز پنجشنبه، ایروین گفت توییتر با همکاری گروه امنیت سایبری Ghost Data، حدود 44000 حساب کاربری را که در نقض ایمنی کودکان دخیل بودند، حذف کرد.

توییتر همچنین هشتگ‌ها و نتایج جستجویی را که اغلب با سوءاستفاده مرتبط هستند، محدود می‌کند، مانند مواردی که هدفشان جستجوی پورنوگرافی «نوجوانان» است. او گفت که نگرانی های گذشته در مورد تأثیر چنین محدودیت هایی بر استفاده های مجاز از این اصطلاحات از بین رفته است.

ایروین گفت: استفاده از “خبرنگاران مورد اعتماد” “چیزی بود که ما در گذشته در توییتر درباره آن صحبت کرده بودیم، اما کمی تردید و صراحتاً فقط کمی تاخیر وجود داشت.”

او گفت: «من فکر می‌کنم ما اکنون این توانایی را داریم که واقعاً با چنین چیزهایی پیش برویم.

© تامسون رویترز 2022


پیوندهای وابسته ممکن است به طور خودکار ایجاد شوند – برای جزئیات بیشتر به بیانیه اخلاقی ما مراجعه کنید.



منبع