هشدار کارشناسان: تغییر سیاستها در شبکههای اجتماعی دموکراسی را تهدید میکند
کارشناسان هشدار میدهند شرکتهای بزرگ دست اندر کار شبکههای اجتماعی با اخراج گسترده کارکنان ناظر بر محتوا و کنار گذاشتن سیاستهای ایمنی، موجب ایجاد «محیطی سمی» در فضای آنلاین شدهاند که این امر تهدید بزرگی برای دموکراسی به حساب میآید.
مطالعه جدید یک نهاد ناظر بر رسانهها نشان میدهد سال گذشته شرکتهای آلفابت، متا و ایکس دستکم ۱۷ دستورالعمل تاثیرگذار بر سیاستهای محتوایی خود را کنار گذاشتهاند.
این مطالعه با اشاره به اخراج بیش از ۴۰ هزار نفر از کارمندان این مجموعهها، این رویداد را موجب تهدید سلامت و امنیت پلتفرمهای یاد شده توصیف کرده است.
بررسی سازمان غیرانتفاعی «فری پرس» (Free Press) تاکید میکند وضعیت بسیار بد انتشار محتوای جعلی، نفرتآمیز و خشونتبار در پلتفرمهای رسانه اجتماعی در حال بدتر شدن است.
کارشناسان میگویند این موضوع با توجه به انتخابات سال ۲۰۲۴ ایالات متحده میتواند دموکراسی و حیات شهروندان را به هرج و مرج بکشاند.
این مطالعه همچنین با انتقاد از مدیران پلتفرمهای بزرگ رسانه اجتماعی مانند مارک زاکربرگ و ایلان ماسک، برخی تصمیمهای آنان را بیپروا و با هدف افزایش سود و کاهش پاسخگویی دانسته است.
کارشناسان با اشاره به برخی تغییرات در سیاستهای رسانههای اجتماعی که به منظور حفاظت از انتخابات وضع شده بودند، عقبگرد پلتفرمها در این زمینه را «حیرتانگیز» توصیف کردهاند. بسیاری از سیاستهای مورد اشاره، پس از یورش عدهای به کاخ کنگره ایالات متحده که در پی انتخابات ریاست جمهوری سال ۲۰۲۰ رخ داد، به اجرا درآمده بودند.
به عنوان مثال وبسایت یوتیوب از ماه ژوئن گذشته با تغییر سیاستهای محتوایی مربوط به انتخابات، به کاربران اجازه میدهد محتوایی را که موجب زیر سوال بردن اعتبار انتخابات ۲۰۲۰ آمریکا میشود، در این پلتفرم بارگذاری کنند.
شبکه اجتماعی ایکس (توییتر سابق) نیز در سال ۲۰۲۲ همین سیاست را اعمال کرد.
این شبکه اجتماعی در اطلاعیهای در ماه اوت گفت از این پس انتشار تبلیغات سیاسی در این پلتفرم مجاز خواهد بود.
حالا با توجه به تعدیل سیاستهای محتوایی و کمبود کارکنان ناظر بر محتوا، بیم آن میرود که چنین تغییراتی پلتفرمهای اجتماعی را در برابر سوءاستفاده آسیبپذیر کند.
متا در سال جاری بیش از ۲۰ هزار نفر را اخراج کرده است. یک تیم هم که با تولید ابزار، وظیفه صحتسنجی محتوای منتشر شده در پلتفرمهای زیرمجموعه این شرکت را داشت، از جمله اخراجیهای این شرکت هستند.
شرکت توییتر نیز پس از روی کار آمدن ایلان ماسک و تغییر نام آن به ایکس، حدود ۸۲ درصد کارکنان خود را اخراج کرد. این اخراج کل تیم ایمنی و بررسی محتوا را در بر گرفت؛ موضوعی که به گفته کارشناسان موجب افزایش بیدرنگ انتشار اطلاعات نادرست و نفرتانگیز در این شبکه اجتماعی شد.
آلفابت، شرکت مادر یوتیوب ۱۲ هزار و ۶۰۰ نفر را در سال ۲۰۲۳ اخراج کرده است.
مطالعه منتشر شده تاکید میکند تیکتاک تنها پلتفرم اجتماعی بوده که تغییر معناداری در سیاستهای محتوای انتخاباتی خود نداده است.
کارشناسان از شرکتهای بزرگ رسانه اجتماعی خواستهاند تا خط مشی مبارزه با اطلاعات نادرست را به شکل سختگیرانهتری پیادهسازی و اعمال کنند.