به گزارش دیلی‌میل، طبق گزارش وال‌استریت‌ژورنال، فیس‌بوک در سال ۲۰۱۸ میلادی الگوریتم‌های خود را طوری تغییر داد تا محتوای باز‌نشر‌شده اولویت یابد اما این امر به‌گسترش بی‌حد و حصر اخبار جعلی، محتوای نفرت‌پراکنانه و خشونت‌آمیز در پلت‌فرم منجر شد. مارک زاکربرگ مدیر ارشد اجرایی فیس‌بوک اعلام کرده بود این تغییر برای قدرتمندتر کردن رابطه بین افراد (به‌ویژه بین خانواده و دوستان) و ارتقای سلامت آنها انجام شده است‌ اما اسناد نشان می‌دهد آنچه در واقع اتفاق افتاد، خلاف این امر بود و فیس‌بوک به‌فضایی خشن‌تر تبدیل شد‌ زیرا الگوریتم‌های هوش‌مصنوعی به‌محتوای خشن اولویت می‌دادند. محققان این شرکت فناوری متوجه شدند ناشران اخبار و احزاب سیاسی به‌طور عمدی محتوای منفی یا تفرقه‌انگیز را منتشر می‌کنند زیرا با لایک و اشتراک‌گذاری زیادی روبه‌رو می‌شد و در نتیجه بین کاربران به‌عنوان اخبار واقعی به‌اشتراک گذاشته می‌شد. طبق اسناد موجود در آوریل ۲۰۲۰ درباره این چالش به ‌زاکربرگ هشدار داده شد اما الگوریتم‌های مذکور بدون هیچ‌تغییری در پلت‌فرم حفظ شدند. تشویق به‌برخوردهای معنادار اجتماعی دلیل تغییر الگوریتم‌های فیس‌بوک در سال ۲۰۱۸ میلادی بود‌ زیرا کارشناسان حاضر در شرکت نگران کاهش کامنت و اشتراک‌گذاری پست‌ها توسط کاربران بودند. این موارد برای فیس‌بوک اهمیت زیادی دارد زیرا بسیاری از مدیران شرکت آن را کلیدی برای بررسی سلامت پلت‌فرم می‌دادند. اگر میزان کامنت و اشتراک‌گذاری پست‌ها کاهش یابد، ممکن است کاربران به‌تدریج استفاده از آن را متوقف کنند. در سال ۲۰۱۷ میلادی میزان لایک و بازنشر پست‌ها در سراسر سال کاهش یافت اما در آگوست ۲۰۱۸ میلادی و پس از تغییراتی در الگوریتم روند نزولی مذکور متوقف شد و دوباره فعالیت روزانه کاربران تا حد قابل‌توجهی ارتقا یافت. اما مشکل آنجا بود که تحقیقی میان کاربران نشان داد بسیاری از آنها معتقدند کیفیت محتوای پلت‌فرم کاهش یافته است. علاوه بر آن در لهستان این تغییرات سبب شد گفت‌وگوی سیاسی در پلت‌فرم مغرضانه‌تر شود. این امر روی ناشران اخبار آنلاین نیز تاثیر گذاشت. جونا پرتی مدیر ارشد اجرایی بازفید در ‌ایمیلی به‌مقامات فیس‌بوک هشدار داد بیشتر محتوای تفرقه‌انگیزانه‌ای که ناشران در این پلت‌فرم منتشر می‌کنند در باز‌فید وایرال می‌شود. طبق یک یادداشت داخلی مربوط به‌آوریل ۲۰۲۰ میلادی، پس از افزایش نگرانی‌ها درباره الگوریتم، چند اقدام جایگزین پیشنهادی به‌زاکربرگ ارائه شد تا با گسترش اخبار جعلی و تفرقه‌انگیز در پلت‌فرم مقابله کند. یکی از این پیشنهادات حذف الگوریتم ترویج محتوای بازنشرشده توسط زنجیره‌ای طولانی از کاربران بود‌ اما زاکربرگ به ‌این ایده توجهی نشان نداد. اما‌ در ماه جولای ۲۰۲۱ و ۱۸‌ماه پس از آن فیس‌بوک اعلام کرد آزمایش‌ها برای محدود‌سازی این قابلیت را وسیع‌تر می‌کند