آیا فیس‌بوک طرف‌د‌ار ترامپ بود؟ | اسپادانا خبر
 
 
جمعه، 10 فروردين 1403 - 19:28

آیا فیس‌بوک طرف‌د‌ار ترامپ بود؟

شماره: 2669
Aa Aa

تحلیل‌ها نشان می‌دهد الگوریتم‌های نیوزفید در فیس‌بوک خبرهای جعلی‌ای را که به‌نفع ترامپ بوده‌اند به‌طور وسیع بخش کرده و رسوایی‌های مربوط به او را پخش نکرده‌اند.

این تازه اول داستان است؛
آیا فیس‌بوک طرف‌د‌ار ترامپ بود؟

اسلیت — پس از انتخاب دونالد ترامپ به‌عنوان رییس‌جمهور، فیس‌بوک با انتقاداتی موجه دربارۀ نقشش در انتشار اطلاعات غلط و پروپاگاندا دربارۀ نامزدها روبه‌رو شده است. به‌ویژه، الگوریتم نیوزفید یا خوراک اخبارِ فیس‌بوکْ بازاری پررونق برای اخبار جعلی و عمداً گمراه‌کننده شد که، بنا به تحلیل بازفید، به‌شدت ضد هیلاری کلینتون و به‌نفع ترامپ سوگیری داشت. این جعلیات به‌طورِ متوسط، بیش از گزارش‌های واقعی از همان منابع، توجه کاربران را جلب کردند و تلاش‌های جدی سایت‌های صحت‌سنج مثل اسنوبز۱ برای نقضشان را به حاشیه راندند.

اگر کسی بداند فیس‌بوک چگونه کار می‌کند، قطعاً از این ماجرا شگفت‌زده نخواهد شد. آدم‌ها علاقه دارند گزارش‌هایی را بخوانند، لایک کنند و به اشتراک بگذارند که مطلوب احساساتشان باشد و با باورهای فعلی‌شان همخوانی داشته باشد. بدون نیروهای قدرتمند و جبران‌کننده‌ای که به اعتبار و دقت اهمیت بدهند، الگوریتم نیوزفید لاجرم دروغ را ترویج خواهد داد، مخصوصاً دروغ‌هایی که سوگیری‌های پیشینیِ افراد را تقویت کنند. این جعلیات هم لاجرم بر تفکر افراد تأثیر می‌گذارند.

باوجوداین، در روزهای بعد از انتخابات، درحالی‌که انتقادها از شرکت فیس‌بوک افزایش یافت، مدیرعامل فیس‌بوک، مارک زاکربرگ، موضوع را کم‌اهمیت دانست و آن را انکار کرد. این موضع تدافعی، بیش از خودِ بحرانِ اخبار جعلی، وضعیت فیس‌بوک را نشان می‌دهد. پاسخ زاکربرگ حکایت از مشکلی عمیق‌تر از هر گزارش ساختگی دارد، مشکلی که با خروج چند وب‌سایت مشکوک از شبکۀ تبلیغات فیس‌بوک حل نخواهد شد. مسئلهْ امتناع فیس‌بوک از مسؤولیت‌پذیری در قبال نقش هر چه بیشترش در رسانه‌های خبری است. احتمال کمی هست که این مشکل از بین برود، حتی اگر اخبار جعلی از بین بروند.

زاکربرگ در مصاحبه‌ای عمومی در پنج‌شنبۀ گذشته ادعا کرد که اخبار جعلی فیس‌بوک «مطمئناً» در انتخابات «هیچ اثری نداشته‌اند» و هر نظری خلاف این «ایده‌ای به‌غایت دیوانه‌وار» است. او منتقدان فیس‌بوک را، بابت این فرض که رأی‌دهندگان تحت تأثیر جعلیات قرار می‌گیرند، به خودبرتربینی متهم کرد. همچنین این حرف را رد کرد که یکی از دو طرفْ اخبار جعلیِ بیشتری همخوان کرده است (استفادۀ بیشترِ یکی از دو طرف مستند است). با شدت‌گرفتن انتقادها، روز شنبه او پُستی در صفحۀ شخصی‌اش در فیس‌بوک منتشر کرد که لحنی آشتی‌جویانه‌تر داشت، اما باز هم این گزاره را رد می‌کرد که اخبار جعلی در انتخابات اثر داشته‌اند. او یادآوری کرد که فیس‌بوک همین حالا هم به کاربران امکان می‌دهد اخبار دروغین و جعلی را گزارش کنند و اضافه کرد که «ما روی این موضوع کار خواهیم کرد تا باز هم بهبود پیدا کند». هم‌زمان، تذکر داد که فیس‌بوک باید «بسیار محتاطانه پیش برود»، زیرا «تشخیصِ حقیقت پیچیده است».

بله، حقیقتْ پیچیده است و فیس‌بوک باید محتاطانه پیش برود. اما، هم در داخل و هم در خارجِ شرکت، برداشتی رو به‌رشد هست که، باتوجه‌به نقش روزبه‌روز مسلط‌ترِ فیس‌بوک در نشر آنلاین اخبار، شاید فیس‌بوک بیش‌ازحد محتاطانه پیش می‌رود. تکذیب‌های زاکربرگ هم ظاهراً به این آتش دامن می‌زنند.

در طول آخر هفته، بعضی از کارمندانِ ناشناس اما بالارتبۀ فیس‌بوک به نیویورک‌تایمز گفتند که نقش شرکت در تبلیغات انتخاباتی را زیر سؤال برده‌اند. دوشنبه، پنج کارمند ناشناسِ دیگر به بازفید گفتند که آن‌ها و یک دوجین کارمند دیگر در فیس‌بوک، «گروه ضربت» مخفی تشکیل داده‌اند تا خواهان اقدامی قوی‌تر علیه اخبار جعلی شوند. در همین حال، یکی از استراتژیست‌های ارشدِ کلینتون به پولیتیکو گفت که رهبرانِ حزب دموکرات به‌دنبال راه‌هایی هستند که فیس‌بوک را وادار به رسیدگی به مشکل کنند. گیزمودو هم به‌نقل از منبعی ناشناس گزارش داد که فیس‌بوک در تابستان اقدامی شدیدتر علیه اخبار جعلی را بررسی کرده بود، اما از ترسِ ناراحت‌کردن محافظه‌کاران دست نگه داشت. فیس‌بوک این را تکذیب کرد و به من گفت که چنین کاری نکرده است. همچنین توضیحی جایگزین برای دست‌کاری‌هایش در نیوزفید در طول تابستان ارائه کرد. (با این کار، فیس‌بوک در موقعیت طنزآمیزی قرار گرفت، چون می‌گفت پست گیزمودو هم یک‌ جور خبر جعلی بوده است.)

نهایتاً، دوشنبه شب شرکتْ گامی واقعی برداشت. با تقلید از گوگل، که همان روز گامی مشابه برداشته بود، فیس‌بوک اعلام کرد که استفادۀ سایت‌های خبر جعلی از شبکۀ تبلیغاتش را ممنوع خواهد کرد. شروع خوبی است، اما به‌هیچ‌وجه کافی نیست.

عصبانیت از اخبار جعلیْ موجه است. گزارش‌های ساختگی دربارۀ حمایت پاپ از ترامپ یا قتل یکی از مأموران اف‌.بی‌.آی به‌خاطر افشای ایمیل‌های کلینتون شاید بخشی کوچک از کل محتوای سیاسی همخوان‌شده در فیس‌بوک را تشکیل دهد. (زاکربرگ بدون ارائۀ هیچ سندی اعلام کرد که ۹۹درصد محتوای فیس‌بوک «اصالت» دارد.) اما این اخبار و اخباری نظیر آن‌ها آن‌قدر همخوان شده‌اند که به‌سادگی می‌شود تصور کرد که حداقل در تفکر بعضی رأی‌دهندگان تأثیر گذاشته باشند. (حمایت جعلی پاپ حدود یک‌میلیون بار همخوان شد) برعکس، گزارش افشاگرانه و تحقیقیِ مهمِ نیویورک تایمز دربارۀ وضعیت مالیاتیِ ترامپ کمتر از دویست‌هزار بار همخوان شد. حضور اخبار جعلی در کنار اخبار حقیقی، با شکل‌های مشابه، منجر به این حس می‌شود که هرچیزی در نیوزفید می‌خوانید، همان‌قدر که ممکن است حقیقت داشته باشد، ممکن است کاملاً ساختگی باشد.

اما در طولانی مدت، شاید در مقایسه با گسل عمیق‌تری که این لرزه‌ها آشکار کرده‌اند، نگرانی از اخبار جعلی در فیس‌بوک عمری کوتاه داشته باشد. این گسلْ شرکتی را نشان می‌دهد که به‌شکلی فزاینده در میان دو چیز درمانده شده است: نخست، تصورش از خود به‌عنوان یکی از پلتفرم‌های بی‌طرفِ فناوری ازیک‌سو؛ دوم، تأثیر ‌انکارناپذیرش در آفرینش، گسترش و مصرف اخبار و رسانه‌های دیگر ازسوی‌دیگر. این باعث شده است زاکربرگ، یکی از قدرتمندترین مدیران جهان، برای حفظ کنترل شرکتش و روایتی که از خودش ارائه می‌کند تقلا کند.

البته که او حق دارد از تعیین فیس‌بوک به‌عنوان «داور اعتبار روزنامه‌نگاری» نگران باشد. نیوزفیدی به‌هم‌ریخته و در اختیار همگان، احتمالاً، ترجیح دارد به نیوزفیدی که در آن تنها منابع موردتأیید فیس‌بوک دیده می‌شوند. پس باید پذیرفت که برای فیس‌بوک غیرممکن است که «همۀ» دروغ‌ها را از شبکه‌اش پاک کند و شاید خطرناک باشد که برای انداختن توری این‌قدر وسیع حتی تلاش هم بکند. بااین‌حال، وجود مزارع کلیک۲ در مقدونیه، که مشغول تولید گزارش‌های خبریِ جعلی با هدف سود هستند، نشانۀ واضحی است که فیس‌بوک باید برای رسیدگی به قسمت کوچکی از محتوا که آشکارا ساختگی است کار بیشتری بکند. حتی زاکربرگ هم این را قبول دارد.

دربارۀ پاسخ زاکربرگ به مشکل اخبار جعلی، چیزی که عجیب بود این بود که با اطمینان کامل می‌گفت هیچ تأثیری در انتخابات نداشته است. کل بنیاد کسب‌وکار فیس‌بوک این است که آنچه مردم در نیوزفیدشان می‌خوانند می‌تواند روی تصمیم‌هایشان تأثیر بگذارد. در غیر این صورت، دلیل چندانی برای تبلیغ در آنجا باقی نخواند ماند. زاکربرگ، با خوش‌حالیِ بسیار، این تخمینِ شرکت را در بوق‌وکرنا کرده است: فیس‌بوک دومیلیون نفر را به رأی‌دادن تشویق کرده است، افرادی که اگر فیس‌بوک نبود در خانه می‌ماندند. اما او از ما می‌خواهد باور کنیم که گزارش‌های خبریِ جعلی اصلاً هیچ نقشی بازی نکرده‌اند.

اگر گزارش گیزمودو دقیق باشد، جنبۀ زشتی از انکار مشکل اخبار جعلی از سوی زاکربرگ را نشان خواهد داد. براساس گزارش، شرکت «می‌دانست» که اخبار جعلی به یک حزبْ کمکی بیشتر از دیگری می‌کند، اما دقیقاً به همین دلیل از اقدام خودداری کرد. این یعنی زاکربرگ صرفاً در مرحلۀ انکار نیست، بلکه اساساً دروغ می‌گوید.

اما توضیح دیگری برای موضع محکم او هست که به حدس و گمان یا منابع ناشناس تکیه نمی‌کند. این توضیحْ عبارت است از اینکه زاکربرگ آن‌قدر از پذیرش مسئولیت برای محتوای همخوان‌شده در فیس‌بوک بیزار است (باآنکه مدیر این نوار نقاله است، آن قدر به خم‌شدن زیر بارِ آن بی‌علاقه است) که ترجیح می‌دهد، به‌جای درگیرشدن با علت، معلول را انکار کند.

این رفتار، با رویکرد زاکربرگ به سایر مسائلِ عمیق‌تر دربارۀ نقش فیس‌بوک در رسانه، همخوانی دارد، ازجمله این اتهام که فیس‌بوک، با تقویت باورهای کاربران، آن‌ها را در حباب‌های ایدئولوژیک گیر می‌اندازد. زاکربرگ پنج‌شنبه گفت: «همۀ پژوهش‌های ما نشان می‌دهد که چنین چیزی واقعاً مسئله‌ساز نیست.» او به پژوهشی اشاره می‌کرد که در سال ۲۰۱۵ با حمایت مالی فیس‌بوک انجام شد و با انتقادهایی مبنی بر گمراه‌کننده‌بودن مواجه شد. داده‌ها نشان می‌داد که فیس‌بوک واقعاً کاربران را در معرض محتوایی سیاسی می‌گذارد که با هویت حزبیِ آن‌ها مطابقت دارد. اما پژوهش، تاحدی با موضعی تدافعی، نتیجه می‌گرفت که این مسئله، در مقایسه با مسئلۀ انتخابِ خودِ کاربران دربارۀ اینکه با چه محتوایی درگیر شوند، اهمیت کمی دارد. همان‌طور که جفرسون پولی در اسلیت اشاره کرده است، تکرار آزمون و بازتولید یافته‌های فیس‌بوک غیرممکن است، زیرا این شرکت به پژوهشگرانِ مستقل اجازۀ دیدنِ داده‌هایش را نمی‌دهد.

بااینکه نتایجِ پژوهشْ مشکوک به نظر می‌رسد، ظاهراً زاکربرگ را کاملاً متقاعد کرده‌است که فیس‌بوک با مشکل «حباب‌های فیلترکننده» (حباب‌هایی که تجربۀ کاربر را قرنطینه می‌کنند) مواجه نیست. این نتیجه‌گیری به کار فیس‌بوک می‌آید، زیرا رسیدگی به چنان موضوعی نیازمند بازاندیشی در ساختار اساسی الگوریتم و تجربۀ کاربرِ آن خواهد بود. از قرار معلوم، این فقط کاربران فیس‌بوک نیستند که با سوگیریِ تأییدی و حصر معرفتی روبه‌رو هستند.

اثر موذیانه و نامحسوس‌ترِ دیگری از الگوریتم فیس‌بوک هست که در این ماجرا تقریباً ناگفته مانده است. این اثرْ مشوقی است که فیس‌بوک برای رسانه‌ها (هم رسانه‌های توزیع‌کنندۀ دروغ و هم رسانه‌های حقیقت‌گو) ایجاد می‌کند تا گزارش‌ها را به‌گونه‌ای بنویسند و قاب‌بندی کنند که لایک، کلیک و همخوان‌کردن‌های بیشتری در بین کاربران شبکۀ اجتماعی بگیرند. فیس‌بوک، به‌شیوه‌های واضحی، پوشش خبریِ آنلاین را تغییر داده است، شیوه‌هایی مثل تیترهای فریب‌کارانه یا دامن‌زدن به هیجان با گزارش‌ها و روایت‌های احساساتی که بهتر از آن هستند که کسی دنبال بررسی‌شان برود. با درنظرگرفتن این امر، این توهم که فیس‌بوک پلتفرمی بی‌طرف است باید مدت‌ها پیش نابود می‌شد. اگر قرار بود تلاش کنید رژیمی رسانه‌ای طراحی کنید که سبب رشدِ چیزی مثل پدیدۀ ترامپ بشود، بعید است می‌توانستید چیزی بهتر از رسانه‌های کابلیِ خبریِ ۲۴ساعته و نیوزفید فیس‌بوک فراهم کنید. از حق نگذریم، فیس‌بوک مشکل طعمه‌های کلیک و لایک را پذیرفته است و تلاش‌هایی واقعی برای کاهش مشوق‌های نابجای خودش انجام داده است. زاکربرگ به‌طور مرتب به موضوع اخبار جعلی اشاره داشته است. باوجوداین، چیزی نشان نداده است که حاکی از آگاهی از شیوه‌های دیگری باشد که فیس‌بوک توانسته پوشش سیاسی را مختل کند.

درآخر می‌رسیم به اینکه زاکربرگ منکر می‌شود که فیس‌بوکْ یک کمپانیِ رسانه‌ای است . این انکارِ او با انتقادات زیادی مواجه شده است. زاکربرگ، انگار که این باعث حل موضوع شود، می‌گوید: «فیس بوک یک شرکت فناوری است.» استدلال‌های معتبری در هر دو سو وجود دارند و شکی نیست که شرکتْ پایی در هر دو بخش دارد. کاملاً منطقی است که فیس‌بوک بپذیرد که، در بعضی جنبه‌های کلیدی، شرکتی رسانه‌ای است و در بعضی دیگر نیست. اما زاکربرگ حتی این را هم انکار می‌کند. برای او، هیچ بحثی در این زمینه وجود ندارد.

در دلایل فیس‌بوک برای اصرار بر رسانه‌ای‌نبودنش که عمیق شوید، لایه‌به‌لایه با انکار مواجه می‌شوید. فیس‌بوک انکار می‌کند که شرکتی رسانه‌ای است، زیرا این به فیس‌بوک اجازه می‌دهد که انکار کند که هم چگونگی توزیع اخبار را شکل می‌دهد و هم نحوۀ گزارش‌دهی، قاب‌بندی، بحث و درک خبر را تحت تأثیر می‌گذارد. این به‌نوبۀخود به فیس‌بوک اجازه می‌دهد انکار کند که افراد یا الگوریتم‌هایش شاید سوگیری‌ای داشته باشند که اخبار را، خوب یا بد، تغییر می‌دهند و دسته‌ای از منافع را به منافع دیگر ترجیح می‌دهد. اگر فیس‌بوک -همان‌طور که اصرار دارد- پلتفرمی بی‌طرف باشد، آنگاه می‌تواند دربارۀ نحوۀ استفادۀ افراد از آن (آنچه منتشر یا همخوان می‌کنند) و تضمین دقت یا انصاف یا فضایل ژورنالیستیِ اخبارِ جاری در آن هیچ‌گونه مسئولیتی نپذیرد.

انکار نهایی، یعنی هدف اساسیِ همۀ این‌ها، انکارِ یک چیز است: امکان وجود هرگونه تنشی بین منافع فیس‌بوک و منافع جامعه. فیس‌بوک، به‌قول زاکربرگ، صرفاً ابزاری قدرتمند برای ساختن جهانی بازتر و متصل‌تر است. اگر این به‌معنای انتخاب ترامپ به‌عنوان رئیس‌جمهور آمریکاست، لابد انتخاب او دلایل خوب و موجهی دارد که ربطی به فیس‌بوک ندارند یا، باز به‌قول زاکربرگ، «رأی‌دهندگان براساس تجربۀ زیسته‌شان تصمیم می‌گیرند»؛ انگار که فیس‌بوک بخشی از آن تجربه نیست و انگار که ارزش بازارِ ۳۳۵میلیارددلاریِ آن تابع سطح شگفت‌انگیز ورود موفقیت‌آمیز فیس‌بوک به زندگی روزمرۀ افراد نیست و بالاخره انگار که زندگی آنلاین و آفلاینِ ما حالا به‌شکلی بازگشت‌ناپذیر درهم‌تنیده نیستند.

یا زاکربرگ از تناقضات درونی موضعش خبر ندارد یا، به‌احتمال بیشتر، او این تناقض‌ها را تشخیص می‌دهد، اما حاضر نیست بر آن‌ها صحه بگذارد. اگر او باور داشته باشد که مواجهه با اثر فیس‌بوک بر سیاست نیازمند تغییراتی است که به‌سود شرکت ضربه می‌زند، شاید احتیاط او، از دیدگاه کسب‌وکار و نه دیدگاهی اخلاقی، درست باشد. اما این کار، از سوی کسی که حکمتِ بازبودن را موعظه می‌کند، گیج‌کننده است.

اما حالا ظاهراً زاکربرگ بابت این ماجرا اعتماد بعضی از کارمندانش را هم از دست داده است. در گذشته به‌ندرت خبری از فیس‌بوک درز کرده است. اما، بعد از ناشیگریِ فیس‌بوک در جنجال خبرهای ترندشده، درزها باز و در مبحث اخبار جعلی دوباره ظاهر شده‌اند. به نظر می‌رسد که حرکت روز دوشنبۀ فیس‌بوک برای محروم‌کردن سایت‌های خبریِ جعلی از تبلیغاتْ نوعی پذیرش این مسئله از سطوح بالای مدیریتِ شرکت است: انکارِ همه‌جانبه دیگر قابل‌دفاع نیست.

مسئله حالا این است که فیس‌بوک برای آرام‌کردن منتقدانش تا کجا پیش خواهد رفت. آخرین باری که فیس‌بوک با غوغایی بر سر اثرگذاری‌اش در سیاست آمریکا روبه‌رو بود (جنجال اغراق‌شدۀ مربوط به بخش اخبار ترندشده‌اش) واکنشی بیش‌ازحد شدید داشت که وضعیت را بدتر کرد. ظاهراً این بار احتمال کمتری دارد که چنین اتفاقی بیفتد، به‌ویژه که نیوزفید، برای این شرکت، محصولی به‌مراتب پرارزش‌تر است.

محتمل‌تر این است که فیس‌بوک به‌دنبال این برود که موضوع اخبار جعلی را جدا و خنثی کند و هم‌زمان بر ادعای «پلتفرمی فناورانه و خنثی بودن» پافشاری کند. همان‌طور که جان هرمان هفتۀ پیش در نیویورک‌ تایمز نوشته بود، فیس‌بوک شاید همین حالا در حال تکاملی باشد که جاروجنجال فعلی را بی‌اهمیت کند. مثلاً فیس‌بوک با رسانه‌های معتبر شریک شده است تا محتوای ویدئویی تولید کنند، ویدئوهای زنده پخش کنند و «مقاله‌های فوریِ» جذابی در خودِ نیوزفید منتشر کنند. فیس‌بوک از قدرت الگوریتمش استفاده می‌کند تا به این فرم‌ها اولویتی بیشتر از دیگر فرم‌ها (مثل لینک به گزارش‌های ناشران دیگر در سراسر وب) بدهد. می‌توان تصور کرد که فیس‌بوک نهایتاً بیشترِ اخبار جعلی و در کنارش حجم بزرگی از محتوای مشروع تولیدکنندگان خبرِ درجۀ دو و سۀ وب را خفه کند، بدون این که نیاز داشته باشد به‌شکلی فعالانه کاری بیش از نظارت فعلی‌اش انجام دهد.

آن‌ها که غوغا می‌کنند تا فیس‌بوک مشکل اخبار جعلی‌اش را درست کند باید مراقب باشند چه چیزی می‌خواهند. شاید در چند سال بفهمند که اخبار جعلی از بین رفته‌اند، اما حباب‌های فیلترکننده، مشوق‌های گمراه‌کننده و تظاهر فیس‌بوک به بی‌طرفیِ الگوریتمی باقی مانده‌اند.

پی‌نوشت‌‌ها:
* این مطلب در تاریخ ۱۵ نوامبر ۲۰۱۶ با عنوان The Real Problem Behind the Fake News در وب‌سایت اسلیت منتشر شده است و وب‌سایت ترجمان در تاریخ ۱۱ بهمن ۱۳۹۵ این مطلب را با عنوان آیا فیس‌بوک طرف‌د‌ار ترامپ بود؟ ترجمه و منتشر کرده است.
[۱] Snopes
[۲] Click-farm
مناطقی که در آن از کارگران ارزان یا از روش‌های دیگر برای کلیک‌کردن دروغین و تقلبی برخی مطالب استفاده می‌شود.

مولف : ویل اورِموس
مترجم : سهیل جان‌نثاری

منبع/ ترجمان

نسخه PDF نسخه چاپی ارسال به دوستان