شکستهای اخلاقی فیسبوک: آیا مشکل در تکنولوژی است یا مدل کسبوکار؟
شبکههای اجتماعی بخشی جداییناپذیر از زندگی روزمره ما شدهاند. فیسبوک، با میلیاردها کاربر در سراسر جهان، ادعا میکند که مأموریتش «توانمندسازی مردم برای ساخت جامعه و نزدیکتر کردن جهان به یکدیگر» است. شعاری زیبا و آرمانگرایانه، اینطور نیست؟ اما آیا آنچه در واقعیت میبینیم، با این مأموریت همخوانی دارد؟ آیا پلتفرمی که روزانه ساعتها از وقت ما را به خود اختصاص میدهد، واقعاً در جهت منافع ما و جامعه جهانی گام برمیدارد؟
اگر به دنبال درک عمیقتری از چالشهای پیش روی شبکههای اجتماعی، بهویژه فیسبوک، و تأثیرات آن بر زندگیمان هستید، جای درستی آمدهاید. در این مقاله، با استناد به یک بررسی دقیق و حرفهای منتشر شده در ژورنال معتبر Ai Ethics، به قلم دیوید لائوِر، متخصص هوش مصنوعی، به کالبدشکافی مشکلات اخلاقی فیسبوک میپردازیم. لائور معتقد است که این مشکلات اتفاقی نیستند، بلکه بخشی جداییناپذیر از مدل کسبوکار این غول فناوری هستند. بیایید ببینیم چرا این ادعا مطرح شده و شواهد موجود چه چیزی را نشان میدهند.
اگر به دنبال درک این هستید که چرا به نظر میرسد فیسبوک ما را بیشتر از هم دور میکند تا نزدیک، و چرا محتواهای افراطی و تفرقهافکنانه در این پلتفرم رشد میکنند، ادامه این مقاله برای شما ارزشمند خواهد بود. فراموش نکنید که در پایان مقاله، نظرات و تجربههای خود را با ما در بخش کامنتها در میان بگذارید. وبسایت ما (چیریکا) همیشه پذیرای دیدگاههای شماست.
فیسبوک: ظاهری دوستانه، باطنی سوداگر
همانطور که اشاره شد، مأموریت رسمی فیسبوک، نزدیک کردن مردم و ساخت جامعه است. اما دیوید لائور در مقاله خود استدلال میکند که نگاهی عمیقتر به مدل کسبوکار فیسبوک نشان میدهد که “دور کردن ما از یکدیگر بسیار سودآورتر” است. این جمله شاید در ابتدا شوکه کننده به نظر برسد، اما بیایید مکانیسم آن را بررسی کنیم.
مدل کسبوکار فیسبوک بر پایه «تعامل» (Engagement) حداکثری کاربران بنا شده است. هرچه بیشتر در پلتفرم بمانید، محتوای بیشتری ببینید، لایک کنید، کامنت بگذارید و به اشتراک بگذارید، فیسبوک پول بیشتری از تبلیغکنندگان کسب میکند. الگوریتمهای فیسبوک طوری طراحی شدهاند که شما را درگیر نگه دارند. یکی از موثرترین راهها برای افزایش تعامل، نمایش محتوایی است که احساسات قوی در شما برمیانگیزد – حتی اگر آن احساس خشم، ترس یا انزجار باشد.
اینجاست که مفهوم «حباب فیلتر» (Filter Bubble) و «اتاق پژواک» (Echo Chamber) مطرح میشود. الگوریتمها بر اساس تعاملات قبلی شما، محتوایی را به شما نمایش میدهند که احتمالاً با دیدگاههای شما همخوانی دارد و شما را تأیید میکند. در نتیجه، شما کمتر در معرض دیدگاههای متفاوت قرار میگیرید و بیشتر در معرض محتواهایی هستید که باورهای فعلی شما را تقویت میکنند.
اما مشکل زمانی تشدید میشود که الگوریتمها متوجه میشوند محتواهای افراطی، جنجالی، تفرقهافکنانه و حاوی اطلاعات نادرست، بیشترین تعامل را به همراه دارند. دعواها، خشمها، تئوریهای توطئه، و اخبار دروغین، به سرعت ویروسی میشوند و توجه زیادی جلب میکنند. و از آنجایی که هدف الگوریتمها افزایش تعامل است، آنها ناخواسته یا خواسته، این نوع محتواها را بیشتر به شما نشان میدهند.
در نتیجه، فیسبوک از ترویج افراطگرایی، قلدری، نفرتپراکنی، اطلاعات غلط، تئوریهای توطئه و خشونت کلامی سود میبرد. لائور به صراحت میگوید: «مشکل فیسبوک، مشکل تکنولوژی نیست. مشکل، مشکل مدل کسبوکار است.» اگر مدل کسبوکار فیسبوک بر ارائه کارآمد اطلاعات دقیق و دیدگاههای متنوع تمرکز داشت، به جای معتاد کردن کاربران به محتوای جذاب درون یک اتاق پژواک، نتایج الگوریتمی بسیار متفاوت بود.
این تناقض بین مأموریت اعلامشده و واقعیت عملی، قلب مشکلات اخلاقی فیسبوک را تشکیل میدهد.
پاسخهای مقامات فیسبوک و واقعیت تلخ
شکست فیسبوک در مهار افراطگرایی سیاسی، اطلاعات غلط عمدی، و تئوریهای توطئه به خوبی مستند شده است. این مسئله به ویژه با نفوذ این عناصر ناخوشایند در سیاستهای جریان اصلی و تجلی آنها در خشونتهای مرگبار واقعی، بیشتر مورد توجه قرار گرفته است.
در این میان، ین لِکون (Yann LeCun)، دانشمند ارشد هوش مصنوعی در فیسبوک، در توییتر نگرانی خود را در مورد نقش شخصیتهای راستگرا در کماهمیت جلوه دادن شدت همهگیری کووید-۱۹ ابراز کرد. منتقدان به سرعت اشاره کردند که فیسبوک دقیقاً از همین نوع اطلاعات غلط سود برده است. لکون در پاسخ به انتقادات، ادعاهای زیر را مطرح کرد:
- فیسبوک باعث قطبیسازی یا «حبابهای فیلتر» نمیشود و «بیشتر مطالعات جدی این را نشان نمیدهند.»
- منتقدانی که میگویند فیسبوک از گسترش اطلاعات نادرست سود میبرد، «از نظر واقعی در اشتباه هستند.»
- فیسبوک از فناوری مبتنی بر هوش مصنوعی برای فیلتر کردن محتوایی مانند نفرتپراکنی، فراخوان خشونت، قلدری، و اطلاعات نادرست که ایمنی عمومی یا یکپارچگی فرآیند دموکراتیک را به خطر میاندازند، استفاده میکند.
- فیسبوک «داور حقیقت سیاسی» نیست و داوری حقیقت سیاسی توسط فیسبوک «سوالات جدی در مورد ایده هر کسی از اخلاق و دموکراسی لیبرال» مطرح میکند.
آنچه در این ادعاها غایب است، اذعان به این واقعیت است که سودآوری شرکت تا حد زیادی به قطبیسازی که لکون اصرار دارد وجود ندارد، بستگی دارد. لائور در مقاله خود به تفصیل به رد این ادعاها میپردازد و نشان میدهد که چرا پاسخهای لکون، از دیدگاه بسیاری از منتقدان و کارشناسان، قانعکننده نیستند.
آیا فیسبوک واقعاً شفاف نیست؟
یکی از چالشهای اساسی برای درک و مطالعه دقیق رفتار فیسبوک، عدم شفافیت آن است. برای اینکه بتوان الگوریتمها و مدلهای هوش مصنوعی فیسبوک را به طور مؤثر مطالعه کرد، نیاز به دسترسی به دادهها و شفافیت وجود دارد که فیسبوک آن را فراهم نمیکند. همانطور که سازمان «امنیت سایبری برای دموکراسی» (Cybersecurity for Democracy) اشاره میکند، الگوریتمها و مدلهای هوش مصنوعی فیسبوک اختصاصی هستند و عمداً پنهان نگه داشته میشوند. در حالی که این برای بسیاری از شرکتها طبیعی است، هیچ شرکت دیگری ۲.۸۵ میلیارد کاربر فعال ماهانه ندارد. پلتفرمی که زندگی این تعداد زیاد از مردم را تحت تأثیر قرار میدهد، باید قابل مطالعه باشد.
فیسبوک ممکن است به همکاری خود با موسسه علوم اجتماعی کمی دانشگاه هاروارد (Social Science One) به عنوان شواهدی مبنی بر ارائه داده به محققان اشاره کند، اما این همکاری نیز محدودیتهای جدی دارد:
- دادهها بسیار محدود هستند (فقط شامل آدرس صفحات وبی که در بازه زمانی خاصی به اشتراک گذاشته شدهاند).
- محققان باید برای دسترسی به دادهها درخواست دهند و توسط Social Science One که به عنوان «نگهبان داده» عمل میکند، تأیید شوند.
- در صورت تأیید، محققان باید مستقیماً با فیسبوک قرارداد امضا کنند.
این یک فرآیند علمی باز نیست، بلکه فرآیندی است که به مدیران امکان میدهد پروژههای تحقیقاتی را که به نفع دیدگاه خودشان هستند، انتخاب کنند. اگر فیسبوک واقعاً در تسهیل تحقیقات دانشگاهی جدی بود، دسترسی، در دسترس بودن و بینش بسیار بیشتری نسبت به دادهها فراهم میکرد. نگرانیهای مشروع در مورد حریم خصوصی وجود دارد، اما راههای بسیار بهتری برای حل این نگرانیها و در عین حال ترویج تحقیقات باز و پر جنب و جوش وجود دارد.
قطبیسازی: اتهامی که فیسبوک رد میکند
ین لکون برای اثبات ادعای خود مبنی بر اینکه فیسبوک باعث قطبیسازی نمیشود، به یک مطالعه واحد استناد کرد. اما آیا یافتههای این مطالعه واقعاً ادعاهای او را تأیید میکنند؟
مطالعهای که لکون به آن اشاره میکند (Boxell, 2017)، نتیجه میگیرد که قطبیسازی بیشتر در گروههای جمعیتی افزایش یافته است که کمتر از اینترنت و شبکههای اجتماعی استفاده میکنند. اما همانطور که لائور توضیح میدهد، این مطالعه مستقیماً استفاده از اینترنت یا شبکههای اجتماعی را اندازه نگرفته است. در عوض، بر اساس عوامل جمعیتی مانند سن، استفاده پیشبینیشده از اینترنت را تخمین زده است. از آنجایی که سن بالا با استفاده کمتر از رسانههای اجتماعی همبستگی دارد و افراد مسنتر قطبیتر هستند، لکون این را دلیلی بر عدم ایجاد قطبیسازی توسط شبکههای اجتماعی میداند.
این فرض علت و معلولی معیوب است و نویسنده خود مطالعه نیز در مورد نتیجهگیریهای علی احتیاط میکند. جالب اینجاست که یک مطالعه اخیر توسط مرکز تحقیقات پیو (Pew Research) نشان میدهد که درصد بسیار بالایی از بزرگسالان بالای ۶۵ سال در ایالات متحده (۵۰%) از فیسبوک استفاده میکنند، که بیشترین میزان در میان تمام شبکههای اجتماعی است. پس سن بالا لزوماً به معنای عدم استفاده از فیسبوک نیست.
علاوه بر این، مطالعات دیگری به طور مستقیم این موضوع را بررسی کردهاند:
- مطالعه استیون ال. جانسون و همکاران (2020) در مجله MIS Quarterly نشان داد که «هرچه کسی زمان بیشتری را در فیسبوک صرف کند، مصرف اخبار آنلاین او قطبیتر میشود. این شواهد نشان میدهد که فیسبوک به ویژه برای کاربران محافظهکار خود به عنوان یک اتاق پژواک عمل میکند.»
- مطالعهای دیگر توسط هال آلكات (Hunt Allcott) و همکاران در سال ۲۰۱۹ با عنوان «اثرات رفاهی رسانههای اجتماعی» به بررسی مطالعات دیگر میپردازد که رابطه بین استفاده از رسانههای اجتماعی، رفاه و قطبیسازی سیاسی را تأیید میکنند. آنها با یک آزمایش تصادفی در آستانه انتخابات میاندورهای ۲۰۱۸ نشان دادند که:
- غیرفعال کردن فیسبوک برای چهار هفته قبل از انتخابات، فعالیت آنلاین را کاهش داد و فعالیتهای آفلاین مانند تماشای تلویزیون تنها و معاشرت با خانواده و دوستان را افزایش داد.
- دانش خبری واقعی و قطبیسازی سیاسی را کاهش داد.
- رفاه ذهنی را افزایش داد.
- باعث کاهش پایدار و بزرگی در استفاده از فیسبوک پس از آزمایش شد.
به عبارت دیگر، یک ماه استفاده نکردن از فیسبوک شما را شادتر کرد و منجر به استفاده کمتر در آینده شد. واقعاً شگفتانگیز نیست؟
حتی «یک محقق سابق هوش مصنوعی فیسبوک» نیز تأیید کرده است که آنها «مطالعه پشت مطالعه» انجام دادهاند که ایده اصلی را تأیید میکند: «مدلهایی که تعامل را حداکثر میکنند، قطبیسازی را افزایش میدهند.» فیسبوک نه تنها این را میدانست، بلکه به طراحی و ساخت الگوریتمهای توصیه خود برای حداکثر کردن تعامل کاربر ادامه داد، با علم به اینکه این به معنای بهینهسازی برای افراطگرایی و قطبیسازی است.
سودآوری از محتوای افراطی: اعترافات داخلی
تیم کندال (Tim Kendall)، مدیر سابق بخش درآمدزایی فیسبوک، در شهادت خود در کنگره در سال ۲۰۲۰ توضیح داد که «ما به دنبال استخراج هرچه بیشتر توجه ممکن بودیم و آن را به پول تبدیل میکردیم.» او در ادامه توضیح داد که الهامبخش آنها «بازی کثیف Big Tobacco بود… برای اعتیادآور کردن محصولمان از همان ابتدا.» آنها به سرعت متوجه شدند که «محتوای افراطی و آتشافروز» مستقیماً منجر به «تعامل بیسابقه – و سود» میشود.
کلمه «حباب فیلتر» اولین بار توسط الی پاریزر ابداع شد تا توضیح دهد چگونه الگوریتمهای رسانههای اجتماعی برای افزایش تعامل و ایجاد اتاقهای پژواک طراحی شدهاند. این حبابها فقط نتیجه الگوریتمی نیستند؛ ما اغلب زندگی خود را فیلتر میکنیم و خود را با دوستان (آنلاین و آفلاین) احاطه میکنیم که احتمالاً با دیدگاههای فلسفی، مذهبی و سیاسی ما موافق هستند.
پلتفرمهای رسانههای اجتماعی از تمایل طبیعی ما به سمت تعامل فیلترشده سرمایهگذاری میکنند. آنها الگوریتمهایی میسازند و پاداش مدیران اجرایی را ساختاربندی میکنند تا این تعامل را به حداکثر برسانند. طبق ماهیت طراحیشان، الگوریتمهای مدیریت و توصیه محتوا در رسانههای اجتماعی برای حداکثر کردن تعامل مهندسی شدهاند و بنابراین مستعد ایجاد حبابهای فیلتر هستند.
فیسبوک از دیرباز به دلیل تلاش برای رشد به هر قیمت مورد انتقاد قرار گرفته است. گزارشهایی مبتنی بر مصاحبه با چندین مدیر محصول سابق در فیسبوک، نشان میدهد که سیستم پاداش مدیران اجرایی عمدتاً بر اساس مهمترین معیار آنها – تعامل کاربر – استوار است. این یک انگیزه منحرف ایجاد میکند. و واضح است، طبق اعتراف خودشان، فیسبوک اجازه نمیدهد چند تلفات مانع پاداش مدیران اجرایی آن شود.
یاعل آیزنستات (Yaël Eisenstat)، تحلیلگر سابق سیا که در زمینه مبارزه با افراطگرایی تخصص داشت، به دلیل نگرانی از اینکه پلتفرم رسانههای اجتماعی باعث افزایش رادیکالیزاسیون و قطبیسازی سیاسی میشود، در فیسبوک مشغول به کار شد. او در یک سخنرانی TED توضیح داد که اکوسیستم اطلاعاتی کنونی کاربران خود را دستکاری میکند و «شرکتهای رسانههای اجتماعی مانند فیسبوک از قطعهقطعه کردن ما و خوراندن محتوای شخصیسازی شدهای که هم سوگیریهای ما را تأیید میکند و هم از آنها بهرهبرداری میکند، سود میبرند. سود خالص آنها به تحریک یک احساس قوی برای درگیر نگه داشتن ما بستگی دارد، که اغلب به مشوقترین و قطبیسازترین صداها انگیزه میدهد.»
آیزنستات در سال ۲۰۱۸ به فیسبوک پیوست و شروع به بررسی مسائلی کرد که در پلتفرم رسانههای اجتماعی بسیار تفرقهافکنانه بودند. او شروع به پرسیدن سوالات داخلی در مورد علل این تفرقه کرد. او متوجه شد که «بزرگترین شرکتهای رسانههای اجتماعی متناقض با مفهوم گفتمان منطقی هستند… دروغها در فضای آنلاین جذابتر از حقیقت هستند و پرهیز از حقایق و استدلالهای مبتنی بر واقعیت در جهانی که برای ویروسی شدن بیدردسر بهینه شده است، جذابتر است. تا زمانی که هدف الگوریتمها درگیر نگه داشتن ما باشد، آنها به خوراندن سمی ادامه خواهند داد که به بدترین غرایز و ضعفهای انسانی ما متوسل میشود.»
او دستکاری الگوریتمی فیسبوک را با تاکتیکهایی که جذبکنندگان تروریست روی جوانان آسیبپذیر استفاده میکنند، مقایسه کرد. او برنامهای را به فیسبوک برای مبارزه با اطلاعات نادرست سیاسی و سرکوب رایدهندگان ارائه داد. او ادعا کرده که این برنامه رد شده است و آیزنستات تنها پس از شش ماه فیسبوک را ترک کرد.
گزارش وال استریت ژورنال (Wall St. Journal) در سال ۲۰۱۸ نشان میدهد که مدیران ارشد فیسبوک در جریان یک ارائه داخلی از نتایج زیر مطلع شدند:
- «الگوریتمهای ما از تمایل مغز انسان به تفرقه بهرهبرداری میکنند… [و] اگر کنترل نشوند،» فیسبوک برای جلب توجه کاربر و افزایش زمان حضور در پلتفرم، «محتوای تفرقهافکنانهتر و بیشتری» به کاربران ارائه خواهد داد.
- این پلتفرم قطبیسازی و رفتارهای قبیلهای را تشدید میکند.
- برخی تغییرات الگوریتمی پیشنهادی «به طور نامتناسبی کاربران و ناشران محافظهکار را تحت تأثیر قرار میدهند.»
- با نگاهی به دادههای آلمان، یک گزارش داخلی نشان داد «۶۴% از کل عضویت در گروههای افراطی ناشی از ابزارهای توصیهگر ما است… سیستمهای توصیهگر ما مشکل را بزرگتر میکنند.»
اینها کلمات خود فیسبوک هستند. همانطور که در بخش بالا اشاره شد، پاداش مدیران اجرایی به «تعامل کاربر» گره خورده بود، که به این معنی بود که توسعهدهندگان محصول در فیسبوک انگیزه داشتند سیستمها را دقیقاً به این شیوه طراحی کنند. مارک زاکربرگ و جوئل کاپلان (Joel Kaplan) طبق گزارشها، نتیجهگیریهای ارائه ۲۰۱۸ را رد کردند و تلاشها برای افزایش ادب و متانت در مکالمات پلتفرم را «پدرمآبانه» خواندند. زاکربرگ در ادامه گفت که او «در برابر کسانی که میگویند انواع جدید جوامع که در رسانههای اجتماعی شکل میگیرند ما را تقسیم میکنند، مقاومت خواهد کرد.» کاپلان طبق گزارشها «تلاشها برای ساخت یک سیستم طبقهبندی برای محتوای بیش از حد قطبی را متوقف کرد.»
اصلا فکرش را میکردید که مشکل تا این حد ریشهای باشد؟ این شواهد داخلی نشان میدهند که مشکلات اخلاقی فیسبوک نه تنها تصادفی نیستند، بلکه در طراحی و ساختار انگیزشی شرکت ریشه دارند.
فیلترهای هوش مصنوعی: راهکاری ناکافی در برابر مشکلات عمیق
همانطور که در ابتدا اشاره شد، ین لکون ادعا میکند که فیلترهای مبتنی بر هوش مصنوعی فیسبوک، پلتفرم را از محتواهایی مانند نفرتپراکنی، فراخوان خشونت، قلدری و اطلاعات نادرست خطرناک پاک میکنند. این ادعاها به راحتی قابل اثبات هستند. در حالی که هوش مصنوعی (همراه با عملیات دستی بسیار بزرگ مدیریت محتوا در کشورهای در حال توسعه) ممکن است برخی از این محتوا را فیلتر کند، در مقیاس فیسبوک، «برخی» کافی نیست.
بیایید ادعاها را دقیقتر بررسی کنیم:
آیا فیسبوک واقعاً نفرتپراکنی را فیلتر میکند؟
تحقیقات متعدد نشان میدهد که پاسخ منفی است:
- تحقیقی توسط سازمان ضد افراطگرایی مستقر در بریتانیا (ISD) نشان داد که الگوریتم فیسبوک به طور فعال محتوای انکار هولوکاست را «ترویج میکند».
- همین سازمان در گزارشی دیگر مستند میکند که چگونه «تأخیرها یا اشتباهات فیسبوک در اجرای سیاستها همچنان به گسترش محتوای نفرتانگیز و مضر از طریق تبلیغات هدفمند پولی کمک میکند.»
- مارک زاکربرگ در آوریل ۲۰۱۸ اعتراف کرد که نفرتپراکنی در میانمار یک مشکل است و متعهد شد که اقدام کند. چهار ماه بعد، رویترز بیش از «۱۰۰۰ نمونه از پستها، نظرات، تصاویر و ویدیوهایی که به روهینگیا یا دیگر مسلمانان میانمار حمله میکردند و در فیسبوک بودند» را پیدا کرد.
- حتی تا ژوئن ۲۰۲۰، گزارشهایی مبنی بر استفاده از «مزارع ترول» (troll farms) توسط فیسبوک برای ارعاب مخالفان رودریگو دوترته در فیلیپین با تهدیدهای مرگ و نظرات نفرتانگیز وجود داشت.
آیا فیسبوک واقعاً فراخوان خشونت را فیلتر میکند؟
نمونههای زیر نشان میدهند که فیلترها در این زمینه نیز ناکام هستند:
- دولت سریلانکا مجبور شد دسترسی به فیسبوک را مسدود کند «در پی موجی از خشونت علیه مسلمانان… پس از آنکه فیسبوک سالها فراخوانهای دولت و گروههای جامعه مدنی را برای کنترل حسابهای ناسیونالیست قومی که نفرتپراکنی و تحریک خشونت میکردند، نادیده گرفت.»
- وقتی رئیسجمهور سابق ترامپ در پاسخ به اعتراضات «زندگی سیاهان مهم است» (Black Lives Matter) توییت کرد که «وقتی غارت شروع میشود، تیراندازی شروع میشود»، این پیام صدها هزار بار در فیسبوک و اینستاگرام لایک و به اشتراک گذاشته شد، در حالی که شبکههای اجتماعی دیگر مانند توییتر این پیام را به دلیل تحریک صریح خشونت پرچمگذاری کردند و از بازنشر آن جلوگیری کردند.
- فیسبوک نقش محوری در برنامهریزی حمله ۶ ژانویه در ایالات متحده ایفا کرد و پلتفرمی بدون کنترل برای تکثیر «دروغ بزرگ» (Big Lie) در مورد تقلب در انتخابات، رادیکالیزاسیون حول این دروغ و سازماندهی هماهنگ برای برنامههای صراحتاً اعلامشده برای درگیری خشونتآمیز در پایتخت فراهم کرد. نقش فیسبوک در این خشونت مرگبار بسیار بیشتر و گستردهتر از نقش پارلر (Parler) و سایر پلتفرمهای راستگرای افراطی بود که پس از حمله توجه زیادی را به خود جلب کردند.
آیا فیسبوک واقعاً قلدری سایبری را فیلتر میکند؟
طبق آمارها، فیسبوک در حفاظت از کودکان نیز ناکام است:
- طبق آمار اخیر Enough Is Enough، یک سازمان غیرحزبی و غیرانتفاعی، ۴۷% از جوانان به صورت آنلاین مورد قلدری قرار گرفتهاند و دو پلتفرم رایج اینستاگرام (۴۲%) و فیسبوک (۳۷%) هستند.
- طبق نظرسنجی یونیسف از کودکان در ۳۰ کشور، یک سوم جوانان قربانی قلدری آنلاین بودهاند و یک پنجم گفتهاند که آزار و تهدید خشونت واقعی باعث شده است که مدرسه را ترک کنند. تقریباً سهچهارم جوانان نیز گفتهاند که شبکههای اجتماعی، از جمله فیسبوک و اینستاگرام، رایجترین مکان برای قلدری آنلاین هستند.
آیا فیسبوک واقعاً «اطلاعات نادرستی که ایمنی عمومی یا یکپارچگی فرآیند دموکراتیک را به خطر میاندازند» را فیلتر میکند؟
شواهد متعددی این ادعا را نقض میکنند:
- پروژه تحقیقاتی تبلیغات محاسباتی (Computational Propaganda Research Project) در سال ۲۰۱۹ گزارش داد که در ۷۰ کشور جهان، کمپینهای اطلاعات نادرست در رسانههای اجتماعی سازماندهی شدهاند و فیسبوک در صدر این پلتفرمها قرار دارد.
- یک افشاگر فیسبوک در یک یادداشت ۶۶۰۰ کلمهای، مورد به مورد بیتوجهی فیسبوک به «فعالیتهای بدخواهانه در پلتفرم خود که میتوانست سرنوشت سیاسی ملتها در خارج از ایالات متحده یا اروپای غربی را تحت تأثیر قرار دهد» را شرح داد.
- فیسبوک کانون اصلی اطلاعات نادرست در مورد واکسیناسیون و همهگیری است. فیلم تئوری توطئه «پلندمیک» (Plandemic) در آوریل ۲۰۲۰ در فیسبوک ویروسی شد و دهها میلیون بازدید کسب کرد. تلاش فیسبوک برای پاکسازی اطلاعات نادرست ضد واکسیناسیون به راحتی شکست خورد، زمانی که گروههایی که این محتوا را منتشر میکردند، کلمه «واکسن» را از نام خود حذف کردند.
- طبق نظرسنجی نایت فاندیشن (Knight Foundation) و گالوپ، ۷۵% آمریکاییها معتقدند که «در مورد انتخابات» در فیسبوک در طول انتخابات ریاست جمهوری ۲۰۲۰ ایالات متحده در معرض اطلاعات نادرست قرار گرفتهاند. این یکی از موضوعات نادری است که جمهوریخواهان (۷۶%)، دموکراتها (۷۵%) و مستقلها (۷۵%) در آن اتفاق نظر دارند – فیسبوک منبع اصلی اطلاعات نادرست انتخاباتی بود.
اگر این فیلترهای هوش مصنوعی واقعاً کار میکنند، خیلی خوب کار نمیکنند! این مثالها به وضوح نشان میدهند که مشکل، نقص در فیلترهای هوش مصنوعی نیست، بلکه مشکل در ابعاد بسیار بزرگتر و ریشهایتر است.
فیسبوک و “حقیقت”: آیا میتوان به آن اعتماد کرد؟
فیسبوک ادعا میکند که نمیخواهد «داور حقیقت سیاسی» باشد. شاید باید از این ادعا آسوده خاطر باشیم، چرا که فیسبوک سابقه پرمشکل با حقیقت دارد. مشتریان تبلیغاتی فیسبوک این را به اثبات رساندند، زمانی که فیسبوک مجبور شد ۴۰ میلیون دلار برای حل و فصل شکایتی پرداخت کند که ادعا میکرد فیسبوک «تا ۹۰۰ درصد» زمانی را که کاربران صرف تماشای ویدیو میکردند، بیش از حد گزارش کرده است.
این یک دروغ بیاهمیت نبود که فقط چند شرکت را متحمل هزینه کرد. همانطور که اسلیت (Slate) در مقالهای در سال ۲۰۱۸ توضیح داد، «بسیاری از مردم به دلیل این فریب، منبع درآمد خود را از دست دادند.»
آیا این یک حادثه جداگانه است؟ یا کلاهبرداری در فیسبوک سیستماتیک است؟ مت استولر (Matt Stoller) محتویات اسناد حقوقی محرمانه شده اخیر را در شکایتی که ادعا میکند فیسبوک سالهاست تبلیغکنندگان را فریب داده است، شرح میدهد:
- اسناد فاش کردند که شریل سندبرگ (Sheryl Sandberg)، مدیر عملیات فیسبوک، مستقیماً سالها بر این کلاهبرداری ادعایی نظارت داشته است.
- این طرح ساده بود. فیسبوک با وانمود کردن اینکه حسابهای جعلی نماینده افراد واقعی هستند، تبلیغکنندگان را فریب میداد، زیرا خریداران تبلیغات بر اساس جایی که فکر میکنند مشتریانشان هستند، هزینه تبلیغات را تعیین میکنند. کارکنان سابق اشاره کردند که شرکت به دقت اعداد اهمیت نمیدهد، مادامی که پول تبلیغات وارد میشود. آنها گفتند فیسبوک «اصلاً اهمیت نمیداد.»
- آمارهای متورم گاهی اوقات منجر به نتایج عجیب و غریب میشد. به عنوان مثال، فیسبوک به تبلیغکنندگان گفت که خدمات آن پتانسیل دسترسی به ۱۰۰ میلیون نفر ۱۸ تا ۳۴ ساله در ایالات متحده را دارد، در حالی که تنها ۷۶ میلیون نفر در این گروه سنی وجود دارند. پس از اینکه کارکنان راهکاری برای صادقانه کردن اعداد پیشنهاد دادند، شرکت ایده را رد کرد و اشاره کرد که «تأثیر درآمدی» برای فیسبوک «قابل توجه» خواهد بود. یکی از کارکنان فیسبوک نوشت: «سوال اخیر من این است: تا چه زمانی میتوانیم از تخمین بیش از حد دسترسی فرار کنیم؟»
طبق این اسناد، سندبرگ به شدت مدیریت ارتباطات عمومی در مورد نحوه صحبت با تبلیغکنندگان در مورد آمارهای متورم را بر عهده داشت و فیسبوک اکنون علیه مصاحبه او توسط وکلای یک شکایت دستهجمعی مبنی بر کلاهبرداری مبارزه میکند.
مشکلات اخلاقی فیسبوک در زمینه صداقت به محتوای پلتفرمهای آن نیز گسترش مییابد:
- مقالهای در سال ۲۰۲۰ در Heated مستند میکند که فیسبوک برای کسانی که «کمک به… تئوریهای توطئه انکار اقلیم» میکنند، معافیت از بررسی حقایق ایجاد کرده است.
- مدیر سابق سایت بررسی حقایق Snopes گزارش داد که فیسبوک صرفاً از این سایت معتبر برای «روابط عمومی بحران» استفاده میکرده، بررسی حقایق را جدی نمیگرفته و نگرانیها را نادیده میگرفته است.
- پروپابلیکا (ProPublica) اخیراً گزارش داد که شریل سندبرگ یک گروه شبهنظامی کرد را که «دولت ترکیه آن را هدف قرار داده بود»، ساکت و سانسور کرده است تا درآمد خود را از ترکیه حفظ کند.
- مارک زاکربرگ و جوئل کاپلان در آوریل ۲۰۱۹ مداخله کردند تا الکس جونز (Alex Jones)، نظریهپرداز توطئه راستگرا را در پلتفرم نگه دارند، با وجود نقش اصلی او در انتشار اطلاعات نادرست در مورد تیراندازی دبستان سندی هوک در سال ۲۰۱۲ و تیراندازی دبیرستان پارکلند در سال ۲۰۱۸.
واقعاً چقدر میتوان به پلتفرمی اعتماد کرد که چنین سابقهای در زمینه صداقت دارد؟ به نظر میرسد تیم اجرایی فیسبوک نه تنها از مسئولیت خود به عنوان «داور حقیقت» شانه خالی کرده، بلکه در چندین مورد قابل توجه، برای اطمینان از ادامه انتشار اطلاعات نادرست مداخله کرده است.
راهکار چیست؟ خروج جمعی یا رگولاتوری؟
مدل کسبوکار فیسبوک کاملاً بر افزایش رشد و تعامل کاربر متمرکز است. الگوریتمهای آن در این زمینه بسیار مؤثر عمل میکنند. اقداماتی که فیسبوک انجام داده است، مانند ساخت «فیلترهای هوش مصنوعی» یا همکاری با بررسیکنندگان مستقل حقایق، سطحی و بیاثر هستند. آنها نمیتوانند مسائل سیستمی که در قلب این موضوع قرار دارند را حل کنند، زیرا این مسائل دلیل وجودی فیسبوک هستند.
پس چه کاری میتوان انجام داد؟ قطعاً، فعالیتهای مجرمانه باید پیگرد قانونی شوند. مدیران اجرایی باید به دلیل کلاهبرداری به زندان بروند. شرکتهای رسانههای اجتماعی و رهبران سازمانی آنها باید برای تأثیر محتوای موجود در پلتفرمهایشان مسئولیت قانونی داشته باشند. یکی از تلاشها برای تحمیل مسئولیت قانونی در ایالات متحده، اصلاح بخش ۲۳۰ قانون نجابت ارتباطات (Section 230 of the US Communications Decency Act) است. این قانون و قوانین مشابه در سراسر جهان باید اصلاح شوند تا مسئولیتپذیری و پاسخگویی معنادار بیشتری در قبال ترویج اطلاعات نادرست، خشونت و افراطگرایی ایجاد شود.
مهمتر از همه، انحصارها باید شکسته شوند. قوانین موجود ضد انحصار باید برای تجزیه فیسبوک و محدود کردن فعالیتها و خریدهای آینده آن استفاده شوند.
مسائل مطرح شده در اینجا به روشهای بیشماری که به خوبی مستند و به راحتی قابل اثبات هستند، به اطلاع رهبری فیسبوک رسیده است. اما تغییرات مورد نیاز بسیار فراتر از استفاده مؤثر از هوش مصنوعی است. در قلب مسئله، فیسبوک تغییر نخواهد کرد زیرا نمیخواهد و برای آن انگیزهای ندارد. فیسبوک باید تنظیم شود و ساختار رهبری آن باید برچیده شود.
به نظر میرسد سیاستمداران و تنظیمکنندگان اراده سیاسی لازم برای انجام همه این کارها را ندارند، اما برخی نشانههای دلگرمکننده وجود دارد، به خصوص در مورد تحقیقات ضد انحصار و شکایات حقوقی در ایالات متحده و اروپا. با این حال، این مسئله فراتر از صرفاً اجرای قانون است. به نحوی باید انگیزهها را برای شرکتهای رسانههای اجتماعی که برای جلب توجه ما رقابت میکنند و از آن درآمدزایی میکنند، تغییر دهیم.
تا زمانی که با تعامل، به رفتار غیرقانونی فیسبوک پاداش دهیم، دشوار است راهی برای خروج از وضعیت کنونی خود ببینیم. این شرکتها فناوریای میسازند که برای جذب ما با محتوای مشکلدار، معتاد کردن ما به خشم و عصبانیت، و در نهایت دور کردن ما از یکدیگر طراحی شده است. ما دیگر در مورد حقایق یا واقعیتهای مشترک توافق نداریم، وضعیتی که دشمنان سیاسی را به دشمنان سرسخت تبدیل میکند، تفاوتهای ایدئولوژیک را به نفرت تبدیل میکند. فیسبوک به جای کمک به ما در داشتن زندگیهای پربارتر یا یافتن حقیقت، به ما کمک میکند دشمنانی را در میان هموطنانمان کشف کنیم و با دلایلی برای نفرت از آنها بمبارانمان میکند، همه اینها به نفع سودآوری است. این مسیر ناپایدار است.
تنها چیزی که فیسبوک واقعاً میفهمد پول است و تمام پول آنها از تعامل میآید. اگر ما تعامل نکنیم، آنها پول از دست میدهند. اگر ما حسابهایمان را حذف کنیم، آنها قدرت از دست میدهند. اگر از اکوسیستم آنها خارج شویم، شاید بتوانیم به صورت جمعی به یک واقعیت مشترک بازگردیم. واقعاً اینطور نیست؟ قدرت نهایی در دستان کاربران است.
چگونه خود را در برابر اخبار دروغین و محتوای مضر فیسبوک محافظت کنیم؟
با توجه به آنچه گفته شد، واضح است که تنها انتظار از فیسبوک برای حل مشکلات اخلاقی خود کافی نیست. ما به عنوان کاربران نیز مسئولیتهایی داریم. چگونه میتوانیم خود را در این فضای پیچیده و اغلب سمی محافظت کنیم؟
بر اساس دیدگاههای مطرح شده در مقاله لائور و همچنین توصیههای دیگری در زمینه مقابله با اطلاعات نادرست (مانند آنچه در مقالهی موسسه بروکینگز در مورد مبارزه با اخبار دروغین و اطلاعات نادرست آمده است)، میتوانید گامهای زیر را بردارید:
- منابع خبری خود را متنوع کنید: به جای اتکا به یک یا دو منبع خبری، به ویژه اگر دیدگاههای شما را تأیید میکنند، از منابع متنوع و با اعتبار مختلف استفاده کنید. این به شما کمک میکند دیدگاههای مختلف را بشنوید و در معرض اطلاعات متعادلتری قرار بگیرید.
- نسبت به محتوای آنلاین شکاک باشید: هر آنچه در شبکههای اجتماعی یا سایتهای خبری میخوانید را فوراً باور نکنید. عنوانهای فریبنده و احساسی را به دقت بررسی کنید. آیا منبع خبر معتبر است؟ آیا خبر توسط منابع معتبر دیگر نیز گزارش شده است؟
- مهارتهای سواد رسانهای خود را تقویت کنید: یاد بگیرید چگونه منابع اطلاعاتی را ارزیابی کنید. به دنبال نشانههایی از اطلاعات نادرست باشید (مانند گرامر ضعیف، طراحی سایت غیرحرفهای، فقدان اطلاعات تماس یا نویسنده مشخص، ادعاهای بیش از حد احساسی یا باورنکردنی).
- از ابزارهای بررسی حقایق استفاده کنید: سایتها و سازمانهای مستقل بسیاری وجود دارند که ادعاهای عمومی و اخبار را بررسی میکنند. از این منابع برای تأیید صحت اطلاعات استفاده کنید.
- به اشتراکگذاری محتوای مشکوک را متوقف کنید: قبل از اشتراکگذاری یک پست یا خبر، لحظهای درنگ کنید و صحت آن را بررسی کنید. اشتراکگذاری اطلاعات نادرست، دانسته یا نادانسته، به گسترش آن کمک میکند.
- مدت زمان استفاده از فیسبوک را آگاهانه مدیریت کنید: همانطور که مطالعه آلكات نشان داد، کاهش زمان حضور در فیسبوک میتواند به کاهش قطبیسازی و افزایش رفاه ذهنی کمک کند. آگاه باشید که پلتفرم برای درگیر نگه داشتن شما طراحی شده است و فعالانه زمان استفاده خود را کنترل کنید.
- حسابهای جعلی و رباتها را گزارش دهید: اگر با حسابهایی مواجه شدید که به نظر میرسد جعلی هستند یا محتوای مشکوک یا آزاردهنده منتشر میکنند، آنها را به فیسبوک گزارش دهید. هرچند ممکن است همیشه مؤثر نباشد، اما یک گام در جهت پاکسازی پلتفرم است.
- حذف حساب کاربری را در نظر بگیرید: همانطور که نویسنده مقاله اصلی اشاره کرد، حذف حساب کاربری یک راه قدرتمند برای پس گرفتن قدرت از فیسبوک و توقف حمایت از مدل کسبوکار آن است. اگر احساس میکنید فیسبوک بیشتر از اینکه به شما سود برساند، ضرر میزند، شاید زمان آن رسیده باشد که این گام را بردارید.
جمعبندی: درسی از شکستهای اخلاقی فیسبوک
بررسی مقاله دیوید لائور و شواهد ارائه شده در آن، تصویر نگرانکنندهای از مشکلات اخلاقی فیسبوک ارائه میدهد. مشخص است که این مشکلات، نتیجهی نقصهای فنی جزئی یا خطاهای اتفاقی نیستند، بلکه ریشه در مدل کسبوکار این شرکت دارند که بر حداکثرسازی تعامل به هر قیمتی، حتی به قیمت ترویج تفرقه، افراطگرایی و اطلاعات نادرست، استوار است.
علیرغم ادعاهای مدیران آن، فیسبوک در مهار محتوای مضر شکست خورده است و حتی شواهد داخلی نشان میدهد که رهبری شرکت از این مشکلات آگاه بوده و گاهی عمداً مانع رفع آنها شدهاند. عدم شفافیت در مورد الگوریتمها، بررسیهای ناکافی حقایق و موارد مستند کلاهبرداری در تبلیغات، همگی به بیاعتمادی عمیق نسبت به این پلتفرم دامن میزنند.
راهکارهای صرفاً تکنولوژیکی مانند فیلترهای هوش مصنوعی، در برابر این مشکلات سیستمی ناکافی هستند. تغییر واقعی نیازمند اصلاحات ساختاری، مسئولیتپذیری قانونی و شاید مهمتر از همه، تغییر انگیزههای سودآوری شرکت است.
تا زمانی که فیسبوک به دلیل درگیر کردن ما با محتوای جنجالی و تفرقهافکنانه پاداش میگیرد، وضعیت تغییر چندانی نخواهد کرد. به عنوان کاربران، ما قدرت تغییر این معادله را داریم. با آگاه شدن، تنوع بخشیدن به منابع اطلاعاتی، افزایش سواد رسانهای و در نهایت، کاهش یا توقف تعامل با پلتفرم، میتوانیم به فیسبوک پیام دهیم که مدل کسبوکار فعلی آن قابل قبول نیست.
این موضوع فقط در مورد فیسبوک نیست؛ این درسی است برای همه پلتفرمهای آنلاینی که زندگی ما را تحت تأثیر قرار میدهند. اخلاق در عصر دیجیتال باید در قلب طراحی و مدلهای کسبوکار قرار گیرد، نه اینکه به عنوان یک افزودنی اختیاری یا یک ابزار روابط عمومی استفاده شود.
حالا نوبت شماست! تجربه شما با فیسبوک چگونه بوده است؟ آیا متوجه تأثیرات قطبیسازی یا اطلاعات نادرست در این پلتفرم شدهاید؟ چه اقداماتی برای محافظت از خود انجام میدهید؟ نظرات ارزشمند خود را در بخش کامنتها با ما و دیگر خوانندگان به اشتراک بگذارید.
اگر این مقاله برایتان مفید بود، آن را با دوستان و همکاران خود به اشتراک بگذارید. برای خواندن مقالات بیشتر در زمینه فناوری، اخلاق و تأثیرات دنیای دیجیتال بر زندگی ما، به وبسایت چیریکا (cheerika.com) سر بزنید.
سوالات متداول
چرا گفته میشود مدل کسبوکار فیسبوک در ترویج محتوای تفرقهافکنانه نقش دارد؟
مدل کسبوکار فیسبوک بر افزایش “تعامل” کاربران استوار است. الگوریتمها محتوایی را که احساسات قوی برمیانگیزد (حتی خشم و تفرقه) بیشتر نمایش میدهند تا کاربران را در پلتفرم نگه دارند و از این طریق درآمد تبلیغاتی بیشتری کسب کنند.
آیا فیسبوک به طور فعال از گسترش اطلاعات نادرست سود میبرد؟
مقاله استدلال میکند که سودآوری فیسبوک به طور قابل توجهی به میزان قطبیسازی و درگیر نگه داشتن کاربران با محتوای جنجالی وابسته است که اغلب شامل اطلاعات نادرست میشود. گزارشهای داخلی و شهادت مدیران سابق نیز این موضوع را تأیید میکنند.
آیا فیلترهای هوش مصنوعی فیسبوک در مهار نفرتپراکنی و خشونت مؤثر هستند؟
شواهد نشان میدهند که فیلترهای هوش مصنوعی فیسبوک اغلب ناکافی هستند. مطالعات متعدد حاکی از آن است که الگوریتمها همچنان به ترویج انکار هولوکاست، فراخوان خشونت و قلدری آنلاین کمک میکنند و در پاکسازی اطلاعات نادرست نیز موفق عمل نمیکنند.
چرا شفافیت فیسبوک در مورد الگوریتمهایش یک مشکل اساسی است؟
عدم شفافیت فیسبوک در مورد الگوریتمها، مطالعه دقیق رفتار پلتفرم و تأثیرات آن را برای محققان دشوار میسازد. دسترسی محدود به دادهها و قراردادهای خاص با محققان، مانع تحقیقات علمی آزاد میشود.
چه راههایی برای محافظت از خود در برابر اخبار دروغین و محتوای مضر در فیسبوک وجود دارد؟
برای محافظت از خود، منابع خبری خود را متنوع کنید، نسبت به محتوای آنلاین شکاک باشید، مهارتهای سواد رسانهای خود را تقویت کنید، از ابزارهای بررسی حقایق استفاده کنید و اشتراکگذاری محتوای مشکوک را متوقف کنید. همچنین مدیریت آگاهانه زمان استفاده از پلتفرم و در نهایت، حذف حساب کاربری نیز گزینههایی هستند.
چه اقداماتی برای اصلاح مشکلات اخلاقی فیسبوک پیشنهاد شده است؟
اصلاح بخش ۲۳۰ قانون نجابت ارتباطات برای افزایش مسئولیتپذیری، شکستن انحصارات از طریق قوانین ضد انحصار و تغییر ساختار انگیزشی شرکت برای عدم اولویتدهی صرف به تعامل، از جمله اقدامات پیشنهادی برای اصلاح مشکلات سیستمی فیسبوک است.








