مسئولیت‌های اخلاقی هوش مصنوعی بدون سانسور: 3 گام تا استفاده مسئولانه

فهرست مطالب

شکست‌های اخلاقی فیسبوک: آیا مشکل در تکنولوژی است یا مدل کسب‌وکار؟

شبکه‌های اجتماعی بخشی جدایی‌ناپذیر از زندگی روزمره ما شده‌اند. فیسبوک، با میلیاردها کاربر در سراسر جهان، ادعا می‌کند که مأموریتش «توانمندسازی مردم برای ساخت جامعه و نزدیک‌تر کردن جهان به یکدیگر» است. شعاری زیبا و آرمان‌گرایانه، اینطور نیست؟ اما آیا آنچه در واقعیت می‌بینیم، با این مأموریت همخوانی دارد؟ آیا پلتفرمی که روزانه ساعت‌ها از وقت ما را به خود اختصاص می‌دهد، واقعاً در جهت منافع ما و جامعه جهانی گام برمی‌دارد؟

اگر به دنبال درک عمیق‌تری از چالش‌های پیش روی شبکه‌های اجتماعی، به‌ویژه فیسبوک، و تأثیرات آن بر زندگی‌مان هستید، جای درستی آمده‌اید. در این مقاله، با استناد به یک بررسی دقیق و حرفه‌ای منتشر شده در ژورنال معتبر Ai Ethics، به قلم دیوید لائوِر، متخصص هوش مصنوعی، به کالبدشکافی مشکلات اخلاقی فیسبوک می‌پردازیم. لائور معتقد است که این مشکلات اتفاقی نیستند، بلکه بخشی جدایی‌ناپذیر از مدل کسب‌وکار این غول فناوری هستند. بیایید ببینیم چرا این ادعا مطرح شده و شواهد موجود چه چیزی را نشان می‌دهند.

اگر به دنبال درک این هستید که چرا به نظر می‌رسد فیسبوک ما را بیشتر از هم دور می‌کند تا نزدیک، و چرا محتواهای افراطی و تفرقه‌افکنانه در این پلتفرم رشد می‌کنند، ادامه این مقاله برای شما ارزشمند خواهد بود. فراموش نکنید که در پایان مقاله، نظرات و تجربه‌های خود را با ما در بخش کامنت‌ها در میان بگذارید. وبسایت ما (چیریکا) همیشه پذیرای دیدگاه‌های شماست.

فیسبوک: ظاهری دوستانه، باطنی سوداگر

همانطور که اشاره شد، مأموریت رسمی فیسبوک، نزدیک کردن مردم و ساخت جامعه است. اما دیوید لائور در مقاله خود استدلال می‌کند که نگاهی عمیق‌تر به مدل کسب‌وکار فیسبوک نشان می‌دهد که “دور کردن ما از یکدیگر بسیار سودآورتر” است. این جمله شاید در ابتدا شوکه کننده به نظر برسد، اما بیایید مکانیسم آن را بررسی کنیم.

مدل کسب‌وکار فیسبوک بر پایه «تعامل» (Engagement) حداکثری کاربران بنا شده است. هرچه بیشتر در پلتفرم بمانید، محتوای بیشتری ببینید، لایک کنید، کامنت بگذارید و به اشتراک بگذارید، فیسبوک پول بیشتری از تبلیغ‌کنندگان کسب می‌کند. الگوریتم‌های فیسبوک طوری طراحی شده‌اند که شما را درگیر نگه دارند. یکی از موثرترین راه‌ها برای افزایش تعامل، نمایش محتوایی است که احساسات قوی در شما برمی‌انگیزد – حتی اگر آن احساس خشم، ترس یا انزجار باشد.

اینجاست که مفهوم «حباب فیلتر» (Filter Bubble) و «اتاق پژواک» (Echo Chamber) مطرح می‌شود. الگوریتم‌ها بر اساس تعاملات قبلی شما، محتوایی را به شما نمایش می‌دهند که احتمالاً با دیدگاه‌های شما همخوانی دارد و شما را تأیید می‌کند. در نتیجه، شما کمتر در معرض دیدگاه‌های متفاوت قرار می‌گیرید و بیشتر در معرض محتواهایی هستید که باورهای فعلی شما را تقویت می‌کنند.

اما مشکل زمانی تشدید می‌شود که الگوریتم‌ها متوجه می‌شوند محتواهای افراطی، جنجالی، تفرقه‌افکنانه و حاوی اطلاعات نادرست، بیشترین تعامل را به همراه دارند. دعواها، خشم‌ها، تئوری‌های توطئه، و اخبار دروغین، به سرعت ویروسی می‌شوند و توجه زیادی جلب می‌کنند. و از آنجایی که هدف الگوریتم‌ها افزایش تعامل است، آن‌ها ناخواسته یا خواسته، این نوع محتواها را بیشتر به شما نشان می‌دهند.

در نتیجه، فیسبوک از ترویج افراط‌گرایی، قلدری، نفرت‌پراکنی، اطلاعات غلط، تئوری‌های توطئه و خشونت کلامی سود می‌برد. لائور به صراحت می‌گوید: «مشکل فیسبوک، مشکل تکنولوژی نیست. مشکل، مشکل مدل کسب‌وکار است.» اگر مدل کسب‌وکار فیسبوک بر ارائه کارآمد اطلاعات دقیق و دیدگاه‌های متنوع تمرکز داشت، به جای معتاد کردن کاربران به محتوای جذاب درون یک اتاق پژواک، نتایج الگوریتمی بسیار متفاوت بود.

این تناقض بین مأموریت اعلام‌شده و واقعیت عملی، قلب مشکلات اخلاقی فیسبوک را تشکیل می‌دهد.

پاسخ‌های مقامات فیسبوک و واقعیت تلخ

شکست فیسبوک در مهار افراط‌گرایی سیاسی، اطلاعات غلط عمدی، و تئوری‌های توطئه به خوبی مستند شده است. این مسئله به ویژه با نفوذ این عناصر ناخوشایند در سیاست‌های جریان اصلی و تجلی آن‌ها در خشونت‌های مرگبار واقعی، بیشتر مورد توجه قرار گرفته است.

در این میان، ین لِکون (Yann LeCun)، دانشمند ارشد هوش مصنوعی در فیسبوک، در توییتر نگرانی خود را در مورد نقش شخصیت‌های راست‌گرا در کم‌اهمیت جلوه دادن شدت همه‌گیری کووید-۱۹ ابراز کرد. منتقدان به سرعت اشاره کردند که فیسبوک دقیقاً از همین نوع اطلاعات غلط سود برده است. لکون در پاسخ به انتقادات، ادعاهای زیر را مطرح کرد:

  • فیسبوک باعث قطبی‌سازی یا «حباب‌های فیلتر» نمی‌شود و «بیشتر مطالعات جدی این را نشان نمی‌دهند.»
  • منتقدانی که می‌گویند فیسبوک از گسترش اطلاعات نادرست سود می‌برد، «از نظر واقعی در اشتباه هستند.»
  • فیسبوک از فناوری مبتنی بر هوش مصنوعی برای فیلتر کردن محتوایی مانند نفرت‌پراکنی، فراخوان خشونت، قلدری، و اطلاعات نادرست که ایمنی عمومی یا یکپارچگی فرآیند دموکراتیک را به خطر می‌اندازند، استفاده می‌کند.
  • فیسبوک «داور حقیقت سیاسی» نیست و داوری حقیقت سیاسی توسط فیسبوک «سوالات جدی در مورد ایده هر کسی از اخلاق و دموکراسی لیبرال» مطرح می‌کند.

آنچه در این ادعاها غایب است، اذعان به این واقعیت است که سودآوری شرکت تا حد زیادی به قطبی‌سازی که لکون اصرار دارد وجود ندارد، بستگی دارد. لائور در مقاله خود به تفصیل به رد این ادعاها می‌پردازد و نشان می‌دهد که چرا پاسخ‌های لکون، از دیدگاه بسیاری از منتقدان و کارشناسان، قانع‌کننده نیستند.

آیا فیسبوک واقعاً شفاف نیست؟

یکی از چالش‌های اساسی برای درک و مطالعه دقیق رفتار فیسبوک، عدم شفافیت آن است. برای اینکه بتوان الگوریتم‌ها و مدل‌های هوش مصنوعی فیسبوک را به طور مؤثر مطالعه کرد، نیاز به دسترسی به داده‌ها و شفافیت وجود دارد که فیسبوک آن را فراهم نمی‌کند. همانطور که سازمان «امنیت سایبری برای دموکراسی» (Cybersecurity for Democracy) اشاره می‌کند، الگوریتم‌ها و مدل‌های هوش مصنوعی فیسبوک اختصاصی هستند و عمداً پنهان نگه داشته می‌شوند. در حالی که این برای بسیاری از شرکت‌ها طبیعی است، هیچ شرکت دیگری ۲.۸۵ میلیارد کاربر فعال ماهانه ندارد. پلتفرمی که زندگی این تعداد زیاد از مردم را تحت تأثیر قرار می‌دهد، باید قابل مطالعه باشد.

فیسبوک ممکن است به همکاری خود با موسسه علوم اجتماعی کمی دانشگاه هاروارد (Social Science One) به عنوان شواهدی مبنی بر ارائه داده به محققان اشاره کند، اما این همکاری نیز محدودیت‌های جدی دارد:

  • داده‌ها بسیار محدود هستند (فقط شامل آدرس صفحات وبی که در بازه زمانی خاصی به اشتراک گذاشته شده‌اند).
  • محققان باید برای دسترسی به داده‌ها درخواست دهند و توسط Social Science One که به عنوان «نگهبان داده» عمل می‌کند، تأیید شوند.
  • در صورت تأیید، محققان باید مستقیماً با فیسبوک قرارداد امضا کنند.

این یک فرآیند علمی باز نیست، بلکه فرآیندی است که به مدیران امکان می‌دهد پروژه‌های تحقیقاتی را که به نفع دیدگاه خودشان هستند، انتخاب کنند. اگر فیسبوک واقعاً در تسهیل تحقیقات دانشگاهی جدی بود، دسترسی، در دسترس بودن و بینش بسیار بیشتری نسبت به داده‌ها فراهم می‌کرد. نگرانی‌های مشروع در مورد حریم خصوصی وجود دارد، اما راه‌های بسیار بهتری برای حل این نگرانی‌ها و در عین حال ترویج تحقیقات باز و پر جنب و جوش وجود دارد.

قطبی‌سازی: اتهامی که فیسبوک رد می‌کند

ین لکون برای اثبات ادعای خود مبنی بر اینکه فیسبوک باعث قطبی‌سازی نمی‌شود، به یک مطالعه واحد استناد کرد. اما آیا یافته‌های این مطالعه واقعاً ادعاهای او را تأیید می‌کنند؟

مطالعه‌ای که لکون به آن اشاره می‌کند (Boxell, 2017)، نتیجه می‌گیرد که قطبی‌سازی بیشتر در گروه‌های جمعیتی افزایش یافته است که کمتر از اینترنت و شبکه‌های اجتماعی استفاده می‌کنند. اما همانطور که لائور توضیح می‌دهد، این مطالعه مستقیماً استفاده از اینترنت یا شبکه‌های اجتماعی را اندازه نگرفته است. در عوض، بر اساس عوامل جمعیتی مانند سن، استفاده پیش‌بینی‌شده از اینترنت را تخمین زده است. از آنجایی که سن بالا با استفاده کمتر از رسانه‌های اجتماعی همبستگی دارد و افراد مسن‌تر قطبی‌تر هستند، لکون این را دلیلی بر عدم ایجاد قطبی‌سازی توسط شبکه‌های اجتماعی می‌داند.

این فرض علت و معلولی معیوب است و نویسنده خود مطالعه نیز در مورد نتیجه‌گیری‌های علی احتیاط می‌کند. جالب اینجاست که یک مطالعه اخیر توسط مرکز تحقیقات پیو (Pew Research) نشان می‌دهد که درصد بسیار بالایی از بزرگسالان بالای ۶۵ سال در ایالات متحده (۵۰%) از فیسبوک استفاده می‌کنند، که بیشترین میزان در میان تمام شبکه‌های اجتماعی است. پس سن بالا لزوماً به معنای عدم استفاده از فیسبوک نیست.

علاوه بر این، مطالعات دیگری به طور مستقیم این موضوع را بررسی کرده‌اند:

  • مطالعه استیون ال. جانسون و همکاران (2020) در مجله MIS Quarterly نشان داد که «هرچه کسی زمان بیشتری را در فیسبوک صرف کند، مصرف اخبار آنلاین او قطبی‌تر می‌شود. این شواهد نشان می‌دهد که فیسبوک به ویژه برای کاربران محافظه‌کار خود به عنوان یک اتاق پژواک عمل می‌کند.»
  • مطالعه‌ای دیگر توسط هال آلكات (Hunt Allcott) و همکاران در سال ۲۰۱۹ با عنوان «اثرات رفاهی رسانه‌های اجتماعی» به بررسی مطالعات دیگر می‌پردازد که رابطه بین استفاده از رسانه‌های اجتماعی، رفاه و قطبی‌سازی سیاسی را تأیید می‌کنند. آن‌ها با یک آزمایش تصادفی در آستانه انتخابات میان‌دوره‌ای ۲۰۱۸ نشان دادند که:
    • غیرفعال کردن فیسبوک برای چهار هفته قبل از انتخابات، فعالیت آنلاین را کاهش داد و فعالیت‌های آفلاین مانند تماشای تلویزیون تنها و معاشرت با خانواده و دوستان را افزایش داد.
    • دانش خبری واقعی و قطبی‌سازی سیاسی را کاهش داد.
    • رفاه ذهنی را افزایش داد.
    • باعث کاهش پایدار و بزرگی در استفاده از فیسبوک پس از آزمایش شد.

به عبارت دیگر، یک ماه استفاده نکردن از فیسبوک شما را شادتر کرد و منجر به استفاده کمتر در آینده شد. واقعاً شگفت‌انگیز نیست؟

حتی «یک محقق سابق هوش مصنوعی فیسبوک» نیز تأیید کرده است که آن‌ها «مطالعه پشت مطالعه» انجام داده‌اند که ایده اصلی را تأیید می‌کند: «مدل‌هایی که تعامل را حداکثر می‌کنند، قطبی‌سازی را افزایش می‌دهند.» فیسبوک نه تنها این را می‌دانست، بلکه به طراحی و ساخت الگوریتم‌های توصیه خود برای حداکثر کردن تعامل کاربر ادامه داد، با علم به اینکه این به معنای بهینه‌سازی برای افراط‌گرایی و قطبی‌سازی است.

سودآوری از محتوای افراطی: اعترافات داخلی

تیم کندال (Tim Kendall)، مدیر سابق بخش درآمدزایی فیسبوک، در شهادت خود در کنگره در سال ۲۰۲۰ توضیح داد که «ما به دنبال استخراج هرچه بیشتر توجه ممکن بودیم و آن را به پول تبدیل می‌کردیم.» او در ادامه توضیح داد که الهام‌بخش آن‌ها «بازی کثیف Big Tobacco بود… برای اعتیادآور کردن محصولمان از همان ابتدا.» آن‌ها به سرعت متوجه شدند که «محتوای افراطی و آتش‌افروز» مستقیماً منجر به «تعامل بی‌سابقه – و سود» می‌شود.

کلمه «حباب فیلتر» اولین بار توسط الی پاریزر ابداع شد تا توضیح دهد چگونه الگوریتم‌های رسانه‌های اجتماعی برای افزایش تعامل و ایجاد اتاق‌های پژواک طراحی شده‌اند. این حباب‌ها فقط نتیجه الگوریتمی نیستند؛ ما اغلب زندگی خود را فیلتر می‌کنیم و خود را با دوستان (آنلاین و آفلاین) احاطه می‌کنیم که احتمالاً با دیدگاه‌های فلسفی، مذهبی و سیاسی ما موافق هستند.

پلتفرم‌های رسانه‌های اجتماعی از تمایل طبیعی ما به سمت تعامل فیلترشده سرمایه‌گذاری می‌کنند. آن‌ها الگوریتم‌هایی می‌سازند و پاداش مدیران اجرایی را ساختاربندی می‌کنند تا این تعامل را به حداکثر برسانند. طبق ماهیت طراحی‌شان، الگوریتم‌های مدیریت و توصیه محتوا در رسانه‌های اجتماعی برای حداکثر کردن تعامل مهندسی شده‌اند و بنابراین مستعد ایجاد حباب‌های فیلتر هستند.

فیسبوک از دیرباز به دلیل تلاش برای رشد به هر قیمت مورد انتقاد قرار گرفته است. گزارش‌هایی مبتنی بر مصاحبه با چندین مدیر محصول سابق در فیسبوک، نشان می‌دهد که سیستم پاداش مدیران اجرایی عمدتاً بر اساس مهم‌ترین معیار آن‌ها – تعامل کاربر – استوار است. این یک انگیزه منحرف ایجاد می‌کند. و واضح است، طبق اعتراف خودشان، فیسبوک اجازه نمی‌دهد چند تلفات مانع پاداش مدیران اجرایی آن شود.

یاعل آیزنستات (Yaël Eisenstat)، تحلیلگر سابق سیا که در زمینه مبارزه با افراط‌گرایی تخصص داشت، به دلیل نگرانی از اینکه پلتفرم رسانه‌های اجتماعی باعث افزایش رادیکالیزاسیون و قطبی‌سازی سیاسی می‌شود، در فیسبوک مشغول به کار شد. او در یک سخنرانی TED توضیح داد که اکوسیستم اطلاعاتی کنونی کاربران خود را دستکاری می‌کند و «شرکت‌های رسانه‌های اجتماعی مانند فیسبوک از قطعه‌قطعه کردن ما و خوراندن محتوای شخصی‌سازی شده‌ای که هم سوگیری‌های ما را تأیید می‌کند و هم از آن‌ها بهره‌برداری می‌کند، سود می‌برند. سود خالص آن‌ها به تحریک یک احساس قوی برای درگیر نگه داشتن ما بستگی دارد، که اغلب به مشوق‌ترین و قطبی‌سازترین صداها انگیزه می‌دهد.»

آیزنستات در سال ۲۰۱۸ به فیسبوک پیوست و شروع به بررسی مسائلی کرد که در پلتفرم رسانه‌های اجتماعی بسیار تفرقه‌افکنانه بودند. او شروع به پرسیدن سوالات داخلی در مورد علل این تفرقه کرد. او متوجه شد که «بزرگترین شرکت‌های رسانه‌های اجتماعی متناقض با مفهوم گفتمان منطقی هستند… دروغ‌ها در فضای آنلاین جذاب‌تر از حقیقت هستند و پرهیز از حقایق و استدلال‌های مبتنی بر واقعیت در جهانی که برای ویروسی شدن بی‌دردسر بهینه شده است، جذاب‌تر است. تا زمانی که هدف الگوریتم‌ها درگیر نگه داشتن ما باشد، آن‌ها به خوراندن سمی ادامه خواهند داد که به بدترین غرایز و ضعف‌های انسانی ما متوسل می‌شود.»

او دستکاری الگوریتمی فیسبوک را با تاکتیک‌هایی که جذب‌کنندگان تروریست روی جوانان آسیب‌پذیر استفاده می‌کنند، مقایسه کرد. او برنامه‌ای را به فیسبوک برای مبارزه با اطلاعات نادرست سیاسی و سرکوب رای‌دهندگان ارائه داد. او ادعا کرده که این برنامه رد شده است و آیزنستات تنها پس از شش ماه فیسبوک را ترک کرد.

گزارش وال استریت ژورنال (Wall St. Journal) در سال ۲۰۱۸ نشان می‌دهد که مدیران ارشد فیسبوک در جریان یک ارائه داخلی از نتایج زیر مطلع شدند:

  • «الگوریتم‌های ما از تمایل مغز انسان به تفرقه بهره‌برداری می‌کنند… [و] اگر کنترل نشوند،» فیسبوک برای جلب توجه کاربر و افزایش زمان حضور در پلتفرم، «محتوای تفرقه‌افکنانه‌تر و بیشتری» به کاربران ارائه خواهد داد.
  • این پلتفرم قطبی‌سازی و رفتارهای قبیله‌ای را تشدید می‌کند.
  • برخی تغییرات الگوریتمی پیشنهادی «به طور نامتناسبی کاربران و ناشران محافظه‌کار را تحت تأثیر قرار می‌دهند.»
  • با نگاهی به داده‌های آلمان، یک گزارش داخلی نشان داد «۶۴% از کل عضویت در گروه‌های افراطی ناشی از ابزارهای توصیه‌گر ما است… سیستم‌های توصیه‌گر ما مشکل را بزرگتر می‌کنند.»

اینها کلمات خود فیسبوک هستند. همانطور که در بخش بالا اشاره شد، پاداش مدیران اجرایی به «تعامل کاربر» گره خورده بود، که به این معنی بود که توسعه‌دهندگان محصول در فیسبوک انگیزه داشتند سیستم‌ها را دقیقاً به این شیوه طراحی کنند. مارک زاکربرگ و جوئل کاپلان (Joel Kaplan) طبق گزارش‌ها، نتیجه‌گیری‌های ارائه ۲۰۱۸ را رد کردند و تلاش‌ها برای افزایش ادب و متانت در مکالمات پلتفرم را «پدرمآبانه» خواندند. زاکربرگ در ادامه گفت که او «در برابر کسانی که می‌گویند انواع جدید جوامع که در رسانه‌های اجتماعی شکل می‌گیرند ما را تقسیم می‌کنند، مقاومت خواهد کرد.» کاپلان طبق گزارش‌ها «تلاش‌ها برای ساخت یک سیستم طبقه‌بندی برای محتوای بیش از حد قطبی را متوقف کرد.»

اصلا فکرش را می‌کردید که مشکل تا این حد ریشه‌ای باشد؟ این شواهد داخلی نشان می‌دهند که مشکلات اخلاقی فیسبوک نه تنها تصادفی نیستند، بلکه در طراحی و ساختار انگیزشی شرکت ریشه دارند.

فیلترهای هوش مصنوعی: راهکاری ناکافی در برابر مشکلات عمیق

همانطور که در ابتدا اشاره شد، ین لکون ادعا می‌کند که فیلترهای مبتنی بر هوش مصنوعی فیسبوک، پلتفرم را از محتواهایی مانند نفرت‌پراکنی، فراخوان خشونت، قلدری و اطلاعات نادرست خطرناک پاک می‌کنند. این ادعاها به راحتی قابل اثبات هستند. در حالی که هوش مصنوعی (همراه با عملیات دستی بسیار بزرگ مدیریت محتوا در کشورهای در حال توسعه) ممکن است برخی از این محتوا را فیلتر کند، در مقیاس فیسبوک، «برخی» کافی نیست.

بیایید ادعاها را دقیق‌تر بررسی کنیم:

آیا فیسبوک واقعاً نفرت‌پراکنی را فیلتر می‌کند؟

تحقیقات متعدد نشان می‌دهد که پاسخ منفی است:

  • تحقیقی توسط سازمان ضد افراط‌گرایی مستقر در بریتانیا (ISD) نشان داد که الگوریتم فیسبوک به طور فعال محتوای انکار هولوکاست را «ترویج می‌کند».
  • همین سازمان در گزارشی دیگر مستند می‌کند که چگونه «تأخیرها یا اشتباهات فیسبوک در اجرای سیاست‌ها همچنان به گسترش محتوای نفرت‌انگیز و مضر از طریق تبلیغات هدفمند پولی کمک می‌کند.»
  • مارک زاکربرگ در آوریل ۲۰۱۸ اعتراف کرد که نفرت‌پراکنی در میانمار یک مشکل است و متعهد شد که اقدام کند. چهار ماه بعد، رویترز بیش از «۱۰۰۰ نمونه از پست‌ها، نظرات، تصاویر و ویدیوهایی که به روهینگیا یا دیگر مسلمانان میانمار حمله می‌کردند و در فیسبوک بودند» را پیدا کرد.
  • حتی تا ژوئن ۲۰۲۰، گزارش‌هایی مبنی بر استفاده از «مزارع ترول» (troll farms) توسط فیسبوک برای ارعاب مخالفان رودریگو دوترته در فیلیپین با تهدیدهای مرگ و نظرات نفرت‌انگیز وجود داشت.

آیا فیسبوک واقعاً فراخوان خشونت را فیلتر می‌کند؟

نمونه‌های زیر نشان می‌دهند که فیلترها در این زمینه نیز ناکام هستند:

  • دولت سری‌لانکا مجبور شد دسترسی به فیسبوک را مسدود کند «در پی موجی از خشونت علیه مسلمانان… پس از آنکه فیسبوک سال‌ها فراخوان‌های دولت و گروه‌های جامعه مدنی را برای کنترل حساب‌های ناسیونالیست قومی که نفرت‌پراکنی و تحریک خشونت می‌کردند، نادیده گرفت.»
  • وقتی رئیس‌جمهور سابق ترامپ در پاسخ به اعتراضات «زندگی سیاهان مهم است» (Black Lives Matter) توییت کرد که «وقتی غارت شروع می‌شود، تیراندازی شروع می‌شود»، این پیام صدها هزار بار در فیسبوک و اینستاگرام لایک و به اشتراک گذاشته شد، در حالی که شبکه‌های اجتماعی دیگر مانند توییتر این پیام را به دلیل تحریک صریح خشونت پرچم‌گذاری کردند و از بازنشر آن جلوگیری کردند.
  • فیسبوک نقش محوری در برنامه‌ریزی حمله ۶ ژانویه در ایالات متحده ایفا کرد و پلتفرمی بدون کنترل برای تکثیر «دروغ بزرگ» (Big Lie) در مورد تقلب در انتخابات، رادیکالیزاسیون حول این دروغ و سازماندهی هماهنگ برای برنامه‌های صراحتاً اعلام‌شده برای درگیری خشونت‌آمیز در پایتخت فراهم کرد. نقش فیسبوک در این خشونت مرگبار بسیار بیشتر و گسترده‌تر از نقش پارلر (Parler) و سایر پلتفرم‌های راست‌گرای افراطی بود که پس از حمله توجه زیادی را به خود جلب کردند.

آیا فیسبوک واقعاً قلدری سایبری را فیلتر می‌کند؟

طبق آمارها، فیسبوک در حفاظت از کودکان نیز ناکام است:

  • طبق آمار اخیر Enough Is Enough، یک سازمان غیرحزبی و غیرانتفاعی، ۴۷% از جوانان به صورت آنلاین مورد قلدری قرار گرفته‌اند و دو پلتفرم رایج اینستاگرام (۴۲%) و فیسبوک (۳۷%) هستند.
  • طبق نظرسنجی یونیسف از کودکان در ۳۰ کشور، یک سوم جوانان قربانی قلدری آنلاین بوده‌اند و یک پنجم گفته‌اند که آزار و تهدید خشونت واقعی باعث شده است که مدرسه را ترک کنند. تقریباً سه‌چهارم جوانان نیز گفته‌اند که شبکه‌های اجتماعی، از جمله فیسبوک و اینستاگرام، رایج‌ترین مکان برای قلدری آنلاین هستند.

آیا فیسبوک واقعاً «اطلاعات نادرستی که ایمنی عمومی یا یکپارچگی فرآیند دموکراتیک را به خطر می‌اندازند» را فیلتر می‌کند؟

شواهد متعددی این ادعا را نقض می‌کنند:

  • پروژه تحقیقاتی تبلیغات محاسباتی (Computational Propaganda Research Project) در سال ۲۰۱۹ گزارش داد که در ۷۰ کشور جهان، کمپین‌های اطلاعات نادرست در رسانه‌های اجتماعی سازماندهی شده‌اند و فیسبوک در صدر این پلتفرم‌ها قرار دارد.
  • یک افشاگر فیسبوک در یک یادداشت ۶۶۰۰ کلمه‌ای، مورد به مورد بی‌توجهی فیسبوک به «فعالیت‌های بدخواهانه در پلتفرم خود که می‌توانست سرنوشت سیاسی ملت‌ها در خارج از ایالات متحده یا اروپای غربی را تحت تأثیر قرار دهد» را شرح داد.
  • فیسبوک کانون اصلی اطلاعات نادرست در مورد واکسیناسیون و همه‌گیری است. فیلم تئوری توطئه «پلندمیک» (Plandemic) در آوریل ۲۰۲۰ در فیسبوک ویروسی شد و ده‌ها میلیون بازدید کسب کرد. تلاش فیسبوک برای پاکسازی اطلاعات نادرست ضد واکسیناسیون به راحتی شکست خورد، زمانی که گروه‌هایی که این محتوا را منتشر می‌کردند، کلمه «واکسن» را از نام خود حذف کردند.
  • طبق نظرسنجی نایت فاندیشن (Knight Foundation) و گالوپ، ۷۵% آمریکایی‌ها معتقدند که «در مورد انتخابات» در فیسبوک در طول انتخابات ریاست جمهوری ۲۰۲۰ ایالات متحده در معرض اطلاعات نادرست قرار گرفته‌اند. این یکی از موضوعات نادری است که جمهوری‌خواهان (۷۶%)، دموکرات‌ها (۷۵%) و مستقل‌ها (۷۵%) در آن اتفاق نظر دارند – فیسبوک منبع اصلی اطلاعات نادرست انتخاباتی بود.

اگر این فیلترهای هوش مصنوعی واقعاً کار می‌کنند، خیلی خوب کار نمی‌کنند! این مثال‌ها به وضوح نشان می‌دهند که مشکل، نقص در فیلترهای هوش مصنوعی نیست، بلکه مشکل در ابعاد بسیار بزرگتر و ریشه‌ای‌تر است.

فیسبوک و “حقیقت”: آیا می‌توان به آن اعتماد کرد؟

فیسبوک ادعا می‌کند که نمی‌خواهد «داور حقیقت سیاسی» باشد. شاید باید از این ادعا آسوده خاطر باشیم، چرا که فیسبوک سابقه پرمشکل با حقیقت دارد. مشتریان تبلیغاتی فیسبوک این را به اثبات رساندند، زمانی که فیسبوک مجبور شد ۴۰ میلیون دلار برای حل و فصل شکایتی پرداخت کند که ادعا می‌کرد فیسبوک «تا ۹۰۰ درصد» زمانی را که کاربران صرف تماشای ویدیو می‌کردند، بیش از حد گزارش کرده است.

این یک دروغ بی‌اهمیت نبود که فقط چند شرکت را متحمل هزینه کرد. همانطور که اسلیت (Slate) در مقاله‌ای در سال ۲۰۱۸ توضیح داد، «بسیاری از مردم به دلیل این فریب، منبع درآمد خود را از دست دادند.»

آیا این یک حادثه جداگانه است؟ یا کلاهبرداری در فیسبوک سیستماتیک است؟ مت استولر (Matt Stoller) محتویات اسناد حقوقی محرمانه شده اخیر را در شکایتی که ادعا می‌کند فیسبوک سال‌هاست تبلیغ‌کنندگان را فریب داده است، شرح می‌دهد:

  • اسناد فاش کردند که شریل سندبرگ (Sheryl Sandberg)، مدیر عملیات فیسبوک، مستقیماً سال‌ها بر این کلاهبرداری ادعایی نظارت داشته است.
  • این طرح ساده بود. فیسبوک با وانمود کردن اینکه حساب‌های جعلی نماینده افراد واقعی هستند، تبلیغ‌کنندگان را فریب می‌داد، زیرا خریداران تبلیغات بر اساس جایی که فکر می‌کنند مشتریانشان هستند، هزینه تبلیغات را تعیین می‌کنند. کارکنان سابق اشاره کردند که شرکت به دقت اعداد اهمیت نمی‌دهد، مادامی که پول تبلیغات وارد می‌شود. آن‌ها گفتند فیسبوک «اصلاً اهمیت نمی‌داد.»
  • آمارهای متورم گاهی اوقات منجر به نتایج عجیب و غریب می‌شد. به عنوان مثال، فیسبوک به تبلیغ‌کنندگان گفت که خدمات آن پتانسیل دسترسی به ۱۰۰ میلیون نفر ۱۸ تا ۳۴ ساله در ایالات متحده را دارد، در حالی که تنها ۷۶ میلیون نفر در این گروه سنی وجود دارند. پس از اینکه کارکنان راهکاری برای صادقانه کردن اعداد پیشنهاد دادند، شرکت ایده را رد کرد و اشاره کرد که «تأثیر درآمدی» برای فیسبوک «قابل توجه» خواهد بود. یکی از کارکنان فیسبوک نوشت: «سوال اخیر من این است: تا چه زمانی می‌توانیم از تخمین بیش از حد دسترسی فرار کنیم؟»

طبق این اسناد، سندبرگ به شدت مدیریت ارتباطات عمومی در مورد نحوه صحبت با تبلیغ‌کنندگان در مورد آمارهای متورم را بر عهده داشت و فیسبوک اکنون علیه مصاحبه او توسط وکلای یک شکایت دسته‌جمعی مبنی بر کلاهبرداری مبارزه می‌کند.

مشکلات اخلاقی فیسبوک در زمینه صداقت به محتوای پلتفرم‌های آن نیز گسترش می‌یابد:

  • مقاله‌ای در سال ۲۰۲۰ در Heated مستند می‌کند که فیسبوک برای کسانی که «کمک به… تئوری‌های توطئه انکار اقلیم» می‌کنند، معافیت از بررسی حقایق ایجاد کرده است.
  • مدیر سابق سایت بررسی حقایق Snopes گزارش داد که فیسبوک صرفاً از این سایت معتبر برای «روابط عمومی بحران» استفاده می‌کرده، بررسی حقایق را جدی نمی‌گرفته و نگرانی‌ها را نادیده می‌گرفته است.
  • پروپابلیکا (ProPublica) اخیراً گزارش داد که شریل سندبرگ یک گروه شبه‌نظامی کرد را که «دولت ترکیه آن را هدف قرار داده بود»، ساکت و سانسور کرده است تا درآمد خود را از ترکیه حفظ کند.
  • مارک زاکربرگ و جوئل کاپلان در آوریل ۲۰۱۹ مداخله کردند تا الکس جونز (Alex Jones)، نظریه‌پرداز توطئه راست‌گرا را در پلتفرم نگه دارند، با وجود نقش اصلی او در انتشار اطلاعات نادرست در مورد تیراندازی دبستان سندی هوک در سال ۲۰۱۲ و تیراندازی دبیرستان پارکلند در سال ۲۰۱۸.

واقعاً چقدر می‌توان به پلتفرمی اعتماد کرد که چنین سابقه‌ای در زمینه صداقت دارد؟ به نظر می‌رسد تیم اجرایی فیسبوک نه تنها از مسئولیت خود به عنوان «داور حقیقت» شانه خالی کرده، بلکه در چندین مورد قابل توجه، برای اطمینان از ادامه انتشار اطلاعات نادرست مداخله کرده است.

راهکار چیست؟ خروج جمعی یا رگولاتوری؟

مدل کسب‌وکار فیسبوک کاملاً بر افزایش رشد و تعامل کاربر متمرکز است. الگوریتم‌های آن در این زمینه بسیار مؤثر عمل می‌کنند. اقداماتی که فیسبوک انجام داده است، مانند ساخت «فیلترهای هوش مصنوعی» یا همکاری با بررسی‌کنندگان مستقل حقایق، سطحی و بی‌اثر هستند. آن‌ها نمی‌توانند مسائل سیستمی که در قلب این موضوع قرار دارند را حل کنند، زیرا این مسائل دلیل وجودی فیسبوک هستند.

پس چه کاری می‌توان انجام داد؟ قطعاً، فعالیت‌های مجرمانه باید پیگرد قانونی شوند. مدیران اجرایی باید به دلیل کلاهبرداری به زندان بروند. شرکت‌های رسانه‌های اجتماعی و رهبران سازمانی آن‌ها باید برای تأثیر محتوای موجود در پلتفرم‌هایشان مسئولیت قانونی داشته باشند. یکی از تلاش‌ها برای تحمیل مسئولیت قانونی در ایالات متحده، اصلاح بخش ۲۳۰ قانون نجابت ارتباطات (Section 230 of the US Communications Decency Act) است. این قانون و قوانین مشابه در سراسر جهان باید اصلاح شوند تا مسئولیت‌پذیری و پاسخگویی معنادار بیشتری در قبال ترویج اطلاعات نادرست، خشونت و افراط‌گرایی ایجاد شود.

مهم‌تر از همه، انحصارها باید شکسته شوند. قوانین موجود ضد انحصار باید برای تجزیه فیسبوک و محدود کردن فعالیت‌ها و خریدهای آینده آن استفاده شوند.

مسائل مطرح شده در اینجا به روش‌های بی‌شماری که به خوبی مستند و به راحتی قابل اثبات هستند، به اطلاع رهبری فیسبوک رسیده است. اما تغییرات مورد نیاز بسیار فراتر از استفاده مؤثر از هوش مصنوعی است. در قلب مسئله، فیسبوک تغییر نخواهد کرد زیرا نمی‌خواهد و برای آن انگیزه‌ای ندارد. فیسبوک باید تنظیم شود و ساختار رهبری آن باید برچیده شود.

به نظر می‌رسد سیاستمداران و تنظیم‌کنندگان اراده سیاسی لازم برای انجام همه این کارها را ندارند، اما برخی نشانه‌های دلگرم‌کننده وجود دارد، به خصوص در مورد تحقیقات ضد انحصار و شکایات حقوقی در ایالات متحده و اروپا. با این حال، این مسئله فراتر از صرفاً اجرای قانون است. به نحوی باید انگیزه‌ها را برای شرکت‌های رسانه‌های اجتماعی که برای جلب توجه ما رقابت می‌کنند و از آن درآمدزایی می‌کنند، تغییر دهیم.

تا زمانی که با تعامل، به رفتار غیرقانونی فیسبوک پاداش دهیم، دشوار است راهی برای خروج از وضعیت کنونی خود ببینیم. این شرکت‌ها فناوری‌ای می‌سازند که برای جذب ما با محتوای مشکل‌دار، معتاد کردن ما به خشم و عصبانیت، و در نهایت دور کردن ما از یکدیگر طراحی شده است. ما دیگر در مورد حقایق یا واقعیت‌های مشترک توافق نداریم، وضعیتی که دشمنان سیاسی را به دشمنان سرسخت تبدیل می‌کند، تفاوتهای ایدئولوژیک را به نفرت تبدیل می‌کند. فیسبوک به جای کمک به ما در داشتن زندگی‌های پربارتر یا یافتن حقیقت، به ما کمک می‌کند دشمنانی را در میان هموطنانمان کشف کنیم و با دلایلی برای نفرت از آن‌ها بمبارانمان می‌کند، همه اینها به نفع سودآوری است. این مسیر ناپایدار است.

تنها چیزی که فیسبوک واقعاً می‌فهمد پول است و تمام پول آنها از تعامل می‌آید. اگر ما تعامل نکنیم، آنها پول از دست می‌دهند. اگر ما حساب‌هایمان را حذف کنیم، آنها قدرت از دست می‌دهند. اگر از اکوسیستم آنها خارج شویم، شاید بتوانیم به صورت جمعی به یک واقعیت مشترک بازگردیم. واقعاً اینطور نیست؟ قدرت نهایی در دستان کاربران است.

چگونه خود را در برابر اخبار دروغین و محتوای مضر فیسبوک محافظت کنیم؟

با توجه به آنچه گفته شد، واضح است که تنها انتظار از فیسبوک برای حل مشکلات اخلاقی خود کافی نیست. ما به عنوان کاربران نیز مسئولیت‌هایی داریم. چگونه می‌توانیم خود را در این فضای پیچیده و اغلب سمی محافظت کنیم؟

بر اساس دیدگاه‌های مطرح شده در مقاله لائور و همچنین توصیه‌های دیگری در زمینه مقابله با اطلاعات نادرست (مانند آنچه در مقاله‌ی موسسه بروکینگز در مورد مبارزه با اخبار دروغین و اطلاعات نادرست آمده است)، می‌توانید گام‌های زیر را بردارید:

  • منابع خبری خود را متنوع کنید: به جای اتکا به یک یا دو منبع خبری، به ویژه اگر دیدگاه‌های شما را تأیید می‌کنند، از منابع متنوع و با اعتبار مختلف استفاده کنید. این به شما کمک می‌کند دیدگاه‌های مختلف را بشنوید و در معرض اطلاعات متعادل‌تری قرار بگیرید.
  • نسبت به محتوای آنلاین شکاک باشید: هر آنچه در شبکه‌های اجتماعی یا سایت‌های خبری می‌خوانید را فوراً باور نکنید. عنوان‌های فریبنده و احساسی را به دقت بررسی کنید. آیا منبع خبر معتبر است؟ آیا خبر توسط منابع معتبر دیگر نیز گزارش شده است؟
  • مهارت‌های سواد رسانه‌ای خود را تقویت کنید: یاد بگیرید چگونه منابع اطلاعاتی را ارزیابی کنید. به دنبال نشانه‌هایی از اطلاعات نادرست باشید (مانند گرامر ضعیف، طراحی سایت غیرحرفه‌ای، فقدان اطلاعات تماس یا نویسنده مشخص، ادعاهای بیش از حد احساسی یا باورنکردنی).
  • از ابزارهای بررسی حقایق استفاده کنید: سایت‌ها و سازمان‌های مستقل بسیاری وجود دارند که ادعاهای عمومی و اخبار را بررسی می‌کنند. از این منابع برای تأیید صحت اطلاعات استفاده کنید.
  • به اشتراک‌گذاری محتوای مشکوک را متوقف کنید: قبل از اشتراک‌گذاری یک پست یا خبر، لحظه‌ای درنگ کنید و صحت آن را بررسی کنید. اشتراک‌گذاری اطلاعات نادرست، دانسته یا نادانسته، به گسترش آن کمک می‌کند.
  • مدت زمان استفاده از فیسبوک را آگاهانه مدیریت کنید: همانطور که مطالعه آلكات نشان داد، کاهش زمان حضور در فیسبوک می‌تواند به کاهش قطبی‌سازی و افزایش رفاه ذهنی کمک کند. آگاه باشید که پلتفرم برای درگیر نگه داشتن شما طراحی شده است و فعالانه زمان استفاده خود را کنترل کنید.
  • حساب‌های جعلی و ربات‌ها را گزارش دهید: اگر با حساب‌هایی مواجه شدید که به نظر می‌رسد جعلی هستند یا محتوای مشکوک یا آزاردهنده منتشر می‌کنند، آن‌ها را به فیسبوک گزارش دهید. هرچند ممکن است همیشه مؤثر نباشد، اما یک گام در جهت پاکسازی پلتفرم است.
  • حذف حساب کاربری را در نظر بگیرید: همانطور که نویسنده مقاله اصلی اشاره کرد، حذف حساب کاربری یک راه قدرتمند برای پس گرفتن قدرت از فیسبوک و توقف حمایت از مدل کسب‌وکار آن است. اگر احساس می‌کنید فیسبوک بیشتر از اینکه به شما سود برساند، ضرر می‌زند، شاید زمان آن رسیده باشد که این گام را بردارید.

جمع‌بندی: درسی از شکست‌های اخلاقی فیسبوک

بررسی مقاله دیوید لائور و شواهد ارائه شده در آن، تصویر نگران‌کننده‌ای از مشکلات اخلاقی فیسبوک ارائه می‌دهد. مشخص است که این مشکلات، نتیجه‌ی نقص‌های فنی جزئی یا خطاهای اتفاقی نیستند، بلکه ریشه در مدل کسب‌وکار این شرکت دارند که بر حداکثرسازی تعامل به هر قیمتی، حتی به قیمت ترویج تفرقه، افراط‌گرایی و اطلاعات نادرست، استوار است.

علیرغم ادعاهای مدیران آن، فیسبوک در مهار محتوای مضر شکست خورده است و حتی شواهد داخلی نشان می‌دهد که رهبری شرکت از این مشکلات آگاه بوده و گاهی عمداً مانع رفع آن‌ها شده‌اند. عدم شفافیت در مورد الگوریتم‌ها، بررسی‌های ناکافی حقایق و موارد مستند کلاهبرداری در تبلیغات، همگی به بی‌اعتمادی عمیق نسبت به این پلتفرم دامن می‌زنند.

راهکارهای صرفاً تکنولوژیکی مانند فیلترهای هوش مصنوعی، در برابر این مشکلات سیستمی ناکافی هستند. تغییر واقعی نیازمند اصلاحات ساختاری، مسئولیت‌پذیری قانونی و شاید مهم‌تر از همه، تغییر انگیزه‌های سودآوری شرکت است.

تا زمانی که فیسبوک به دلیل درگیر کردن ما با محتوای جنجالی و تفرقه‌افکنانه پاداش می‌گیرد، وضعیت تغییر چندانی نخواهد کرد. به عنوان کاربران، ما قدرت تغییر این معادله را داریم. با آگاه شدن، تنوع بخشیدن به منابع اطلاعاتی، افزایش سواد رسانه‌ای و در نهایت، کاهش یا توقف تعامل با پلتفرم، می‌توانیم به فیسبوک پیام دهیم که مدل کسب‌وکار فعلی آن قابل قبول نیست.

این موضوع فقط در مورد فیسبوک نیست؛ این درسی است برای همه پلتفرم‌های آنلاینی که زندگی ما را تحت تأثیر قرار می‌دهند. اخلاق در عصر دیجیتال باید در قلب طراحی و مدل‌های کسب‌وکار قرار گیرد، نه اینکه به عنوان یک افزودنی اختیاری یا یک ابزار روابط عمومی استفاده شود.

حالا نوبت شماست! تجربه شما با فیسبوک چگونه بوده است؟ آیا متوجه تأثیرات قطبی‌سازی یا اطلاعات نادرست در این پلتفرم شده‌اید؟ چه اقداماتی برای محافظت از خود انجام می‌دهید؟ نظرات ارزشمند خود را در بخش کامنت‌ها با ما و دیگر خوانندگان به اشتراک بگذارید.

اگر این مقاله برایتان مفید بود، آن را با دوستان و همکاران خود به اشتراک بگذارید. برای خواندن مقالات بیشتر در زمینه فناوری، اخلاق و تأثیرات دنیای دیجیتال بر زندگی ما، به وبسایت چیریکا (cheerika.com) سر بزنید.

سوالات متداول

چرا گفته می‌شود مدل کسب‌وکار فیسبوک در ترویج محتوای تفرقه‌افکنانه نقش دارد؟

مدل کسب‌وکار فیسبوک بر افزایش “تعامل” کاربران استوار است. الگوریتم‌ها محتوایی را که احساسات قوی برمی‌انگیزد (حتی خشم و تفرقه) بیشتر نمایش می‌دهند تا کاربران را در پلتفرم نگه دارند و از این طریق درآمد تبلیغاتی بیشتری کسب کنند.

آیا فیسبوک به طور فعال از گسترش اطلاعات نادرست سود می‌برد؟

مقاله استدلال می‌کند که سودآوری فیسبوک به طور قابل توجهی به میزان قطبی‌سازی و درگیر نگه داشتن کاربران با محتوای جنجالی وابسته است که اغلب شامل اطلاعات نادرست می‌شود. گزارش‌های داخلی و شهادت مدیران سابق نیز این موضوع را تأیید می‌کنند.

آیا فیلترهای هوش مصنوعی فیسبوک در مهار نفرت‌پراکنی و خشونت مؤثر هستند؟

شواهد نشان می‌دهند که فیلترهای هوش مصنوعی فیسبوک اغلب ناکافی هستند. مطالعات متعدد حاکی از آن است که الگوریتم‌ها همچنان به ترویج انکار هولوکاست، فراخوان خشونت و قلدری آنلاین کمک می‌کنند و در پاکسازی اطلاعات نادرست نیز موفق عمل نمی‌کنند.

چرا شفافیت فیسبوک در مورد الگوریتم‌هایش یک مشکل اساسی است؟

عدم شفافیت فیسبوک در مورد الگوریتم‌ها، مطالعه دقیق رفتار پلتفرم و تأثیرات آن را برای محققان دشوار می‌سازد. دسترسی محدود به داده‌ها و قراردادهای خاص با محققان، مانع تحقیقات علمی آزاد می‌شود.

چه راه‌هایی برای محافظت از خود در برابر اخبار دروغین و محتوای مضر در فیسبوک وجود دارد؟

برای محافظت از خود، منابع خبری خود را متنوع کنید، نسبت به محتوای آنلاین شکاک باشید، مهارت‌های سواد رسانه‌ای خود را تقویت کنید، از ابزارهای بررسی حقایق استفاده کنید و اشتراک‌گذاری محتوای مشکوک را متوقف کنید. همچنین مدیریت آگاهانه زمان استفاده از پلتفرم و در نهایت، حذف حساب کاربری نیز گزینه‌هایی هستند.

چه اقداماتی برای اصلاح مشکلات اخلاقی فیسبوک پیشنهاد شده است؟

اصلاح بخش ۲۳۰ قانون نجابت ارتباطات برای افزایش مسئولیت‌پذیری، شکستن انحصارات از طریق قوانین ضد انحصار و تغییر ساختار انگیزشی شرکت برای عدم اولویت‌دهی صرف به تعامل، از جمله اقدامات پیشنهادی برای اصلاح مشکلات سیستمی فیسبوک است.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

فهرست مطالب

آخرین مطالب

عضویت

برای داشتن مقالات ویژه ما شما هم همین حالا عضو چیریکا شوید