گفتار بیشتر و اشتباهات کمتر


پلتفرم‌های متا به گونه‌ای ساخته شده‌اند که مکان‌هایی باشند که مردم بتوانند آزادانه خود را بیان کنند. که می تواند کثیف باشد. در پلتفرم هایی که میلیاردها نفر می توانند صدا داشته باشند، همه خوبی ها، بدی ها و زشتی ها به نمایش گذاشته می شود. اما این بیان آزاد است.

مارک زاکربرگ در سخنرانی سال 2019 خود در دانشگاه جورج تاون استدلال کرد که بیان آزاد نیروی محرکه پیشرفت در جامعه آمریکا و در سراسر جهان بوده است و گفتار بازدارنده، هر چند دلایل با نیت خوب برای انجام آن باشد، اغلب نهادها و ساختارهای قدرت موجود را تقویت می کند. به جای توانمندسازی مردم او گفت: «بعضی از مردم بر این باورند که صدای بیشتر مردم به جای اینکه ما را به هم نزدیک کند، باعث ایجاد تفرقه می شود. افراد بیشتری در سراسر طیف بر این باورند که دستیابی به نتایج سیاسی که فکر می‌کنند مهم است، مهم‌تر از داشتن صدای هر فردی است. من فکر می کنم این خطرناک است.»

در سال‌های اخیر، ما سیستم‌های پیچیده‌تری را برای مدیریت محتوا در پلتفرم‌های خود توسعه داده‌ایم، تا حدی در پاسخ به فشار اجتماعی و سیاسی برای تعدیل محتوا. این رویکرد بیش از حد پیش رفته است. به همان اندازه که بسیاری از این تلاش‌ها با نیت خوب انجام شده‌اند، در طول زمان به حدی گسترش یافته‌اند که اشتباهات زیادی مرتکب می‌شویم، کاربران خود را ناامید می‌کنیم و اغلب در مسیر بیان آزادانه‌ای قرار می‌گیریم که می‌خواهیم فعال کنیم. محتوای بی‌ضرر بیش از حد سانسور می‌شود، بسیاری از افراد خود را به اشتباه در «زندان فیس‌بوک» محبوس می‌کنند، و ما اغلب برای پاسخ دادن به آن‌ها خیلی کند هستیم.

ما می خواهیم آن را اصلاح کنیم و به آن تعهد اساسی به آزادی بیان بازگردیم. امروز، ما در حال ایجاد تغییراتی هستیم تا به آن ایده آل وفادار بمانیم.

پایان دادن به برنامه بررسی حقایق شخص ثالث، انتقال به یادداشت‌های انجمن

زمانی که در سال 2016 برنامه راستی‌آزمایی مستقل خود را راه‌اندازی کردیم، کاملاً واضح بودیم که نمی‌خواهیم داور حقیقت باشیم. ما بهترین و معقول‌ترین انتخاب را در آن زمان انجام دادیم، یعنی واگذاری این مسئولیت به سازمان‌های مستقل حقیقت‌سنجی. هدف این برنامه این بود که این کارشناسان مستقل به مردم اطلاعات بیشتری در مورد چیزهایی که آنلاین می‌بینند، به ویژه حقه‌های ویروسی، بدهند تا بتوانند آنچه را که می‌بینند و می‌خوانند، خودشان قضاوت کنند.

به خصوص در ایالات متحده، همه چیز اینگونه نیست. کارشناسان نیز مانند هر کس دیگری، تعصبات و دیدگاه های خاص خود را دارند. این در انتخاب هایی که برخی در مورد اینکه چه چیزی و چگونه باید بررسی شود نشان داد. با گذشت زمان به محتوای بیش از حدی رسیدیم که حقایق بررسی می‌شد که مردم آن را به عنوان سخنرانی و بحث سیاسی مشروع درک می‌کردند. سپس سیستم ما پیامدهای واقعی را در قالب برچسب‌های نفوذی و کاهش توزیع به آن اضافه کرد. برنامه ای که برای اطلاع رسانی در نظر گرفته شده بود اغلب به ابزاری برای سانسور تبدیل می شد.

اکنون در حال تغییر این رویکرد هستیم. ما به برنامه فعلی بررسی حقایق شخص ثالث در ایالات متحده پایان می‌دهیم و در عوض به سمت برنامه یادداشت‌های انجمن حرکت می‌کنیم. ما شاهد این بودیم که این رویکرد روی X کار می‌کند – جایی که آن‌ها به جامعه خود قدرت می‌دهند تا تصمیم بگیرند چه زمانی پست‌ها به طور بالقوه گمراه‌کننده هستند و به زمینه بیشتری نیاز دارند، و افراد در طیف متنوعی از دیدگاه‌ها تصمیم می‌گیرند که چه نوع زمینه‌ای برای دیدن سایر کاربران مفید است. ما فکر می‌کنیم که این می‌تواند راه بهتری برای دستیابی به هدف اصلی ما برای ارائه اطلاعات به مردم درباره آنچه که می‌بینند باشد – و روشی که کمتر مستعد سوگیری است.

  • هنگامی که برنامه راه اندازی و اجرا می شود، متا یادداشت های انجمن را نمی نویسد یا تصمیم نمی گیرد که کدام یک نمایش داده شوند. آنها توسط کاربران مشارکت کننده نوشته و رتبه بندی می شوند.
  • همانطور که در مورد X انجام می دهند، یادداشت های انجمن نیاز به توافق بین افراد با طیف وسیعی از دیدگاه ها برای کمک به جلوگیری از رتبه بندی های جانبدارانه دارند.
  • ما قصد داریم در مورد نحوه اطلاع رسانی دیدگاه های مختلف به یادداشت های نمایش داده شده در برنامه هایمان شفاف باشیم و در حال کار بر روی راه درست برای اشتراک گذاری این اطلاعات هستیم.
  • مردم می توانند امروز ثبت نام کنند (فیس بوک، اینستاگرام، موضوعات) برای این فرصت که در میان اولین مشارکت کنندگان این برنامه با در دسترس قرار گرفتن آن باشید.

ما قصد داریم اولین مرحله در چند ماه آینده Community Notes را در ایالات متحده وارد کنیم و در طول سال به بهبود آن ادامه خواهیم داد. با انجام این انتقال، از کنترل واقعیت‌سنجی خود خلاص می‌شویم، محتوای بررسی‌شده واقعیت را کاهش می‌دهیم و به‌جای پوشاندن اخطارهای تمام‌صفحه‌ای که باید قبل از دیدن پست روی آن کلیک کنید، از مقدار بسیار کمتری استفاده خواهیم کرد. برچسب مزاحم که نشان می دهد اطلاعات اضافی برای کسانی که می خواهند آن را ببینند وجود دارد.

اجازه دادن به گفتار بیشتر

با گذشت زمان، سیستم‌های پیچیده‌ای را برای مدیریت محتوا در پلتفرم‌های خود توسعه داده‌ایم که اجرای آن‌ها برای ما پیچیده‌تر می‌شود. در نتیجه، قوانین خود را بیش از حد اجرا می‌کنیم، بحث‌های سیاسی مشروع را محدود می‌کنیم و محتوای بی‌اهمیت بیش از حد را سانسور می‌کنیم و افراد زیادی را در معرض اقدامات اجرایی ناامیدکننده قرار می‌دهیم.

برای مثال، در دسامبر 2024، ما روزانه میلیون‌ها قطعه محتوا را حذف کردیم. در حالی که این کنش‌ها کمتر از 1% محتوای تولید شده در روز را تشکیل می‌دهند، ما فکر می‌کنیم از هر 10 اقدام، یک تا دو مورد اشتباه بوده است (یعنی ممکن است محتوا واقعاً خط‌مشی‌های ما را نقض نکرده باشد). این به اقداماتی که ما برای مقابله با حملات هرزنامه های دشمن در مقیاس بزرگ انجام می دهیم، حساب نمی کند. ما قصد داریم گزارش شفافیت خود را گسترش دهیم تا اعداد اشتباهات خود را به طور منظم به اشتراک بگذاریم تا مردم بتوانند پیشرفت ما را دنبال کنند. به عنوان بخشی از آن، جزئیات بیشتری در مورد اشتباهاتی که هنگام اجرای سیاست‌های هرزنامه مرتکب می‌شویم نیز درج می‌کنیم.

ما می خواهیم خزش ماموریتی را که قوانین ما را بسیار محدود و مستعد اجرای بیش از حد کرده است، خنثی کنیم. ما در حال خلاص شدن از شر تعدادی محدودیت در موضوعاتی مانند مهاجرت، هویت جنسیتی و جنسیت هستیم که موضوع بحث و گفتمان سیاسی مکرر است. این درست نیست که بتوان در تلویزیون یا در صحنه کنگره مطالبی را بیان کرد، اما در تریبون های ما نه. اجرای کامل این تغییرات سیاست ممکن است چند هفته طول بکشد.

همچنین نحوه اجرای سیاست‌های خود را تغییر می‌دهیم تا از اشتباهاتی که اکثریت قریب به اتفاق سانسور روی پلتفرم‌های ما را تشکیل می‌دهند، بکاهیم. تا به حال، ما از سیستم‌های خودکار برای اسکن همه نقض‌های خط‌مشی استفاده می‌کردیم، اما این منجر به اشتباهات بسیار و محتوای بیش از حد سانسور شده است که نباید سانسور می‌شد. بنابراین، ما به تمرکز این سیستم ها بر روی برخورد با تخلفات غیرقانونی و شدید، مانند تروریسم، بهره کشی جنسی از کودکان، مواد مخدر، کلاهبرداری و کلاهبرداری ادامه خواهیم داد. برای نقض خط‌مشی‌های کمتر شدید، قبل از هر اقدامی به فردی که مشکلی را گزارش می‌کند تکیه می‌کنیم. همچنین محتوای بیش از حدی را که سیستم‌های ما پیش‌بینی می‌کنند ممکن است استانداردهای ما را نقض کند، کاهش می‌دهیم. ما در حال خلاص شدن از شر بسیاری از این تنزل ها هستیم و به اطمینان بیشتری نیاز داریم که محتوا برای بقیه نقض می شود. و ما سیستم‌هایمان را طوری تنظیم می‌کنیم که قبل از حذف یک محتوا، به درجه بسیار بالاتری از اطمینان نیاز دارند. به عنوان بخشی از این تغییرات، تیم‌های اعتماد و ایمنی را که خط‌مشی‌های محتوای ما را می‌نویسند و محتوا را بررسی می‌کنند به خارج از کالیفرنیا به تگزاس و سایر مکان‌های ایالات متحده منتقل می‌کنیم.

معمولاً به مردم این فرصت داده می شود که از تصمیمات اجرایی ما درخواست تجدید نظر کنند و از ما بخواهند که نگاهی دیگر بیندازیم، اما این روند می تواند به طرز ناامیدکننده ای کند باشد و همیشه به نتیجه درستی نمی رسد. ما کارکنان اضافی را به این کار اضافه کرده‌ایم و در موارد بیشتر، اکنون به چندین بازبین نیاز داریم تا به یک تصمیم برسند تا چیزی را حذف کنیم. ما در حال کار روی راه‌هایی برای ساده‌تر کردن بازیابی حساب‌ها و آزمایش فناوری تشخیص چهره هستیم، و استفاده از مدل‌های زبان بزرگ هوش مصنوعی (LLM) را شروع کرده‌ایم تا قبل از انجام اقدامات اجرایی، نظر دومی درباره برخی محتوا ارائه دهیم.

رویکرد شخصی به محتوای سیاسی

از سال 2021، بر اساس بازخوردی که کاربران به ما داده‌اند مبنی بر اینکه می‌خواهند کمتر از این محتوا ببینند، تغییراتی را برای کاهش میزان دیدن محتوای مدنی ایجاد کرده‌ایم – پست‌هایی درباره انتخابات، سیاست یا مسائل اجتماعی. اما این یک رویکرد کاملاً صریح بود. ما قصد داریم دوباره این را به فیسبوک، اینستاگرام و موضوعات با رویکردی شخصی‌تر آغاز کنیم تا افرادی که می‌خواهند محتوای سیاسی بیشتری را در فیدهای خود ببینند، بتوانند.

ما به طور مداوم در حال آزمایش نحوه ارائه تجربیات شخصی هستیم و اخیراً آزمایشاتی را در مورد محتوای مدنی انجام داده ایم. در نتیجه، ما شروع خواهیم کرد که با محتوای مدنی افراد و صفحاتی که در فیس‌بوک دنبال می‌کنید، بیشتر شبیه هر محتوای دیگری در فید شما رفتار کنیم، و شروع به رتبه‌بندی و نشان دادن آن محتوا بر اساس سیگنال‌های صریح خواهیم کرد (مثلاً لایک کردن بخشی از محتوا) و سیگنال‌های ضمنی (مانند مشاهده پست‌ها) که به ما کمک می‌کنند پیش‌بینی کنیم چه چیزی برای مردم معنادار است. همچنین بر اساس این سیگنال‌های شخصی‌شده، محتوای سیاسی بیشتری را توصیه می‌کنیم و گزینه‌هایی را که افراد برای کنترل میزان دیدن این محتوا دارند، گسترش می‌دهیم.

این تغییرات تلاشی برای بازگشت به تعهد به آزادی بیان است که مارک زاکربرگ در سخنرانی خود در جورج تاون بیان کرد. این بدان معناست که مراقب تأثیر سیاست‌ها و سیستم‌های ما بر توانایی مردم برای شنیدن صدایشان باشیم و وقتی می‌دانیم داریم اشتباه می‌کنیم، رفتار خود را تغییر دهیم.





منبع