پلتفرمهای متا به گونهای ساخته شدهاند که مکانهایی باشند که مردم بتوانند آزادانه خود را بیان کنند. که می تواند کثیف باشد. در پلتفرم هایی که میلیاردها نفر می توانند صدا داشته باشند، همه خوبی ها، بدی ها و زشتی ها به نمایش گذاشته می شود. اما این بیان آزاد است.
مارک زاکربرگ در سخنرانی سال 2019 خود در دانشگاه جورج تاون استدلال کرد که بیان آزاد نیروی محرکه پیشرفت در جامعه آمریکا و در سراسر جهان بوده است و گفتار بازدارنده، هر چند دلایل با نیت خوب برای انجام آن باشد، اغلب نهادها و ساختارهای قدرت موجود را تقویت می کند. به جای توانمندسازی مردم او گفت: «بعضی از مردم بر این باورند که صدای بیشتر مردم به جای اینکه ما را به هم نزدیک کند، باعث ایجاد تفرقه می شود. افراد بیشتری در سراسر طیف بر این باورند که دستیابی به نتایج سیاسی که فکر میکنند مهم است، مهمتر از داشتن صدای هر فردی است. من فکر می کنم این خطرناک است.»
در سالهای اخیر، ما سیستمهای پیچیدهتری را برای مدیریت محتوا در پلتفرمهای خود توسعه دادهایم، تا حدی در پاسخ به فشار اجتماعی و سیاسی برای تعدیل محتوا. این رویکرد بیش از حد پیش رفته است. به همان اندازه که بسیاری از این تلاشها با نیت خوب انجام شدهاند، در طول زمان به حدی گسترش یافتهاند که اشتباهات زیادی مرتکب میشویم، کاربران خود را ناامید میکنیم و اغلب در مسیر بیان آزادانهای قرار میگیریم که میخواهیم فعال کنیم. محتوای بیضرر بیش از حد سانسور میشود، بسیاری از افراد خود را به اشتباه در «زندان فیسبوک» محبوس میکنند، و ما اغلب برای پاسخ دادن به آنها خیلی کند هستیم.
ما می خواهیم آن را اصلاح کنیم و به آن تعهد اساسی به آزادی بیان بازگردیم. امروز، ما در حال ایجاد تغییراتی هستیم تا به آن ایده آل وفادار بمانیم.
پایان دادن به برنامه بررسی حقایق شخص ثالث، انتقال به یادداشتهای انجمن
زمانی که در سال 2016 برنامه راستیآزمایی مستقل خود را راهاندازی کردیم، کاملاً واضح بودیم که نمیخواهیم داور حقیقت باشیم. ما بهترین و معقولترین انتخاب را در آن زمان انجام دادیم، یعنی واگذاری این مسئولیت به سازمانهای مستقل حقیقتسنجی. هدف این برنامه این بود که این کارشناسان مستقل به مردم اطلاعات بیشتری در مورد چیزهایی که آنلاین میبینند، به ویژه حقههای ویروسی، بدهند تا بتوانند آنچه را که میبینند و میخوانند، خودشان قضاوت کنند.
به خصوص در ایالات متحده، همه چیز اینگونه نیست. کارشناسان نیز مانند هر کس دیگری، تعصبات و دیدگاه های خاص خود را دارند. این در انتخاب هایی که برخی در مورد اینکه چه چیزی و چگونه باید بررسی شود نشان داد. با گذشت زمان به محتوای بیش از حدی رسیدیم که حقایق بررسی میشد که مردم آن را به عنوان سخنرانی و بحث سیاسی مشروع درک میکردند. سپس سیستم ما پیامدهای واقعی را در قالب برچسبهای نفوذی و کاهش توزیع به آن اضافه کرد. برنامه ای که برای اطلاع رسانی در نظر گرفته شده بود اغلب به ابزاری برای سانسور تبدیل می شد.
اکنون در حال تغییر این رویکرد هستیم. ما به برنامه فعلی بررسی حقایق شخص ثالث در ایالات متحده پایان میدهیم و در عوض به سمت برنامه یادداشتهای انجمن حرکت میکنیم. ما شاهد این بودیم که این رویکرد روی X کار میکند – جایی که آنها به جامعه خود قدرت میدهند تا تصمیم بگیرند چه زمانی پستها به طور بالقوه گمراهکننده هستند و به زمینه بیشتری نیاز دارند، و افراد در طیف متنوعی از دیدگاهها تصمیم میگیرند که چه نوع زمینهای برای دیدن سایر کاربران مفید است. ما فکر میکنیم که این میتواند راه بهتری برای دستیابی به هدف اصلی ما برای ارائه اطلاعات به مردم درباره آنچه که میبینند باشد – و روشی که کمتر مستعد سوگیری است.
- هنگامی که برنامه راه اندازی و اجرا می شود، متا یادداشت های انجمن را نمی نویسد یا تصمیم نمی گیرد که کدام یک نمایش داده شوند. آنها توسط کاربران مشارکت کننده نوشته و رتبه بندی می شوند.
- همانطور که در مورد X انجام می دهند، یادداشت های انجمن نیاز به توافق بین افراد با طیف وسیعی از دیدگاه ها برای کمک به جلوگیری از رتبه بندی های جانبدارانه دارند.
- ما قصد داریم در مورد نحوه اطلاع رسانی دیدگاه های مختلف به یادداشت های نمایش داده شده در برنامه هایمان شفاف باشیم و در حال کار بر روی راه درست برای اشتراک گذاری این اطلاعات هستیم.
- مردم می توانند امروز ثبت نام کنند (فیس بوک، اینستاگرام، موضوعات) برای این فرصت که در میان اولین مشارکت کنندگان این برنامه با در دسترس قرار گرفتن آن باشید.
ما قصد داریم اولین مرحله در چند ماه آینده Community Notes را در ایالات متحده وارد کنیم و در طول سال به بهبود آن ادامه خواهیم داد. با انجام این انتقال، از کنترل واقعیتسنجی خود خلاص میشویم، محتوای بررسیشده واقعیت را کاهش میدهیم و بهجای پوشاندن اخطارهای تمامصفحهای که باید قبل از دیدن پست روی آن کلیک کنید، از مقدار بسیار کمتری استفاده خواهیم کرد. برچسب مزاحم که نشان می دهد اطلاعات اضافی برای کسانی که می خواهند آن را ببینند وجود دارد.
اجازه دادن به گفتار بیشتر
با گذشت زمان، سیستمهای پیچیدهای را برای مدیریت محتوا در پلتفرمهای خود توسعه دادهایم که اجرای آنها برای ما پیچیدهتر میشود. در نتیجه، قوانین خود را بیش از حد اجرا میکنیم، بحثهای سیاسی مشروع را محدود میکنیم و محتوای بیاهمیت بیش از حد را سانسور میکنیم و افراد زیادی را در معرض اقدامات اجرایی ناامیدکننده قرار میدهیم.
برای مثال، در دسامبر 2024، ما روزانه میلیونها قطعه محتوا را حذف کردیم. در حالی که این کنشها کمتر از 1% محتوای تولید شده در روز را تشکیل میدهند، ما فکر میکنیم از هر 10 اقدام، یک تا دو مورد اشتباه بوده است (یعنی ممکن است محتوا واقعاً خطمشیهای ما را نقض نکرده باشد). این به اقداماتی که ما برای مقابله با حملات هرزنامه های دشمن در مقیاس بزرگ انجام می دهیم، حساب نمی کند. ما قصد داریم گزارش شفافیت خود را گسترش دهیم تا اعداد اشتباهات خود را به طور منظم به اشتراک بگذاریم تا مردم بتوانند پیشرفت ما را دنبال کنند. به عنوان بخشی از آن، جزئیات بیشتری در مورد اشتباهاتی که هنگام اجرای سیاستهای هرزنامه مرتکب میشویم نیز درج میکنیم.
ما می خواهیم خزش ماموریتی را که قوانین ما را بسیار محدود و مستعد اجرای بیش از حد کرده است، خنثی کنیم. ما در حال خلاص شدن از شر تعدادی محدودیت در موضوعاتی مانند مهاجرت، هویت جنسیتی و جنسیت هستیم که موضوع بحث و گفتمان سیاسی مکرر است. این درست نیست که بتوان در تلویزیون یا در صحنه کنگره مطالبی را بیان کرد، اما در تریبون های ما نه. اجرای کامل این تغییرات سیاست ممکن است چند هفته طول بکشد.
همچنین نحوه اجرای سیاستهای خود را تغییر میدهیم تا از اشتباهاتی که اکثریت قریب به اتفاق سانسور روی پلتفرمهای ما را تشکیل میدهند، بکاهیم. تا به حال، ما از سیستمهای خودکار برای اسکن همه نقضهای خطمشی استفاده میکردیم، اما این منجر به اشتباهات بسیار و محتوای بیش از حد سانسور شده است که نباید سانسور میشد. بنابراین، ما به تمرکز این سیستم ها بر روی برخورد با تخلفات غیرقانونی و شدید، مانند تروریسم، بهره کشی جنسی از کودکان، مواد مخدر، کلاهبرداری و کلاهبرداری ادامه خواهیم داد. برای نقض خطمشیهای کمتر شدید، قبل از هر اقدامی به فردی که مشکلی را گزارش میکند تکیه میکنیم. همچنین محتوای بیش از حدی را که سیستمهای ما پیشبینی میکنند ممکن است استانداردهای ما را نقض کند، کاهش میدهیم. ما در حال خلاص شدن از شر بسیاری از این تنزل ها هستیم و به اطمینان بیشتری نیاز داریم که محتوا برای بقیه نقض می شود. و ما سیستمهایمان را طوری تنظیم میکنیم که قبل از حذف یک محتوا، به درجه بسیار بالاتری از اطمینان نیاز دارند. به عنوان بخشی از این تغییرات، تیمهای اعتماد و ایمنی را که خطمشیهای محتوای ما را مینویسند و محتوا را بررسی میکنند به خارج از کالیفرنیا به تگزاس و سایر مکانهای ایالات متحده منتقل میکنیم.
معمولاً به مردم این فرصت داده می شود که از تصمیمات اجرایی ما درخواست تجدید نظر کنند و از ما بخواهند که نگاهی دیگر بیندازیم، اما این روند می تواند به طرز ناامیدکننده ای کند باشد و همیشه به نتیجه درستی نمی رسد. ما کارکنان اضافی را به این کار اضافه کردهایم و در موارد بیشتر، اکنون به چندین بازبین نیاز داریم تا به یک تصمیم برسند تا چیزی را حذف کنیم. ما در حال کار روی راههایی برای سادهتر کردن بازیابی حسابها و آزمایش فناوری تشخیص چهره هستیم، و استفاده از مدلهای زبان بزرگ هوش مصنوعی (LLM) را شروع کردهایم تا قبل از انجام اقدامات اجرایی، نظر دومی درباره برخی محتوا ارائه دهیم.
رویکرد شخصی به محتوای سیاسی
از سال 2021، بر اساس بازخوردی که کاربران به ما دادهاند مبنی بر اینکه میخواهند کمتر از این محتوا ببینند، تغییراتی را برای کاهش میزان دیدن محتوای مدنی ایجاد کردهایم – پستهایی درباره انتخابات، سیاست یا مسائل اجتماعی. اما این یک رویکرد کاملاً صریح بود. ما قصد داریم دوباره این را به فیسبوک، اینستاگرام و موضوعات با رویکردی شخصیتر آغاز کنیم تا افرادی که میخواهند محتوای سیاسی بیشتری را در فیدهای خود ببینند، بتوانند.
ما به طور مداوم در حال آزمایش نحوه ارائه تجربیات شخصی هستیم و اخیراً آزمایشاتی را در مورد محتوای مدنی انجام داده ایم. در نتیجه، ما شروع خواهیم کرد که با محتوای مدنی افراد و صفحاتی که در فیسبوک دنبال میکنید، بیشتر شبیه هر محتوای دیگری در فید شما رفتار کنیم، و شروع به رتبهبندی و نشان دادن آن محتوا بر اساس سیگنالهای صریح خواهیم کرد (مثلاً لایک کردن بخشی از محتوا) و سیگنالهای ضمنی (مانند مشاهده پستها) که به ما کمک میکنند پیشبینی کنیم چه چیزی برای مردم معنادار است. همچنین بر اساس این سیگنالهای شخصیشده، محتوای سیاسی بیشتری را توصیه میکنیم و گزینههایی را که افراد برای کنترل میزان دیدن این محتوا دارند، گسترش میدهیم.
این تغییرات تلاشی برای بازگشت به تعهد به آزادی بیان است که مارک زاکربرگ در سخنرانی خود در جورج تاون بیان کرد. این بدان معناست که مراقب تأثیر سیاستها و سیستمهای ما بر توانایی مردم برای شنیدن صدایشان باشیم و وقتی میدانیم داریم اشتباه میکنیم، رفتار خود را تغییر دهیم.