چالشهای تنظیمگری محتوا در پلتفرمهای کاربرمحور؛ تجربه فیسبوک
سلسله یادداشتهایی درباره «فرهنگ و سیاستگذاری فضای مجازی» -۳؛ حسین حسنی (هیات علمی پژوهشکده ارتباطات)در یادداشت پیشین که درباره محکومیت مدیر یک پلتفرم ایرانی همرسانی ویدئو صرفاً به دلیل انتشار ویدئویی که حاوی پرسش-صرفاً پرسش! و نه تصویرگری مرتبط با موضوع- از کودکان درباره نحوه به دنیا آمدن انسان بود، از ضرورت ملاحظه دگرگونیهای اساسی در نحوه تولید و انتشار محتوای پلتفرمیشده، سخن گفته شد. برای کسب درکی اجمالی از دشواری تنظیمگری و نظارت بر پلتفرمهای آنلاین نگاه میاندازیم به تجربه فیسبوک.
گفته میشود که اکنون فیسبوک در حدود 2.7 میلیارد نفر کاربر ماهیانه دارد. هر روز میلیاردها پست و بهروزرسانی در فیسبوک ظاهر میشود و روزانه بیش از سه میلیون مطلب یا محتوا توسط کاربران و سیستمهای نظارتی هوش مصنوعی، که به طور بالقوه امکان حذف شدن دارند، گزارش میشوند.
امروزه بیش از 15 هزار نفر که اکثریت قریب به اتفاق آنها افرادی هستند که توسط شرکتهای طرف سوم به کار گرفته شدهاند، بر فیسبوک و نیز شرکت فرعی آن یعنی اینستاگرام نظارت دارند. شاید به نظر برسد که این تعداد نیروی کار قابل ملاحظه است اما با در نظر گرفتن حجم وسیعی که روزانه در این رسانههای اجتماعی به اشتراک گذاشته میشود، تعداد آنها بسیار اندک هستند.
بازبینی محتوا یعنی کاری که توسط این دسته از افراد انجام میشود، فرایندی است که طبق آن تعیین میشود چه چیزی در فضای آنلاین باقی بماند و چه چیزی حذف شود. بدون این عمل رسانههای اجتماعی در هرزنامهها، ارعاب اشخاص، نوشتههای ملیگرایان افراطی، تهدید به سربریدن توسط تروریستها و سوءاستفاده جنسی از کودکان غرق میشوند.
بازبینان محتوا در فیسبوک هر روز به بررسی پستها، تصاویر و ویدئوهایی میپردازند که توسط هوش مصنوعی شناسایی میشود یا کاربران دیگر آنها گزارش میکنند. تعداد این نوع محتواهای مشمول وارسی روزانه به سه میلیون مورد میرسد و بنا بر گزارش مدیر فیسبوک روزانه در حدود یک دهم این موارد امکان رسیدگی پیدا نمیکنند؛ یعنی هر روز 300 هزار محتوا در فیسبوک همرسانی میشود که برخلاف «استانداردهای اجتماعی» فیسبوک هستند.
فیسبوک اعلام کرده است که هدف این استانداردها یا معیارها که بر اساس بازخوردهای دریافت شده از طرف اجتماع و کارشناسان حوزههای فناوری، ایمنی عمومی و حقوق بشر تدوین شده است، ایجاد مکانی برای ابراز خود و دادن صدا به مردم است تا آزادانه بتوانند دیدگاهها، تجربیات، ایدهها و اطلاعات مختلف خود را به اشتراک بگذارند. این استانداردها که در دستههای گوناگونی طبقهبندی شدهاند شامل مواردی همانند خشونت، افراد و سازمانهای خطرناک و تروریستی، کلاهبرداری و فریبکاری، خودکشی و خودآزاری، نمایش سوءاستفاده جنسی از کودکان و بزرگسالان، نقض مالکیت معنوی، حریم خصوصی، ارعاب و تهدید و...میشوند.
تعداد 15 هزار نفر از بازبینانی که تلاش میکنند تا تطابق یا عدم تطابق محتواهای گزارش شده با استانداردهای اجتماع فیسبوک را بررسی کنند، هر کدام روزانه باید 200 پست و در هر ساعت حدود 25 پست را بررسی کنند. بنابراین آنها فقط 150 ثانیه برای تصمیمگیری در مورد مجاز بودن/نبودن یک آیتم زمان دارند.
نکته جالب اینکه بسیاری از همین افراد به دلیل تماشا و مواجهه مستمر با تصاویر حاوی قتل، تجاوز، خودکشی و...به انواع اختلالات روانی، همچون افسردگی و اعتیاد دچار میشوند. فیسبوک اخیراً مجبور شد به برخی از این افراد که به اختلال استرس پس از سانحه (پی.تی.اس.دی) متبلا شده بودند، 52 میلیون دلار غرامت بپردازد.
زاکربرگ اخیراً و در تقابل با رویکرد پیشین خود خواستار تنظیمگری بیشتر برای شرکتهای بزرگ فناوری شده است و به همین علت است که «هیئت نظارت» را برای رسیدگی به چالشهای نظارت بر محتوا با بر تکیه بر دستورالعمل «استانداردهای اجتماع» در این پلتفرم تشکیل داده است.
نظارت بر محتواهای کاربرساخته در پلتفرمهایی که بر اساس این نوع محتواها فعالیت میکنند با توجه به مقیاس بزرگ وسیع همرسانیها و بهروزرسانیها بسیار پیچیده و دشوار است. بنابراین، در مواجهه حقوقی با تخطیهای پلتفرمهای ایرانی باید به این موضوع اساسی توجه کرد. ضمن اینکه پلتفرمهای ایرانی نیز باید دستورالعملها، شیوهها و گروههایی را برای خودتنظیمگری محتوای خود توسعه دهند. با توجه به قصور و ناتوانی دولتها برای همسازشدن با تحولات شتابان و فزاینده در عرصه حکمرانی پلتفرمها، مدیران پلتفرمها باید بیش از پیش برای تطابق محتواهای همرسانیشده در پلتفرمهایشان با ارزشهای اجتماعی حاکم احساس مسئولیت کنند.