چالش‌های تنظیم‌گری محتوا در پلتفرم‌های کاربرمحور؛ تجربه فیس‌بوک

سلسله یادداشت‌هایی درباره «فرهنگ و سیاستگذاری فضای مجازی» -۳؛ حسین حسنی (هیات علمی پژوهشکده ارتباطات)
چالش‌های تنظیم‌گری  محتوا در پلتفرم‌های کاربرمحور؛ تجربه فیس‌بوک

در یادداشت پیشین که درباره محکومیت مدیر یک پلتفرم ایرانی هم‌رسانی ویدئو صرفاً به دلیل انتشار ویدئویی که حاوی پرسش-صرفاً پرسش! و نه تصویرگری مرتبط با موضوع- از کودکان درباره نحوه به دنیا آمدن انسان بود، از ضرورت ملاحظه دگرگونی‌های اساسی در نحوه تولید و انتشار محتوای پلتفرمی‌شده، سخن گفته شد. برای کسب درکی اجمالی از دشواری تنظیم‌گری و نظارت بر پلتفرم‌های آنلاین نگاه می‌اندازیم به تجربه فیس‌بوک.

گفته می‌شود که اکنون فیس‌بوک در حدود 2.7 میلیارد نفر کاربر ماهیانه دارد. هر روز میلیاردها پست و به‌روزرسانی در فیس‌بوک ظاهر می‌شود و روزانه بیش از سه میلیون مطلب یا محتوا توسط کاربران و سیستم‌های نظارتی هوش مصنوعی، که به طور بالقوه امکان حذف شدن دارند، گزارش می‌شوند.  

امروزه بیش از 15 هزار نفر که اکثریت قریب به اتفاق آنها افرادی هستند که توسط شرکتهای طرف سوم به کار گرفته شده‌اند، بر فیس‌بوک و نیز شرکت فرعی آن یعنی اینستاگرام نظارت دارند. شاید به نظر برسد که این تعداد نیروی کار قابل ملاحظه است اما با در نظر گرفتن حجم وسیعی که روزانه در این رسانه‌های اجتماعی به اشتراک گذاشته می‌شود، تعداد آنها بسیار اندک هستند.

بازبینی محتوا یعنی کاری که توسط این دسته از افراد انجام می‌شود، فرایندی است که طبق آن تعیین می‌شود چه چیزی در فضای آنلاین باقی بماند و چه چیزی حذف شود. بدون این عمل رسانه‌های اجتماعی در هرزنامه‌ها، ارعاب اشخاص، نوشته‌های ملی‌گرایان افراطی، تهدید به سربریدن توسط تروریستها و سوءاستفاده جنسی از کودکان غرق می‌شوند.

بازبینان محتوا در فیس‌بوک هر روز به بررسی پست‌ها، تصاویر و ویدئوهایی می‌پردازند که توسط هوش مصنوعی شناسایی می‌شود یا کاربران دیگر آنها گزارش می‌کنند. تعداد این نوع محتواهای مشمول وارسی روزانه به سه میلیون مورد می‌رسد و بنا بر گزارش مدیر فیس‌بوک روزانه در حدود یک دهم این موارد امکان رسیدگی پیدا نمی‌کنند؛ یعنی هر روز 300 هزار محتوا در فیس‌بوک هم‌رسانی می‌شود که برخلاف «استانداردهای اجتماعی» فیس‌بوک هستند.


فیس‌بوک اعلام کرده است که هدف این استانداردها یا معیارها که بر اساس بازخوردهای دریافت شده از طرف اجتماع و کارشناسان حوزه‌های فناوری، ایمنی عمومی و حقوق بشر تدوین شده است، ایجاد مکانی برای ابراز خود و دادن صدا به مردم است تا آزادانه بتوانند دیدگاه‌ها، تجربیات، ایده‌ها و اطلاعات مختلف خود را به اشتراک بگذارند. این استانداردها که در دسته‌های گوناگونی طبقه‌بندی شده‌اند شامل مواردی همانند خشونت، افراد و سازمانهای خطرناک و تروریستی، کلاهبرداری و فریبکاری، خودکشی و خودآزاری، نمایش سوءاستفاده جنسی از کودکان و بزرگسالان، نقض مالکیت معنوی، حریم خصوصی، ارعاب و تهدید و...می‌شوند.

تعداد 15 هزار نفر از بازبینانی که تلاش می‌کنند تا تطابق یا عدم تطابق محتواهای گزارش شده با استانداردهای اجتماع فیس‌بوک را بررسی کنند، هر کدام روزانه باید 200 پست و در هر ساعت حدود 25 پست را بررسی کنند. بنابراین آنها فقط 150 ثانیه برای تصمیم‌گیری در مورد مجاز بودن/نبودن یک آیتم زمان دارند.

نکته جالب اینکه بسیاری از همین افراد به دلیل تماشا و مواجهه مستمر با تصاویر حاوی قتل، تجاوز، خودکشی و...به انواع اختلالات روانی، همچون افسردگی و اعتیاد دچار می‌شوند. فیس‌بوک اخیراً مجبور شد به برخی از این افراد که به اختلال استرس پس از سانحه (پی.تی.اس.دی) متبلا شده بودند، 52 میلیون دلار غرامت بپردازد.

زاکربرگ اخیراً و در تقابل با رویکرد پیشین خود خواستار تنظیم‌گری بیشتر برای شرکت‌های بزرگ فناوری شده است و به همین علت است که «هیئت نظارت» را برای رسیدگی به چالش‌های نظارت بر محتوا با بر تکیه بر دستورالعمل «استانداردهای اجتماع» در این پلتفرم تشکیل داده است.

نظارت بر محتواهای کاربرساخته در پلتفرم‌هایی که بر اساس این نوع محتواها فعالیت می‌کنند با توجه به مقیاس بزرگ وسیع هم‌رسانی‌ها و به‌روزرسانی‌ها بسیار پیچیده و دشوار است. بنابراین، در مواجهه حقوقی با تخطی‌های پلتفرم‌های ایرانی باید به این موضوع اساسی توجه کرد. ضمن اینکه پلتفرم‌های ایرانی نیز باید دستورالعمل‌ها، شیوه‌ها و گروه‌هایی را برای خودتنظیم‌گری محتوای خود توسعه دهند. با توجه به قصور و ناتوانی دولت‌ها برای هم‌سازشدن با تحولات شتابان و فزاینده در عرصه حکمرانی پلتفرم‌ها، مدیران پلتفرم‌ها باید بیش از پیش برای تطابق محتواهای هم‌رسانی‌شده در پلتفرم‌هایشان با ارزش‌های اجتماعی حاکم احساس مسئولیت کنند.



برچسب ها
از طریق فرم زیر نظرات خود را با ما در میان بگذارید