پاکتچی، سفیر جمهوری اسلامی ایران در سازمان علمی فرهنگی یونسکو:

نمی‌توان در مقابل هوش مصنوعی مرز کشید

باید سیاست‌گذاری مناسبی درباره سندهای جهانی داشته باشیم
نمی‌توان در مقابل هوش مصنوعی مرز کشید

نخستین نشست از سلسله نشست‌های «فرهنگ عمومی، اخلاق و هوش مصنوعی» دوشنبه ۱۶ آبان ۱۴۰۱ با همکاری شورای فرهنگ عمومی و با حضور احمد پاکتچی (سفیر جمهوری اسلامی ایران در سازمان علمی فرهنگی یونسکو)، محمد حسینی‌مقدم (عضو هیات‌علمی گروه مطالعات آینده‌نگر موسسه مطالعات فرهنگی و اجتماعی)، سیدعلی حسینی (دکتری هوش مصنوعی از دانشگاه لندن) و با دبیری محمد نصراوی (دانشجوی دکتری سیاستگذاری فرهنگی) در پژوهشگاه فرهنگ، هنر و ارتباطات، برگزار شد.

در بخش اول این برنامه احمد پاکتچی درباره سند اخلاق هوش مصنوعی در یونسکو به ایراد سخن پرداخت و در باب چیستی هوش مصنوعی گفت: هوش مصنوعی به‌عنوان یک فناوری نوین، پدیده‌ای است به‌شدت در حال توسعه که بسیاری از کشورها، سازمان‌های بین‌المللی و خیلی از متفکران را به این سمت سوق داده که قبل از اینکه برای بشریت اتفاق یا فاجعه‌ای رخ دهد، تدبیری در این باره بکنند تا هوش مصنوعی مسیر لجام‌گسیخته‌ای را طی نکند و به بشر صدمه‌ای نزند. شاید به‌طور خاص از سال ۲۰۱۹ تاکنون، موضوع داشتن ابزارهای کنترلی بر روی هوش مصنوعی مورد توجه دولت‌ها و سازمان‌های بین‌المللی قرار گرفته است.


او با مروری بر سندهای مختلف تصویب‌شده از سال ۲۰۱۹ تا ۲۰۲۲، از یک دومینوی خیلی تند و سریع یاد کرد و افزود: در این سه سال اسنادی در کشورهای مختلف تصویب شده که شبیه یک دومینوی تند و سریع است. در ژانویه ۲۰۱۹، ایالات متحده آمریکا، سندی تحت عنوان «راهنمای تنظیمات کاربست‌های هوش مصنوعی» تصویب کرد که بیشتر آیین‌نامه‌ای بود. چند ماه بعد، اتحادیه اروپا سند دیگری را تحت عنوان «توصیه‌های سرمایه‌گذاری برای هوش مصنوعی قابل اعتماد» تصویب کرد تا توصیه‌هایی برای حرکت به سمت هوش مصنوعی قابل اعتماد از حیث سرمایه‌گذاری ارائه دهد. در ۸ آوریل همان سال، اتحادیه اروپا سند دیگری تحت عنوان «هوش مصنوعی قابل اعتماد» تصویب کرد که این بار سعی می‌کند خطوط راهنمای اخلاقی را برای قابل اعتمادسازی هوش مصنوعی ارائه کند. سرعت و شتاب این بازی دومینو، هرچه که ما به سمت ۲۰۲۱ حرکت می‌کنیم، بیشتر می‌شود. در سپتامبر ۲۰۲۱، شاهد تصویب یک سند ملی با عنوان «هنجارهای اخلاقی برای استفاده هوش مصنوعی» در جمهوری خلق چین هستیم که دقیقاً یک ماه پس از آن، در فدراسیون روسیه هم، اقدام مشابهی صورت می‌گیرد. در فاصله روزهای ۹ تا ۲۴ام نوامبر ۲۰۲۱ هم، توصیه‌نامه‌ای در چهل و یکمین کنفرانس عمومی سازمان بین‌المللی یونسکو با عنوان «توصیه‌نامه اخلاق هوش مصنوعی» تصویب می‌شود که بازتاب‌های مختلفی ازسوی کشورهای مختلف ازجمله ایران داشته است. جمهوری اسلامی ایران، تنها کشوری بود که درباره این توصیه‌نامه تحفظ داد و آن را به‌طور رسمی به دبیرخانه یونسکو اعلام کرد. فارغ از دغدغه‌هایی که ممکن است نهادهای مختلف کشور درمورد این سند داشته باشند، این اتفاق به عنوان یک واقعیت غیرقابل انکار در سطح جهانی در حال رخ دادن است که نمی‌توان در مقابل آن، مرزهای ملی کشید. ما در این خصوص نیازمندیم که هم سند ملی خودمان را در زمینه اخلاق هوش مصنوعی داشته باشیم و هم بتوانیم سیاست‌گذاری مناسبی درباره سندهای جهانی داشته باشیم.

سفیر جمهوری اسلامی ایران در سازمان علمی فرهنگی یونسکو به تعارض‌های ممکن و محتمل هوش مصنوعی در آینده نیز اشاره و تصریح کرد: توجه به مسأله اخلاق زمانی جدی می‌شود، که در تعارض با قوانین و سیاست‌ها قرار گیرد به گونه‌ای که امکان عمل کردن به هردوی آن‌ها نباشد. درخصوص توصیه‌نامه اخلاق هوش مصنوعی یونسکو هم، تعارضاتی با قوانین کشورها دیده می‌شود. ازجمله اینکه طبق قوانین کشورها، آن‌ها باید در اعمال حاکمیت خود مستقل و مختار باشند که این توصیه‌نامه محدودیت‌هایی را بر آن‌ها تحمیل می‌کند. به همین دلیل، برخی از کشورها زیر بار آن نمی‌روند. از طرف دیگر، اگر همه کشورها اطلاعاتشان را در اختیار هم بگذارند، ممکن است در نگاه اول این اقدام، دوستانه به نظر بیاید اما واقعیت این است که کشورهایی از این کار بیشترین سود و بهره را می‌برند که پلتفرم‌های جهانی را در اختیار دارند. موضوع تعارض قوانین با اخلاق، موضوعی است که باعث می‌شود به دنبال سازوکارهایی باشیم تا دسترسی عادلانه‌تر به دستاوردهای هوش مصنوعی را برای ما فراهم کند. از دیگر تعارض‌های ممکن، مسأله تعارض اخلاق با سودطلبی اقتصادی است که در این خصوص، کمپانی‌های بزرگ، سودهای کلان خود را بر اخلاق ترجیح خواهند داد. هم‌چنین، یکی دیگر از مسائلی که در حوزه هوش مصنوعی وجود دارد و می‌توان از آن به عنوان یکی از تعارض‌ها یاد کرد، مسأله نظامی‌گری یا سلاح‌شدگی هوش مصنوعی است. یکی از نگرانی‌هایی که امروز وجود دارد، بعد نظامی هوش مصنوعی و تبدیل آن به یک سلاح نظامی است که می‌تواند روابط امنیتی در سطح جهان را دگرگون کند. لذا یکی از پرسش‌های اساسی این است که دستورالعمل‌هایی که برای کاربرد هوش مصنوعی تنظیم می‌شود، برای کاربردهای غیرنظامی هستند یا همه کاربردها از جمله کاربرد نظامی هوش مصنوعی را هم شامل می‌شود؟ هنوز این مسائل در توصیه‌‌نامه هوش مصنوعی یونسکو شکافته نشده و به همین دلیل است که می‌گوییم، هنوز راه نرفته، بسیار داریم.

پاکتچی در پایان با اشاره به چالش‌های موجود تأکید کرد: اینکه چگونه می‌توان تناسبی بین اخلاق هوش مصنوعی با قوانین، مقررات و سیاست‌های کشورهای مختلف برقرار و چگونه می‌توان تعارض‌ها را برطرف کرد، بحث‌های جدی و حساس هستند که هنوز روی میز هستند. با توجه به حساسیت جمهوری اسلامی ایران در ارتباط با تک‌تک این موارد، انتظار می‌رود که کارشناسان و متخصصان ایرانی خیلی جدی‌تر، پیشروتر و دقیق‌تر وارد این بحث و گفتگو شوند.

در ادامه محمد حسینی مقدم در مقدمه سخنان خود درباره اهمیت هوش مصنوعی گفت: امروز هوش مصنوعی مورد تأکید صاحب‌نظران دولتی و خصوصی و نهادهای مدنی قرار گرفته است. این تأکید یا از منظر هراس از گسترش این تکنولوژی است و یا از منظر شیفتگی به آن. صرف نظر از این نگاه‌ها، یک اجماع نظر جهانی وجود دارد و هوش مصنوعی در دستور کار کنوانسیون‌های بین‌المللی قرار گرفته است که این نشان می‌دهد، هوش مصنوعی یک مسأله جاافتاده جهانی است که ما هم باید آن را در دستور کار خود قراردهیم. در حال حاضر، ۷۷٪ مردم جهان، از قابلیت‌های هوش مصنوعی استفاده می‌کنند که فقط ۳۳٪ از این موضوع آگاهی دارند. هم‌چنین استفاده از آن در محیط کار، یک امر رایج است که از ۱۰٪ در سال ۲۰۱۵، به ۳۷٪ در سال ۲۰۲۱، رسیده است. یکی از نقاط عطف ملموس شدن آن برای مردم جهان، شرایط کوئید ۱۹ بود که مردم به وضوح، نحوه استفاده و مبادله اطلاعات از طریق آن را دیدند. از هوش مصنوعی در دنیا استفاده‌های متنوعی می‌شود ازجمله استفاده در خودروهای خودران، که تا سال ۲۰۵۰، ۹۰٪ تصادفات جاده‌ای را کاهش خواهد داد.


او با اشاره به سطح بهره‌مندی جامعه علمی ایران از هوش مصنوعی افزود: نحوه رویارویی جامعه علمی ایران با هوش مصنوعی هم اهمیت دارد. در برآورد جهانی سطح بهره‌مندی از ربات در برنامه‌های آموزشی، رتبه ایران ۳٪ بوده است. همچنین، جایگاه جهانی ایران در تولید مقالات بین‌المللی در هوش مصنوعی از ۱۹۸۰ تا ۲۰۲۰، جایگاه برجسته‌ای است که این نشان می‌دهد جامعه علمی ایران توانسته به رغم همه مشکلات و چالش‌ها، در تراز کشورهای صاحب این علم در تولید این علم و دانش، مشارکت داشته باشد. درخصوص کسب مهارت‌های دیجیتال هم، جایگاه ایران در میانگین جهانی، به بالا است که این هم نشان می‌دهد شهروندان ما، مهارت‌های دیجیتال را فراگرفته‌اند که این خود می‌تواند دستمایه خوبی برای تحول و دستیابی به بلوغ در حوزه هوش مصنوعی باشد.

عضو هیات‌علمی موسسه مطالعات فرهنگی و اجتماعی به تغییراتی که هوش مصنوعی در حوزه علم و علم‌ورزی ایجاد خواهد کرد نیز اشاره و خاطرنشان کرد: هوش مصنوعی به انحاء مختلف وضعیت علم‌ورزی را متحول خواهد کرد. تحول در برنامه‌های پژوهشی، سرمایه‌های انسانی، به‌کارگیری سرمایه‌های فیزیکی، همکاری‌های علمی بین‌المللی، زمان پژوهش، منابع مالی آن، چگونگی ارزیابی پژوهش و چگونگی دستیابی به اهداف پژوهش، از جمله این تحولات هستند. ستون‌های تحول هوش مصنوعی را می‌توان در قانون‌های مور (افزایش ظرفیت پردازنده)، قانون کرایدرز (افزایش امکان ذخیره بیگ دیتاها) و قانون کوپر (افزایش سرعت پردازش)، توسعه‌ الگوریتم‌های هوش مصنوعی، توسعه نرم‌افزارهای منبع باز، توسعه سخت‌افزارهای محاسباتی و دسترسی به داده‌ها برشمرد. برخی از این تحولات در حوزه پارادایم‌های کشف علمی صورت خواهد گرفت که در آن از پارادایم مبتنی بر theory driven research به سمت یک پارادایم مبتنی بر data driven research خواهیم رفت. یعنی از مسیر تفسیر و تبین به سمت داده‌ها و نمونه‌ها، گذار خواهیم کرد.

حسینی مقدم در پایان به ذکر چالش‌های پیش‌روی توسعه علم در سایه هوش مصنوعی پرداخت که فقدان رویکردهای نظری برای یکپارچه‌سازی داده‌ها و مدل‌های هوش مصنوعی در تحلیل کلان‌داده‌ها، شکاف میان دانشمندان و مهندسان در بهره‌مندی از هوش مصنوعی (الگوریتم، سخت‌افزار، نیروی انسانی و ...)، شکاف در دسترسی به داده‌ها، تقویت فرهنگ سلبریتی در علم، حکمرانی بنگاه‌ها در پیشرفت علم و افزایش مشارکت علمی شرکت‌های بزرگ در توسعه یادگیری عمیق در برابر دانشگاه‌های نخبه، ازجمله آن‌ها بود.


سید علی حسینی سخنران سوم این نشست با اشاره به مهم‌ترین مسائل موجود در حوزه اخلاق هوش مصنوعی اظهار داشت: یکی از مهم‌ترین مسائلی که در اخلاق هوش مصنوعی مطرح است، حریم خصوصی افراد و دسترسی شرکت‌های مختلف به داده‌های افراد است که حریم خصوصی آن‌ها را نقض می‌کند. شفافیت یا عدم شفافیت الگوریتم‌ها و تصمیماتی که این الگوریتم‌ها می‌گیرند، رعایت انصاف، مواسات و برابری در آموزش الگوریتم‌ها، کاربرد هوش مصنوعی در حوزه‌های نظامی به‌ویژه استفاده از ابزار نظامی هوشمند مستقل و خودکار و نهایتاً مسأله مسئولیت‌پذیری، از دیگر موارد مهمی هستند که در حوزه اخلاق هوش مصنوعی همواره مطرح هستند. یکی از بحث‌های اولیه‌ای که در توسعه دادن این ماشین‌ها مطرح شد، بحث مسئولیت‌پذیری بود که چطور باید باشد و چه کسی باید پاسخگو باشد. مثلاً مسئولیت خسارت مالی افرادی که شغلشان را به ربات‌ها می‌بازند، با چه کسی است؟ و یا اینکه مسئولیت در هنگام تصادف یک ماشین خودران، با کیست؟ اینها ازجمله سوالات مهمی است که در زمینه اخلاق هوش مصنوعی مطرح هستند.

او با اشاره به نقطه عطف توجه به مبحث اخلاق در هوش مصنوعی در اروپا اضافه کرد: یکی از نقاط عطف توجهی که در اروپا در قسمت‌های مختلف جامعه به مبحث اخلاق و اخلاق‌مداری در هوش مصنوعی شد، اتفاق بین فیسبوک و شرکت انگلیسی کمبریج آنالتیکا بود که در مارس ۲۰۱۴ رخ داد که طی آن، داده‌های کاربران فیسبوک و حساب رأی‌دهندگان آمریکایی به عوامل روسی فروخته شد و مورد تبلیغات هدفمند قرار گرفت. این اتفاق و آبروریزی بزرگ، سرو صدای زیادی ایجاد و بحث اخلاق در هوش مصنوعی را پررنگ کرد.

حسینی با بیان اینکه هرکشور، شرکت و منطقه‌ای تعریف، تفسیر و روش خاص خود را دارد، حساسیت ایران در مقابل هوش مصنوعی را یک رویکرد طبیعی دانست و گفت: شرکت‌ها، مناطق و کشورها، تعاریف، تفاسیر و روش‌های خاص خود را در زمینه هوش مصنوعی دارند. لذا اگر کشوری مثل ایران هم می‌خواهد اصول و روش خود را اجرا کند، کاملاً طبیعی است و این فرصت برای او باز است. مثلاً اروپا، بیشتر بر روی حفظ حریم خصوصی افراد تأکید دارد اما آمریکا، بیشتر به مسائلی مثل تبعیض نژادی و جنسیتی توجه می‌کند. اگر ما هم می‌خواهیم روی هوش مصنوعی کار کنیم، باید ببینیم چه مسائلی برای ما مهم است و هوش مصنوعی می‌تواند چه خدماتی به ما ارائه دهد.


گزارش از: فریبا رضایی





برچسب ها
از طریق فرم زیر نظرات خود را با ما در میان بگذارید