فقدان تخصص در حوزه هوش مصنوعی می‌تواند آینده پژوهش دانشگاهی کشور را با بحران اعتماد و محدودیت ساختاری مواجه کند

ریل‌گذاری پرابهام در سیاست‌های علمی کشور

در روزگاری که هوش مصنوعی نه‌تنها ابزار پژوهش، بلکه بخشی از زیست‌علمی جهان شده است، هر سندی که قصد «چارچوب‌گذاری» در این حوزه را دارد، عملاً در حال ترسیم آینده علم، دانشگاه و اعتبار پژوهشی کشور است.

تاریخ انتشار: ۱۰:۰۶ - یکشنبه ۲۳ آذر ۱۴۰۴
مدت زمان مطالعه: 4 دقیقه
ریل‌گذاری پرابهام در سیاست‌های علمی کشور

به گزارش اصفهان زیبا؛ در روزگاری که هوش مصنوعی نه‌تنها ابزار پژوهش، بلکه بخشی از زیست‌علمی جهان شده است، هر سندی که قصد «چارچوب‌گذاری» در این حوزه را دارد، عملاً در حال ترسیم آینده علم، دانشگاه و اعتبار پژوهشی کشور است. «راهنمای پژوهش با هوش مصنوعی» از این منظر، صرفاً یک آیین‌نامه اداری یا دستورالعمل فنی نیست؛ این سند، نقطه آغاز قانون‌گذاری در حوزه‌ای است که به‌سرعت در حال بازتعریف مرزهای دانش، اخلاق، حقوق و حتی سیاست عمومی است.

با چنین اهمیتی، انتظار می‌رود این سند بر پایه تخصص عمیق، نگاه میان‌رشته‌ای، شناخت استانداردهای جهانی و درک پیامدهای اجتماعی و حقوقی فناوری تدوین شده باشد. اما بررسی دقیق متن آیین‌نامه و فرایند شکل‌گیری آن، نگرانی‌های جدی را درباره مسیر انتخاب‌شده برای آینده پژوهش کشور آشکار می‌کند؛ نگرانی‌هایی که اگر امروز به آن‌ها توجه نشود، فردا به بحران اعتماد علمی و محدودیت‌های ساختاری در دانشگاه‌ها خواهد انجامید.

اعتبار سند سیاستی در گرو‌‌ تدوین‌کنندگان آن است

اعتبار هر سند سیاستی، پیش از آن‌که به متن آن وابسته باشد، به کسانی گره خورده است که آن را نوشته‌اند. در حوزه‌ای مانند هوش مصنوعی، این قاعده اهمیتی دوچندان دارد؛ چراکه مقررات‌گذاری بدون شناخت فنی، حقوقی و اخلاقی، بیش از آن‌که راهگشا باشد، گمراه‌کننده است. نگاهی به اسامی و تخصص‌های تدوین‌کنندگان آیین‌نامه نشان می‌دهد که ترکیب تیم، عمدتاً شامل مدیران دولتی و اعضای هیئت علمی رشته‌هایی است که ارتباط مستقیمی با زیربنای فنی و حقوقی هوش مصنوعی ندارند؛ از شیمی و زیست‌شناسی دارویی گرفته تا مهندسی برق، صنایع، منابع طبیعی و تربیت بدنی. در مقابل، جای خالی متخصصان واقعی یادگیری ماشین، علوم داده، مدل‌های زبانی بزرگ، ریسک الگوریتمی، امنیت مدل‌ها، حقوق فناوری، فلسفه علم و حتی نمایندگان جامعه مدنی، به‌طرزی معنادار محسوس است.

این مسئله صرفاً یک نقص شکلی نیست؛ بلکه خطری بنیادین برای کیفیت سیاست‌گذاری است. حتی اگر افراد حاضر در تیم تدوین، در حوزه‌های تخصصی خود اساتید برجسته‌ای باشند، این واقعیت مجوزی برای ورود به حوزه‌ای نیست که نیازمند دانش عمیق و به‌روز در سطح جهانی است. قاعده‌ای بدیهی در علم وجود دارد: هر کس در حوزه تخصص خود سخن می‌گوید؛ چه رسد به آن‌که بخواهد برای دیگران آیین‌نامه و محدودیت وضع کند. این‌که وزارت علوم بر چه مبنایی چنین ترکیبی را برای تدوین یک سند راهبردی انتخاب کرده، پرسشی است که بی‌پاسخ ماندن آن، اعتماد جامعه علمی را تضعیف می‌کند.

تعاریف مفاهیم کلیدی هوش مصنوعی معیار اجرایی روشنی ندارند

تعریف‌های دقیق، ستون فقرات هر چارچوب مقرراتی‌اند. بدون مرزبندی روشن مفاهیم، هیچ سندی قابلیت اجرا و تفسیر یکسان نخواهد داشت. با این حال، در آیین‌نامه پژوهش با هوش مصنوعی، مفاهیم کلیدی همچون «هوش مصنوعی»، «یادگیری عمیق»، «پردازش زبان طبیعی» و «هوش مصنوعی عمومی» بدون تفکیک فنی و معیارهای اجرایی روشن ارائه شده‌اند. عدم تمایز میان هوش مصنوعی مولد، مدل‌های زبانی بزرگ و سیستم‌های عمومی هوش مصنوعی، فضای گسترده‌ای برای تفسیرهای سلیقه‌ای ایجاد می‌کند.

در چنین شرایطی، پژوهشگر نمی‌داند استفاده از یک ابزار متداول، مصداق تخلف است یا نوآوری؛ داور نمی‌داند باید بر چه اساسی قضاوت کند؛ و مدیر دانشگاه، ناچار به تصمیم‌گیری‌های موردی و غیرهمسان می‌شود. این ابهام، پیش از آن‌که به نظم بینجامد، به نااطمینانی و خودسانسوری علمی دامن می‌زند.

سند پژوهش با هوش مصنوعی فاقد رویکرد مبتنی بر ریسک است

در سطح جهانی، یکی از اصول بنیادین مقررات‌گذاری هوش مصنوعی، «طبقه‌بندی بر اساس ریسک» است. اتحادیه اروپا، بسیاری از کشورها و حتی اسناد سازمان‌های بین‌المللی، ابزارهای AI را بر مبنای میزان خطرشان برای حقوق بشر، امنیت، حریم خصوصی و سلامت علمی دسته‌بندی می‌کنند.

این رویکرد، امکان نظارت هوشمندانه و متناسب را فراهم می‌سازد. در سند مورد بحث، هیچ نشانه‌ای از چنین طبقه‌بندی‌ای وجود ندارد. نتیجه این غفلت، دوگانه‌ای خطرناک است: ابزارهای کم‌خطر با محدودیت‌های غیرضروری مواجه می‌شوند و در مقابل، ابزارهای پرخطر ممکن است بدون نظارت کافی به کار گرفته شوند. این وضعیت، نه‌تنها سرعت و کیفیت پژوهش را کاهش می‌دهد، بلکه اعتماد عمومی به نتایج علمی مبتنی بر هوش مصنوعی را نیز خدشه‌دار می‌کند.

از سوی دیگر باید این موضوع را مدنظر قرار داد که هوش مصنوعی بدون داده معنا ندارد و بسیاری از داده‌های پژوهشی، ماهیتی حساس دارند؛ از اطلاعات پزشکی و زیستی گرفته تا داده‌های اجتماعی و رفتاری. با این حال، آیین‌نامه منتشرشده فاقد هرگونه سازوکار مستقل و تخصصی برای ارزیابی امنیت ابزارهاست. نه نظام کنترل دسترسی مشخص شده، نه فرآیند ارزیابی امنیت سایبری تعریف شده و نه دستورالعمل روشنی برای ذخیره‌سازی داده‌های حساس وجود دارد. مسئله مسئولیت‌پذیری نیز به‌همین اندازه مبهم است.

در صورت خطای مدل، افشای داده یا تصمیم‌گیری نادرست مبتنی بر AI، مشخص نیست چه نهادی پاسخ‌گو است و مسئولیت حقوقی بر عهده چه کسی قرار می‌گیرد. این خلأ، پژوهشگران را در معرض ریسک‌های حقوقی جدی قرار می‌دهد و فضای دانشگاهی را به محیطی ناامن و پرهزینه تبدیل می‌کند.

آیین‌نامه در برابر شتاب تحولات هوش مصنوعی ناتوان می‌شود

شفافیت، قابلیت توضیح‌پذیری، عدالت الگوریتمی، حفاظت از داده و نظارت مستقل، مفاهیمی تزئینی نیستند؛ این‌ها ستون‌های اصلی اعتماد در نظام علمی جهانی‌اند. در سند فعلی، این اصول یا به‌صورت گذرا و سطحی مطرح شده‌اند یا اساساً نادیده گرفته شده‌اند. پیامد این فاصله، صرفاً نظری نیست. عدم انطباق با چارچوب‌های پذیرفته‌شده بین‌المللی می‌تواند در آینده مانعی جدی برای انتشار مقالات، مشارکت در پروژه‌های مشترک، جذب گرنت‌های پژوهشی و اعتماد داوران خارجی به پژوهش‌های داخلی باشد. از سوی دیگر، نبود برنامه مشخص برای بازنگری و به‌روزرسانی سند، آن را در برابر تحولات پرشتاب هوش مصنوعی، به‌سرعت ناکارآمد می‌کند.

بازنگری در راهنمای پژوهش با هوش مصنوعی؛ یک ضرورت است

در نهایت باید گفت اصلاح «راهنمای پژوهش با هوش مصنوعی» بیش از هر چیز، نیازمند تغییر رویکرد است. حضور متخصصان واقعی AI، حقوق فناوری، اخلاق و امنیت باید در اولویت قرار گیرد. تعاریف باید دقیق و عملیاتی شوند، طبقه‌بندی ریسک به ساختار سند افزوده شود و سازوکارهای روشن برای امنیت داده و مسئولیت‌پذیری تعریف گردد. ایجاد یک نهاد مستقل ارزیابی و نظارت، توجه به توسعه ابزارهای بومی و متن‌باز، و آموزش پژوهشگران درباره ریسک، سوگیری و اخلاق الگوریتمی، از الزامات این مسیر است.

در غیر این صورت، آیین‌نامه‌ای که قرار بود راهگشا باشد، به مانعی ساختاری برای پژوهش بدل خواهد شد؛ مانعی که هزینه آن را نه تدوین‌کنندگان، بلکه نسل‌های آینده دانشگاه و علم کشور خواهند پرداخت.

  • مهدی طریقت
    مهدی طریقت

    مدیر مرکز توسعه و مطالعات راهبردی هوش مصنوعی