به گزارش اصفهان زیبا؛ در روزگاری که هوش مصنوعی نهتنها ابزار پژوهش، بلکه بخشی از زیستعلمی جهان شده است، هر سندی که قصد «چارچوبگذاری» در این حوزه را دارد، عملاً در حال ترسیم آینده علم، دانشگاه و اعتبار پژوهشی کشور است. «راهنمای پژوهش با هوش مصنوعی» از این منظر، صرفاً یک آییننامه اداری یا دستورالعمل فنی نیست؛ این سند، نقطه آغاز قانونگذاری در حوزهای است که بهسرعت در حال بازتعریف مرزهای دانش، اخلاق، حقوق و حتی سیاست عمومی است.
با چنین اهمیتی، انتظار میرود این سند بر پایه تخصص عمیق، نگاه میانرشتهای، شناخت استانداردهای جهانی و درک پیامدهای اجتماعی و حقوقی فناوری تدوین شده باشد. اما بررسی دقیق متن آییننامه و فرایند شکلگیری آن، نگرانیهای جدی را درباره مسیر انتخابشده برای آینده پژوهش کشور آشکار میکند؛ نگرانیهایی که اگر امروز به آنها توجه نشود، فردا به بحران اعتماد علمی و محدودیتهای ساختاری در دانشگاهها خواهد انجامید.
اعتبار سند سیاستی در گرو تدوینکنندگان آن است
اعتبار هر سند سیاستی، پیش از آنکه به متن آن وابسته باشد، به کسانی گره خورده است که آن را نوشتهاند. در حوزهای مانند هوش مصنوعی، این قاعده اهمیتی دوچندان دارد؛ چراکه مقرراتگذاری بدون شناخت فنی، حقوقی و اخلاقی، بیش از آنکه راهگشا باشد، گمراهکننده است. نگاهی به اسامی و تخصصهای تدوینکنندگان آییننامه نشان میدهد که ترکیب تیم، عمدتاً شامل مدیران دولتی و اعضای هیئت علمی رشتههایی است که ارتباط مستقیمی با زیربنای فنی و حقوقی هوش مصنوعی ندارند؛ از شیمی و زیستشناسی دارویی گرفته تا مهندسی برق، صنایع، منابع طبیعی و تربیت بدنی. در مقابل، جای خالی متخصصان واقعی یادگیری ماشین، علوم داده، مدلهای زبانی بزرگ، ریسک الگوریتمی، امنیت مدلها، حقوق فناوری، فلسفه علم و حتی نمایندگان جامعه مدنی، بهطرزی معنادار محسوس است.
این مسئله صرفاً یک نقص شکلی نیست؛ بلکه خطری بنیادین برای کیفیت سیاستگذاری است. حتی اگر افراد حاضر در تیم تدوین، در حوزههای تخصصی خود اساتید برجستهای باشند، این واقعیت مجوزی برای ورود به حوزهای نیست که نیازمند دانش عمیق و بهروز در سطح جهانی است. قاعدهای بدیهی در علم وجود دارد: هر کس در حوزه تخصص خود سخن میگوید؛ چه رسد به آنکه بخواهد برای دیگران آییننامه و محدودیت وضع کند. اینکه وزارت علوم بر چه مبنایی چنین ترکیبی را برای تدوین یک سند راهبردی انتخاب کرده، پرسشی است که بیپاسخ ماندن آن، اعتماد جامعه علمی را تضعیف میکند.
تعاریف مفاهیم کلیدی هوش مصنوعی معیار اجرایی روشنی ندارند
تعریفهای دقیق، ستون فقرات هر چارچوب مقرراتیاند. بدون مرزبندی روشن مفاهیم، هیچ سندی قابلیت اجرا و تفسیر یکسان نخواهد داشت. با این حال، در آییننامه پژوهش با هوش مصنوعی، مفاهیم کلیدی همچون «هوش مصنوعی»، «یادگیری عمیق»، «پردازش زبان طبیعی» و «هوش مصنوعی عمومی» بدون تفکیک فنی و معیارهای اجرایی روشن ارائه شدهاند. عدم تمایز میان هوش مصنوعی مولد، مدلهای زبانی بزرگ و سیستمهای عمومی هوش مصنوعی، فضای گستردهای برای تفسیرهای سلیقهای ایجاد میکند.
در چنین شرایطی، پژوهشگر نمیداند استفاده از یک ابزار متداول، مصداق تخلف است یا نوآوری؛ داور نمیداند باید بر چه اساسی قضاوت کند؛ و مدیر دانشگاه، ناچار به تصمیمگیریهای موردی و غیرهمسان میشود. این ابهام، پیش از آنکه به نظم بینجامد، به نااطمینانی و خودسانسوری علمی دامن میزند.
سند پژوهش با هوش مصنوعی فاقد رویکرد مبتنی بر ریسک است
در سطح جهانی، یکی از اصول بنیادین مقرراتگذاری هوش مصنوعی، «طبقهبندی بر اساس ریسک» است. اتحادیه اروپا، بسیاری از کشورها و حتی اسناد سازمانهای بینالمللی، ابزارهای AI را بر مبنای میزان خطرشان برای حقوق بشر، امنیت، حریم خصوصی و سلامت علمی دستهبندی میکنند.
این رویکرد، امکان نظارت هوشمندانه و متناسب را فراهم میسازد. در سند مورد بحث، هیچ نشانهای از چنین طبقهبندیای وجود ندارد. نتیجه این غفلت، دوگانهای خطرناک است: ابزارهای کمخطر با محدودیتهای غیرضروری مواجه میشوند و در مقابل، ابزارهای پرخطر ممکن است بدون نظارت کافی به کار گرفته شوند. این وضعیت، نهتنها سرعت و کیفیت پژوهش را کاهش میدهد، بلکه اعتماد عمومی به نتایج علمی مبتنی بر هوش مصنوعی را نیز خدشهدار میکند.
از سوی دیگر باید این موضوع را مدنظر قرار داد که هوش مصنوعی بدون داده معنا ندارد و بسیاری از دادههای پژوهشی، ماهیتی حساس دارند؛ از اطلاعات پزشکی و زیستی گرفته تا دادههای اجتماعی و رفتاری. با این حال، آییننامه منتشرشده فاقد هرگونه سازوکار مستقل و تخصصی برای ارزیابی امنیت ابزارهاست. نه نظام کنترل دسترسی مشخص شده، نه فرآیند ارزیابی امنیت سایبری تعریف شده و نه دستورالعمل روشنی برای ذخیرهسازی دادههای حساس وجود دارد. مسئله مسئولیتپذیری نیز بههمین اندازه مبهم است.
در صورت خطای مدل، افشای داده یا تصمیمگیری نادرست مبتنی بر AI، مشخص نیست چه نهادی پاسخگو است و مسئولیت حقوقی بر عهده چه کسی قرار میگیرد. این خلأ، پژوهشگران را در معرض ریسکهای حقوقی جدی قرار میدهد و فضای دانشگاهی را به محیطی ناامن و پرهزینه تبدیل میکند.
آییننامه در برابر شتاب تحولات هوش مصنوعی ناتوان میشود
شفافیت، قابلیت توضیحپذیری، عدالت الگوریتمی، حفاظت از داده و نظارت مستقل، مفاهیمی تزئینی نیستند؛ اینها ستونهای اصلی اعتماد در نظام علمی جهانیاند. در سند فعلی، این اصول یا بهصورت گذرا و سطحی مطرح شدهاند یا اساساً نادیده گرفته شدهاند. پیامد این فاصله، صرفاً نظری نیست. عدم انطباق با چارچوبهای پذیرفتهشده بینالمللی میتواند در آینده مانعی جدی برای انتشار مقالات، مشارکت در پروژههای مشترک، جذب گرنتهای پژوهشی و اعتماد داوران خارجی به پژوهشهای داخلی باشد. از سوی دیگر، نبود برنامه مشخص برای بازنگری و بهروزرسانی سند، آن را در برابر تحولات پرشتاب هوش مصنوعی، بهسرعت ناکارآمد میکند.
بازنگری در راهنمای پژوهش با هوش مصنوعی؛ یک ضرورت است
در نهایت باید گفت اصلاح «راهنمای پژوهش با هوش مصنوعی» بیش از هر چیز، نیازمند تغییر رویکرد است. حضور متخصصان واقعی AI، حقوق فناوری، اخلاق و امنیت باید در اولویت قرار گیرد. تعاریف باید دقیق و عملیاتی شوند، طبقهبندی ریسک به ساختار سند افزوده شود و سازوکارهای روشن برای امنیت داده و مسئولیتپذیری تعریف گردد. ایجاد یک نهاد مستقل ارزیابی و نظارت، توجه به توسعه ابزارهای بومی و متنباز، و آموزش پژوهشگران درباره ریسک، سوگیری و اخلاق الگوریتمی، از الزامات این مسیر است.
در غیر این صورت، آییننامهای که قرار بود راهگشا باشد، به مانعی ساختاری برای پژوهش بدل خواهد شد؛ مانعی که هزینه آن را نه تدوینکنندگان، بلکه نسلهای آینده دانشگاه و علم کشور خواهند پرداخت.



