هشدار آکسفورد:

اعتماد به ChatGPT برای تشخیص پزشکی خطرناک است

میلیون‌ها نفر اکنون برای تشخیص بیماری خود به سراغ چت‌بات‌هایی مانند ChatGPT می‌روند.

تاریخ انتشار: ۰۸:۴۶ - پنجشنبه ۳۰ بهمن ۱۴۰۴
مدت زمان مطالعه: 2 دقیقه
اعتماد به ChatGPT برای تشخیص پزشکی خطرناک است

به گزارش اصفهان زیبا؛ میلیون‌ها نفر اکنون برای تشخیص بیماری خود به سراغ چت‌بات‌هایی مانند ChatGPT می‌روند. محققان دانشگاه آکسفورد هشداری جدی صادر کردند. آن‌ها می‌گویند اعتماد به هوش مصنوعی برای تصمیم‌گیری‌های پزشکی عواقب خطرناکی دارد.

بر اساس گزارش BBC، مدل‌های هوش مصنوعی در حوزه پزشکی پاسخ‌های ناسازگار می‌دهند. گاهی اوقات، این پاسخ‌ها کاملاً نادرست هستند. دکتر «ربکا پین»، پزشک ارشد این مطالعه، هشدار می‌دهد: پرسیدن علائم بیماری از چت‌بات‌ها ریسک بزرگی است.

آزمایش: هوش مصنوعی در سناریوهای واقعی

پژوهشگران این مطالعه روی ۱۳۰۰ نفر کار کردند. آن‌ها شرکت‌کنندگان را در سناریوهای مختلف قرار دادند. این سناریوها شامل سردرد شدید یا خستگی مداوم پس از زایمان بود.

نتایج نشان داد افرادی که از هوش مصنوعی استفاده کردند، تصمیمات بهتری نگرفتند. این افراد نسبت به کسانی که روش‌های سنتی جستجو در گوگل را به کار بردند، برتری نداشتند.

چالش اصلی: ابهام در تشخیص و ورودی کاربر

مشکل اصلی اینجاست: هوش مصنوعی ممکن است سه تشخیص متفاوت ارائه دهد. این امر کاربر را در انتخاب گزینه صحیح تنها می‌گذارد. دکتر «آدام مهدی» توضیح می‌دهد: مردم اطلاعات را به‌صورت تدریجی به چت‌بات می‌دهند. آن‌ها همه جزئیات را بیان نمی‌کنند. دقیقاً همین نقطه، کار را خراب می‌کند.

پژوهشگران یک شکست ارتباطی دوطرفه بین کاربر و هوش مصنوعی کشف کردند. کاربران نمی‌دانستند هوش مصنوعی برای مشاوره دقیق به چه جزئیاتی نیاز دارد. پاسخ‌های هوش مصنوعی به نحوه جمله‌بندی سؤال کاربر وابسته بود. محققان نتیجه گرفتند: تعامل با انسان‌ها حتی برای مدل‌های پیشرفته هم یک چالش بزرگ است.

سوگیری داده‌ها و تفاوت با تست‌های استاندارد

تست‌های استاندارد پزشکی اغلب نمره قبولی به هوش مصنوعی می‌دهند. اما در دنیای واقعی و تعامل با افراد غیرمتخصص، این سیستم‌ها دچار لغزش می‌شوند. تکیه بر آن‌ها برای تصمیم‌گیری درباره مراجعه به اورژانس، ریسک بالایی دارد.

دکتر «امبر چایلدز» از دانشگاه ییل نکته مهمی را گوشزد می‌کند. او می‌گوید: چت‌بات‌ها با داده‌های پزشکی کنونی آموزش دیده‌اند. بنابراین، آن‌ها همان سوگیری‌ها و تعصباتی را تکرار می‌کنند که دهه‌ها در پزشکی وجود داشته است. چایلدز افزود: «یک چت‌بات فقط به اندازه پزشکان باتجربه‌ای خوب است که داده‌هایش را تولید کرده‌اند؛ و آن داده‌ها کامل نیستند.»

برخی کارشناسان معتقدند نسخه‌های تخصصی‌تر هوش مصنوعی ممکن است نتایج بهتری بدهند. هدف نهایی باید بهبود تکنولوژی باشد. این بهبود باید با قوانین نظارتی شفاف و گاردریل‌های پزشکی همراه شود. این کار امنیت بیماران را تضمین می‌کند.