هشدار آکسفورد: مشاوره پزشکی با هوش مصنوعی میتواند خطرناک باشد
مطالعه جدید محققان دانشگاه آکسفورد نشان میدهد استفاده از چتباتهای هوش مصنوعی برای تشخیص و مشاوره پزشکی به دلیل پاسخهای ناسازگار و وابستگی به نحوه پرسش، خطرناک است.
خطرات استفاده از هوش مصنوعی در مشاوره پزشکی آکسفورد
مطالعهای جدید از سوی محققان دانشگاه آکسفورد زنگ خطری جدی برای میلیونها نفری است که برای تشخیص بیماریها و کسب توصیههای پزشکی به سراغ ابزارهایی مانند ChatGPT و سایر چتباتهای هوش مصنوعی میروند. این پژوهش تأکید میکند که اعتماد به این سیستمها برای تصمیمگیریهای پزشکی میتواند پیامدهای خطرناکی در پی داشته باشد. یافتههای تیم تحقیقاتی نشان میدهد که مدلهای هوش مصنوعی در زمینه پزشکی بهطور مکرر پاسخهای ناسازگار و گاهی نادرست ارائه میدهند. دکتر «ربکا پین»، پزشک ارشد این مطالعه، هشدار میدهد که طرح علائم بیماری به این مدلها، به دلیل ماهیت عملکردیشان، ریسک بالایی دارد. این مطالعه که بر روی ۱۳۰۰ نفر آزمایش شد، نشان داد کاربرانی که از هوش مصنوعی استفاده کردند، در تصمیمگیریهای پزشکی خود بهبودی نسبت به روشهای سنتی مانند جستجو در گوگل نشان ندادند.
چالش اصلی در تعامل با هوش مصنوعی، شکل ارتباطی دوطرفه آن است. کاربران اغلب نمیدانند چه میزان جزئیات پزشکی برای ارائه یک مشاوره دقیق به هوش مصنوعی نیاز است. از سوی دیگر، پاسخهای مدلها شدیداً وابسته به نحوه جملهبندی سؤال کاربر است؛ یعنی تغییر اندک در پرسش میتواند منجر به سه تشخیص کاملاً متفاوت شود و بیمار را در انتخاب گزینه صحیح سردرگم کند. دکتر «آدام مهدی» اشاره میکند که چون کاربران معمولاً اطلاعات را به صورت تدریجی و ناقص وارد میکنند، کارایی سیستم بهشدت کاهش مییابد و احتمال خطا بالا میرود.
ناسازگاری و سوگیری در مدلهای هوش مصنوعی
برخلاف عملکرد قابل قبول هوش مصنوعی در تستهای استاندارد پزشکی، در دنیای واقعی و هنگام تعامل با افراد غیرمتخصص، این سیستمها دچار لغزشهای مهم میشوند. اتکای صرف به این ابزارها برای تصمیمگیریهایی حیاتی مانند مراجعه به اورژانس یا پزشک عمومی، میتواند خطرات جبرانناپذیری به همراه داشته باشد. دکتر «امبر چایلدز» از دانشگاه ییل نکته مهمی را مطرح میکند: چتباتها بر اساس دادههای پزشکی فعلی آموزش دیدهاند و این بدان معناست که آنها سوگیریها و تعصباتی را که دههها در متون پزشکی وجود داشته، بازتولید میکنند. او تأکید میکند که کیفیت یک چتبات در زمینه پزشکی، تنها به اندازه پزشکان باتجربهای است که دادههای آن را تأمین کردهاند و این دادهها نیز کامل نیستند.
- عدم سازگاری: مدلها در ارائه توصیههای یکسان برای یک مجموعه علائم واحد دچار مشکل هستند.
- وابستگی به نحوه پرسش: پاسخها به شدت تحت تأثیر کلمات به کار رفته توسط کاربر قرار دارند.
- تکرار سوگیریهای پزشکی: تعصبات موجود در دادههای آموزشی به توصیههای هوش مصنوعی منتقل میشود.
- نیاز به مقررات شفاف: برای تضمین امنیت بیماران، نیاز به قوانین نظارتی سختگیرانه در توسعه نسخههای تخصصی پزشکی وجود دارد.
«تعامل با انسانها حتی برای مدلهای هوش مصنوعی پیشرفته هم یک چالش بزرگ است.»
«یک چتبات فقط به اندازه پزشکان باتجربهای که دادههایش را تولید کردهاند خوب است، که آن هم کامل نیست.»
در نهایت، اگرچه شرکتهایی مانند OpenAI نسخههای تخصصیتری از ابزارهای خود را ارائه میدهند، اما یافتههای دانشگاه آکسفورد نشان میدهد که تا زمان برقراری و ایجاد «گاردریلهای پزشکی» محکم، استفاده از هوش مصنوعی به عنوان جایگزین مشاوره تخصصی پزشک، اقدامی بسیار پرریسک محسوب میشود. این پژوهش در ژورنال Nature Medicine منتشر شده است.
