خطرات مشاوره پزشکی با استفاده از چتباتهای هوش مصنوعی
مطالعات جدید دانشگاه آکسفورد نشان میدهد اعتماد به چتباتهای هوش مصنوعی برای تشخیص بیماری و توصیههای پزشکی میتواند عواقب خطرناکی داشته باشد؛ زیرا پاسخها ناسازگار و وابسته به نحوه پرسش کاربر هستند.
ارزیابی خطرات استفاده از هوش مصنوعی در مشاوره پزشکی
مطالعهای منتشر شده توسط محققان دانشگاه آکسفورد بر روی ۱۳۰۰ نفر نشان میدهد که تکیه بر چتباتهای هوش مصنوعی مانند ChatGPT برای دریافت مشاوره پزشکی و تشخیص بیماری، امری خطرناک است. این نتایج هشداری جدی برای میلیونها نفری است که در جستجوی سریع پاسخ به علائم بیماری خود به سراغ این ابزارها میروند. محققان تأکید میکنند که مدلهای هوش مصنوعی اغلب پاسخهای ناسازگار یا کاملاً نادرست ارائه میدهند که میتواند منجر به تصمیمگیریهای اشتباه در مورد مراجعه به پزشک یا بخش اورژانس شود. دکتر «ربکا پین»، پزشک ارشد این مطالعه، خطر عدم ارائه اطلاعات کامل توسط کاربر و وابستگی شدید پاسخها به نحوه جملهبندی سؤال را برجسته میکند.
یکی از چالشهای اساسی، «شکست ارتباطی دوطرفه» میان کاربر و سیستم است. کاربران تخصصی لازم برای ارائه جزئیاتی که هوش مصنوعی برای تشخیص دقیق نیاز دارد را نمیدانند، در حالی که پاسخهای مدلها به شدت تحت تأثیر ورودی کاربر قرار میگیرد. این امر با محیطهای واقعی پزشکی فاصله زیادی دارد که در آن تعاملات پیچیدهتر هستند. هرچند هوش مصنوعی ممکن است در تستهای استاندارد پزشکی نمره قابل قبولی بگیرد، اما در تعاملات دنیای واقعی با افراد غیرمتخصص، این سیستمها دچار لغزش میشوند.
- عدم سازگاری پاسخها: چتباتها میتوانند سه تشخیص متفاوت ارائه دهند و کاربر را در انتخاب مسیر درست سردرگم کنند.
- وابستگی به ورودی: دقت توصیهها به طور نامتناسبی به شیوه پرسش کاربر بستگی دارد.
- تکرار سوگیریهای پزشکی: سیستمها سوگیریها و تعصبات موجود در دادههای آموزشی دهههای اخیر پزشکی را بازتولید میکنند.
- ناکارآمدی در تعامل: تعامل با انسانها، حتی برای مدلهای پیشرفته، به عنوان چالشی بزرگ در فضای سلامت شناسایی شده است.
- مزیت محدود در مقابل روشهای سنتی: نتایج نشان داد افرادی که از هوش مصنوعی استفاده کردند، تصمیمات بهتری نسبت به کاربران روشهای جستجوی سنتی (مانند گوگل) نگرفتند.
دکتر «آدام مهدی» توضیح میدهد: «مردم اطلاعات را به صورت تدریجی به چتبات میدهند و همه چیز را نمیگویند؛ دقیقاً همینجاست که کار خراب میشود.»
دکتر «امبر چایلدز» از دانشگاه ییل اشاره میکند: «یک چتبات فقط به اندازه پزشکان باتجربهای که دادههایش را تولید کردهاند خوب است، که آن هم کامل نیست.»
با وجود این خطرات، برخی کارشناسان امیدوارند که نسخههای تخصصی پزشکی که توسط شرکتهایی مانند OpenAI توسعه مییابند، با وجود قوانین نظارتی شفاف و گاردریلهای پزشکی، بتوانند امنیت بیماران را در آینده تضمین کنند و به ابزاری کمکی تبدیل شوند نه جایگزین پزشک.



