آیا ChatGPT میتواند علت مرگ را تشخیص دهد؟ نتایج یک پژوهش جنجالی
پژوهشگران دانشگاه مانش قابلیتهای ChatGPT در حوزه آسیبشناسی قانونی را آزمایش کردند. این پژوهش نشان داد که هوش مصنوعی در کارهای مبتنی بر دانش تثبیتشده خوب عمل میکند اما در استدلال پیچیده و تفسیر تصاویر ضعیف است.
هوش مصنوعی در پزشکی قانونی: قابلیتها و محدودیتهای ChatGPT
پژوهشگران دانشگاه مانش استرالیا در یک مطالعه جنجالی، توانایی مدل هوش مصنوعی ChatGPT در حوزه آسیبشناسی قانونی را مورد ارزیابی قرار دادند. این پژوهش که با هدف بررسی اثربخشی هوش مصنوعی در مدیریت دانش تخصصی پزشکی قانونی انجام شد، نشان میدهد که ChatGPT میتواند دانش جاافتاده این حوزه را به خوبی بازتولید کند اما در مواجهه با سناریوهای پیچیده و مبهم با محدودیتهای جدی روبرو است.
- عملکرد موفق در پرسشهای انشایی: ChatGPT در موضوعاتی که نیاز به دانش تثبیتشده داشتند، نمرات بالایی کسب کرد
- ضعف در استدلال پیچیده: در کارهای نیازمند تفسیر تصویر یا تحلیل وابسته به زمینه، عملکرد ضعیفی نشان داد
- خروجی روان اما گمراهکننده: پاسخهای این مدل همیشه با اعتماد به نفس بیان میشوند حتی وقتی دقت کافی ندارند
- کاربردهای محدود: تنها برای اهداف اداری یا آموزشی با نظارت متخصصان قابل قبول است
- هشدار به غیرمتخصصان: افراد عادی نباید برای اطلاعات پزشکی قانونی به چنین فناوریهایی اعتماد کنند
"چتجیپیتی فاقد قابلیتهای لازم برای وظایف سطح بالاتر است و اغلب خروجیهای غیر قابل توجیه تولید میکند" "استفاده از آن تنها با بررسی دقیق توسط متخصصان واجد CONDITIONS قابل قبول است"
این پژوهش بر لزوم ارزیابی مستمر و استفاده مسئولانه از مدلهای زبانی بزرگ در پزشکی تأکید میکند تا از خطرات احتمالی جلوگیری شود.




