هوش مصنوعی و تعارض با اصول عملیه فقه اسلامی: وقتی سیستمها نمیدانند
مقالهای درباره تعارض ساختاری هوش مصنوعی با منطق اصول عملیه در فقه اسلامی، که نشان میدهد سیستمهای هوش مصنوعی قادر به درک مقام «نمیدانم» نیستند و به جای توقف عقلانی، به تولید پاسخهای بیمبنا میپردازند.

هوش مصنوعی و چالشهای فقهی
این مقاله به تعارض بنیادین بین هوش مصنوعی و اصول عملیه فقه اسلامی میپردازد. مشکل اصلی این نیست که هوش مصنوعی خطا میکند، بلکه این است که سیستمهای هوش مصنوعی از نظر ساختاری قادر به درک و به رسمیت شناختن مقام «نمیدانم» نیستند. در منطق اصول فقه، پس از فحص عقلایی، مکلف حق دارد بایستد و بگوید «نمیدانم» - این توقف خود یک موضع معرفتی معتبر است که اصولی مانند برائت، احتیاط، تخییر و استصحاب بر اساس آن بنا شدهاند.
- هوش مصنوعی برای تولید طراحی شده، نه برای توقف عقلانی
- پدیده هالوسینیشن نشاندهنده جعل اعتبار در غیاب موضوع است
- این تعارض، تفکیکهای فلسفی بین کشف/جعل و واقع/اعتبار را فرو میریزد
- مشکل در سطح منطق وجودی است، نه صرفاً کاربردی
- سیستمهای هوش مصنوعی جهل را تحمل نمیکنند و آن را با تولید میپوشانند
«ابزاری که اساساً «ایستادن» در قاموس وجودیاش تعریف نشده، چگونه میتواند در این مقام ایفای نقش کند؟»
«هالوسینیشن، جعل حکم در مقام فقدان موضوع جعل است. این خطای آماری نیست، بلکه خطای فلسفی در نسبت میان جهل و جعل است.»
این تحلیل نشان میدهد که استفاده از هوش مصنوعی در حوزه فقه و اصول عملیه نیازمند بازنگری اساسی در معماری این سیستمها است.



