توسعه ابزار هوش مصنوعی توسط وزارت بهداشت آمریکا برای تولید فرضیههای ادعاهای آسیب واکسن
وزارت بهداشت و خدمات انسانی آمریکا در حال توسعه یک ابزار هوش مصنوعی مولد برای تحلیل دادههای گزارششده به پایگاه ملی نظارت بر واکسنها و تولید فرضیههایی درباره اثرات منفی واکسنها است.
وزارت بهداشت آمریکا و ابزار فرضیهسازی هوش مصنوعی برای واکسنها
وزارت بهداشت و خدمات انسانی ایالات متحده (HHS) در حال توسعه یک ابزار هوش مصنوعی مولد (Generative AI) است که هدف آن شناسایی الگوها در دادههای گزارششده به پایگاه ملی نظارت بر واکسنها میباشد. این ابزار به طور مشخص برای تولید فرضیههایی در مورد اثرات منفی واکسنها طراحی شده است. این خبر بر اساس یک فهرست منتشرشده از موارد استفاده هوش مصنوعی توسط این آژانس در سال ۲۰۲۵ منتشر شده است. نگرانی اصلی کارشناسان این است که این ابزار، که هنوز به طور کامل مستقر نشده، ممکن است توسط وزیر بهداشت، رابرت اف. کندی جونیور، برای پیشبرد دستور کار ضدواکسن خود مورد استفاده قرار گیرد.
کندی، که از منتقدان بلندپایه واکسنها است، در طول دوره مسئولیت خود تغییرات اساسی در برنامه واکسیناسیون دوران کودکی ایجاد کرده و چندین واکسن اصلی را از فهرست توصیهشده حذف نموده است. او همچنین خواستار بازنگری در سیستم نظارت بر ایمنی دادههای آسیب واکسن، که به عنوان سیستم گزارشدهی رویدادهای نامطلوب واکسن (VAERS) شناخته میشود، شده و مدعی است که این سیستم اطلاعات مربوط به نرخ واقعی عوارض جانبی واکسنها را سرکوب میکند. او همچنین تغییراتی در برنامه جبران خسارت آسیب واکسن فدرال پیشنهاد داده است تا طرح دعوی برای مواردی که ارتباط آنها با واکسن اثبات نشده، آسانتر شود.
“VAERS، در بهترین حالت، همیشه یک مکانیسم تولید فرضیه بوده است. این یک سیستم پر سر و صدا است. هر کسی میتواند گزارش دهد و هیچ گروه کنترلی وجود ندارد.”
سیستم VAERS که به طور مشترک توسط مراکز کنترل و پیشگیری از بیماریها (CDC) و سازمان غذا و دارو (FDA) مدیریت میشود، از سال ۱۹۹۰ برای کشف مسائل ایمنی احتمالی پس از تأیید واکسنها ایجاد شده است. از آنجایی که گزارشهای ارائه شده به VAERS تأیید نمیشوند، دادههای آن به تنهایی برای اثبات رابطه علّی بین واکسن و یک عارضه جانبی کافی نیست؛ این امر بهویژه به دلیل کمبود دادههای مربوط به تعداد کل دریافتکنندگان واکسن در این پایگاه لحاظ میشود.
چالشها و نگرانیهای مربوط به هوش مصنوعی در دادههای VAERS
استفاده از مدلهای پیشرفتهتر مدلهای زبانی بزرگ (LLMs) در این زمینه، نگرانیهایی را در مورد صحت خروجیها ایجاد کرده است. LLMها در تولید محتوای قانعکننده، حتی اگر مبتنی بر واقعیت نباشد، مشهور هستند که نیاز به پیگیری و راستیآزمایی توسط متخصصان انسانی را دوچندان میکند. کارشناسان تأکید دارند که هر فرضیهای که توسط LLM تولید میشود، باید به شدت توسط افرادی که در زمینه واکسنها، اپیدمیولوژی و چالشهای خروجی LLM تخصص دارند، مورد بررسی و تحقیق کامل قرار گیرد.
- کارشناسان نگران سوءاستفاده از خروجیهای هوش مصنوعی برای ترویج دستور کار ضدواکسن هستند.
- دادههای VAERS به طور تاریخی برای شناسایی مسائل ایمنی واقعی، مانند لخته شدن خون نادر پس از واکسن جانسون و جانسون، مفید بودهاند.
- فقدان دادههای مربوط به تعداد واکسینهشدگان در VAERS میتواند بروز حوادث را بیش از حد واقعی نشان دهد.
- نیاز مبرمی به ظرفیت کافی کارکنان ماهر در CDC برای غربالگری و بررسی فرضیههای جدید وجود دارد.
برخی از کارشناسان FDA اخیراً پیشنهاد تغییرات سختگیرانهتری در مقررات واکسن دادهاند که بر اساس تفسیر انتخابی شواهد صورت گرفته است و نگرانیهایی را در مورد نحوه ارزیابی دادههای ایمنی ایجاد کرده است.
در نهایت، در حالی که هوش مصنوعی پتانسیل کشف مسائل ایمنی ناشناخته را دارد، عدم دقت ذاتی در دادههای اولیه VAERS و ماهیت LLMها حکم میکند که نظارت دقیق انسانی و رویکردی مبتنی بر تولید فرضیه اکتشافی، نه اثبات قطعی، حفظ شود تا سلامت عمومی به خطر نیفتد و از سوءتعبیر دادههای ایمنی جلوگیری شود. این موضوع به ویژه در سایه تغییرات پیشنهادی توسط مدیر جدید وزارت بهداشت اهمیت مییابد.



