اوپنایآی با نسخه داخلی ChatGPT افشاگران اطلاعات را شناسایی میکند
اوپنایآی از نسخه ویژهای از ChatGPT برای بررسی اسناد داخلی و شناسایی کارکنانی که اطلاعات محرمانه را منتشر میکنند استفاده میکند، طبق گزارشی که به این موضوع اشاره کرده است.

استفاده داخلی از ChatGPT برای شناسایی افشاگران در اوپنایآی
اوپنایآی، شرکت پیشرو در حوزه هوش مصنوعی، بهتازگی نسخهای داخلی از ChatGPT را برای شناسایی افشاگران اطلاعات داخلی به کار گرفته است. این ابزار ویژه قادر است با دسترسی به اسناد داخلی، کانالهای Slack و ایمیلهای کاری، محتوای نشتکننده را تحلیل کند و کارمندانی که به اسناد مربوطه دسترسی داشتهاند را برجسته سازد. بر پایه گزارشهای منتشر شده، فرآیند شامل عبور مقاله یا خبر حاوی اطلاعات محرمانه از طریق این مدل سفارشی میشود؛ سپس مدل با مقایسه متون موجود، مدارک مرتبط را استخراج کرده و نام کاربرانی که به این اسناد دسترسی دارند را ارائه میدهد. اگرچه شرکت ادعا میکند این روش بهصورت پیشگیرانه برای محافظت از داراییهای فکری به کار گرفته میشود، اما سوالاتی درباره حریم شخصی کارکنان و امکان سوءاستفاده از این فناوری نیز برانگیخته شده است. برخی از رقبای بزرگ فناوری نظیر Apple و Tesla نیز سیاستهای سختگیرانهای برای جلوگیری از نشت اطلاعات اعمال کردهاند، ولی استفاده از یک مدل زبانی برای این منظور نوآوری قابلتوجهی به حساب میآید.
نحوه کار سیستم
- مدل داخلی به اسناد، پیامهای Slack و ایمیلهای داخلی دسترسی دارد.
- متنهای منتشر شده با دادههای داخلی مقایسه میشوند.
- کاربران دسترسیدار به اسناد شناسایی و به عنوان «ممکن است افشاگر باشد» اعلام میشوند.
مزایا و انتقادات
- مزایا: پیشگیری از نشت اطلاعات، حفاظت از داراییهای فکری.
- انتقادات: نگرانیهای حریم شخصی، خطر سوءاستفاده و نظارت بیش از حد.
“این ابزار میتواند بهسرعت منبع نشت را شناسایی کند، اما باید مراقب حریم شخصی کارکنان نیز بود.” “استفاده از مدل زبانی برای نظارت داخلی نشانگر گسترش کاربردهای هوش مصنوعی در مدیریت سازمانی است.”
در پایان، اگرچه این فناوری میتواند بهعنوان یک لایه امنیتی مؤثر عمل کند، اما نیازمند چارچوبهای شفاف قانونی و اخلاقی برای محافظت از حقوق کارکنان و جلوگیری از استفاده نادرست است.



