بیش از نیمی از شرکت های روسی نگران نشت داده ها به دلیل کاربردهای هوش مصنوعی (AI) هستند. اتوماسیون خطر به خطر افتادن اطلاعات شخصی و اسرار تجاری را افزایش می دهد. کارشناسان اشاره می کنند که بدون رمزگذاری داده ها، نشت ممکن است برگشت ناپذیر باشد.

طبق مطالعه ای که توسط MTS Web Services انجام شده است، 59 درصد از شرکت ها تهدید نشت داده های شخصی را جدی ترین می دانند. دوم خطر افشای اطلاعات محرمانه تجاری است که 56 درصد از کسب و کارها به آن اشاره کرده اند. هنگام مقیاسبندی راهحلهای هوش مصنوعی، بخشهای فناوری اطلاعات نگرانیهای امنیتی را بالاتر از مزایای پیشبینیشده سادهسازی وظایف معمول و افزایش کارایی فرآیندهای تجاری با هوش مصنوعی قرار میدهند.
در عین حال، به گفته مک کینزی، سطح استقرار سیستم هوش مصنوعی در جهان 88 درصد است. شبکه های عصبی مصنوعی به طور فعال در زمینه بازاریابی و همچنین در توسعه راه حل های فناوری اطلاعات استفاده می شود.
سرگئی یودین، رئیس فناوری هوش مصنوعی محتوا، گفت که خطر بالای نشت داده ها هنگام استفاده از شبکه های عصبی به دلیل ماهیت این فناوری است. در حالی که نرمافزار کلاسیک فقط دادهها را بدون ذخیره یا تجزیه و تحلیل فراتر از یک کار خاص پردازش میکند، سیستمهای هوش مصنوعی بر روی مدلهای زبان بزرگی ساخته شدهاند که به معنای واقعی کلمه اطلاعات را «جذب» میکنند و از آن برای درک محتوای داخلی استفاده میکنند. و در مورد خدمات عمومی – برای آموزش اضافی.
یودین توضیح می دهد: “مشکل این است که یک بار در یک سیستم هوش مصنوعی باز، اطلاعات در واقع نمی توانند حذف شوند. می توان آنها را در گزارش ها ذخیره کرد، در نمونه های آموزشی استفاده کرد، یا به طور تصادفی در اختیار اشخاص ثالث قرار داد. در نتیجه، نشت غیرقابل جبران می شود.”
در این مورد، یک گام مهم برای محافظت از داده ها، ایجاد یک سیاست داخلی برای استفاده از هوش مصنوعی است. کارمندان باید در مورد اینکه چه داده هایی مجاز به انتقال به شبکه عصبی هستند و چه داده هایی اکیداً ممنوع است آموزش ببینند.
برای مثال، سرویسهای هوش مصنوعی عمومی اغلب پنهان نمیکنند که تاریخچه مکالمه را ذخیره میکنند و از آن برای بهبود مدلها استفاده میکنند. حتی اگر داده ها به صورت ناشناس جمع آوری شوند، باز هم خطر بازتولید یا دسترسی غیرمجاز وجود دارد. بنابراین، شرکت ها هنگام معرفی سیستم های هوش مصنوعی در عملیات خود، یک استراتژی کلی برای تعامل ایمن با فناوری ایجاد خواهند کرد.
یودین می گوید: “یکی از تکنیک های توصیه شده برای محافظت از داده ها استفاده از “placeholder” است، زمانی که به جای نام های واقعی، مبالغ، جزئیات بانکی یا نام شرکت از موارد ساختگی استفاده می شود. این به شما امکان می دهد منطق و ساختار کار را حفظ کنید و پاسخ های مرتبط را از هوش مصنوعی بدون خطر افشای اطلاعات محرمانه دریافت کنید.”
اقدامات امنیتی مورد نیاز همچنین شامل تنظیمات حریم خصوصی در سرویسهای مورد استفاده میشود: غیرفعال کردن گزینه اجازه استفاده از مکالمات برای آموزش مدل، حذف منظم سابقه مکاتبات، و جدا کردن حسابها برای کارهای شخصی و کاری.
آژانس مطبوعاتی گروه خورشیدی گفت که حجم زیادی از داده های سیستم های سازمانی دولتی و سازمان های تجاری در شبکه عصبی بارگذاری می شود. اینها می توانند فایل هایی حاوی اطلاعات کلی در مورد شرکت و داده های حساس باشند: به عنوان مثال، نقشه های تجهیزات با محاسبات دقیق یا شاخص های مالی اختصاصی. برای پیاده سازی ایمن هوش مصنوعی در عملیات خود، شرکت ها می توانند از مجموعه راه حل های مختلفی استفاده کنند.
این شرکت در پایان گفت: “در آینده، ما میتوانیم ببینیم که فناوری هوش مصنوعی در محصولات امنیت اطلاعات برای خودکارسازی فرآیندها و دفع حملات سایبری استفاده خواهد شد. این به این دلیل است که مهاجمان در حال حاضر از ابزارهای مختلف هوش مصنوعی برای حمله به زیرساختها استفاده میکنند. معلوم میشود که هوش مصنوعی علیه خودش مبارزه خواهد کرد.”

