تهدید امنیتی از سمت تاریک هوش مصنوعی مولد

تصویر شاخص مقاله "تهدید امنیتی از سمت تاریک هوش مصنوعی مولد" دژپاد

تهدید امنیتی از سمت تاریک هوش مصنوعی مول

مدیران حوزه ‌امینت شبکه در بخش‌های خصوصی و دولتی، از افزایش دسترسی به ابزار‌های هوش مصنوعی مولد که به‌صورت رایگان یا با هزینه‌های ناچیز در اختیار عموم قرار دارد، نگران شده‌اند. این نگرانی به این دلیل است که پیشرفت‌های هوش مصنوعی در حال پیشی گرفتن از روش‌های معمول حفظ حریم خصوصی و امنیت داده‌ها است.

هوش مصنوعی مولد

اما هوش مصنوعی مولد چیست؟ Generative Artificial Intelligence در حقیقت مدلی از هوش مصنوعی است که می‌تواند داده‌های متنی، تصاویر، صدا و یا سایر رسانه‌های دیگر را با توجه به درخواست کاربر خود، تولید کند. هوش مصنوعی مولد برای پاسخ دادن به درخواست کاربر، با روش یادگیری ماشینی، داده‌های مورد نیاز را با الگوریتم‌های جستجو از پایگاه داده‌ از قبیل شبکه، اینترنت و… دریافت و با کمک الگوهای بخصوص خود پردازش کرده و محتوای مورد نیاز را تولید می‌کند. هوش مصنوعی مولد می‌تواند به‌صورت سیستم تک‌وجهی و چند‌وجهی باشد (متناسب با نوع و تعداد داده ورودی) و با تولید داده جدید برای هر درخواست، آن‌ها را به دانش قبلی خود می‌افزاید. بعنوان نمونه می‌توان از ChatGPT بعنوان یکی از شناخته شده ترین ابزارهای هوش‌ مصنوعی مولد یاد کرد که نسل چهارم آن می‌تواند متن و تصویر را بعنوان ورودی دریافت کند (سیستم چند وجهی). دلیل استقبال بسیار زیاد از هوش مصنوعی مولد، استفاده عموم جامعه از امکانات بی‌شمار آن در جهت افزایش بهره‌وری و خلاقیت است. همانطور که دانشجویان یا کارمندان اداری از آن برای انجام تحقیق، تجزیه و تحلیل داده‌ها و نگارش اسناد و… استفاده می‌کنند، تولید محتوای جذاب به‌صورت ‌تصویر یا فیلم که بطور گسترده در شبکه‌های اجتماعی استفاده می‌شود، گویای محبوبیت این ابزار جدید است. استفاده از هوش مصنوعی مولد، تصور عموم از یک ابزار هوشمند را تغییر داده است. با این وجود، استفاده نادرست از آن چه پیامد‌هایی خواهد داشت؟ تخمین زده می‌شود که حملات BEC به طور خاص در سال گذشته میلادی (2022) نزدیک به 51 میلیارد دلار هزینه داشته است.

امنیت و هوش مصنوعی

هوش مصنوعی مولد از زمان راه‌اندازی ChatGPT باعث گردیده تا سیاست‌های حوزه امنیتی نیاز به بررسی مجدد داشته باشد. حملات سایبری (Cyberattak) که از طریق ایمیل یا شبکه‌های اجتماعی رایج متنی، پی‌ریزی و هدف‌گذاری می‌شوند از این دسته نگرانی‌ها هستند. در حقیقت ربات‌های قدرتمند هوش مصنوعی مولد با در اختیار داشتن پایگاه‌های داده مناسب مانند اینترنت، می‌توانند با یادگیری از مدل‌های زبانی استفاده شده توسط کابران، به دانش خود برای خودکارسازی حملات سایبری پیچیده در مقیاس عظیم اضافه کنند. مدیران حوزه امنیت شرکت‌های بزرگ، شاهد افزایش قابل توجه تهدیدات فیشینگ با طراحی منحصر به فرد بوده‌اند که منشا آن‌ها ابزارهای هوش مصنوعی است. بعنوان نمونه ربات‌های هوش مصنوعی می‌توانند تعداد بی‌شماری حمله جدید را به سادگی تولید کنند و با استفاده از کدهای بدافزار، موتورهای تشخیص استاندارد فعلی را دور بزنند. تهیه و ارسال هزاران ایمیل کلاهبرداری شبیه‌سازی شده با متن‌های منحصربفرد و بدون هزینه که با روش‌های معمول امنیتی، شناسایی نمی‌شوند از این دسته هستند. در یک نظرسنجی که اخیرا از بیش از 650 کارشناس ارشد امنیت سایبری صورت گرفته است، طی 12 ماه گذشته، افزایش این حملات به بیش از 75 درصد رسیده است که تقریبا نیمی از کارشناسان (46 درصد) اظهار داشتند که هوش مصنوعی مولد، آسیب‌پذیری سازمان را در برابر حملات افزایش داده است. از ابزار‌های هوش مصنوعی عمومی که بگذریم، بخش نگران‌کننده‌تر، پیدایش نسل بعدی ابزارهای هوش مصنوعی در Darkweb مانند WormGPTیاFraudGPT  و… است که اختصاصا برای استفاده از فناوری‌های هوش مصنوعی مولد برای اهداف مجرمانه طراحی شده‌اند و هم اکنون نیز شاهد پیدایش نسل جدیدی از ابزارها مانندBadGPT  و WolfGPT برای ایجاد بدافزارهای مخرب، باج افزارها و حملات ایمیل تجاری (BEC) هستیم. یکی دیگر از پیشرفت‌های نگران‌کننده، تهدید «جیل‌بریک» هوش مصنوعی است که در آن هکرها به‌طور هوشمندانه موارد حفاظتی یا به اصطلاح خط قرمز‌های تعریف شده در استفاده قانونی را از ربات‌های چت هوش مصنوعی حذف می‌کنند. به این ترتیب، ابزارهایی مانند ChatGPT فرد استفاده کننده را فریب می‌دهد و داده‌های شخصی یا کلمات عبور و نام کاربری را به شخص دیگری ارسال می‌کند، که می‌تواند منجر به تهاجمات مخرب بیشتر بعدی شود. تخمین زده می‌شود که حملات BEC به طور خاص در سال گذشته میلادی (2022) نزدیک به 51 میلیارد دلار هزینه داشته است که انتظار می‌رود افزایش یابد. برای متخصصان امنیت شبکه تقریبا غیرممکن است که به سرعت بتوانند به این تهدیدات پاسخ دهند و در مقابل هوش مصنوعی با یادگیری ماشینی با سرعت بالا می‌تواند روش حمله خود را هر لحظه تغییر بدهد.  

ماشین در برابر ماشین

تنها راه دفاع در برابر حملات هوش مصنوعی، استفاده از ابزارها و تکنیک‌های مشابه آن برای محافظت از کاربران است. به همین دلیل است که مدیران شبکه و حوزه امنیت سایبری امروزه به سمت ابزارهایی در حال چرخش هستند که از اتوماسیون، یادگیری ماشینی و هوش مصنوعی در برابر این تهدیدات جدید استفاده می‌کنند. امنیت هوش مصنوعی (AI Security) با استفاده از تکنیک‌های تقویت و شبیه‌سازی داده‌ها به مدیران حوزه شبکه و امنیت سایبری این امکان را می‌دهد تا بتوانند تهدیدهای دریافتی را در زمان مناسب شناسایی کنند. امنیت هوش مصنوعی توانایی شبیه‌سازی هزاران تهدید اصلی اولیه داشته و می‌تواند هزاران نوع مورد انتظار دیگر را که هنوز در راهند پیش بینی کند. به این ترتیب، لایه‌های فعال تدافعی هوش مصنوعی در سمت کاربران در مقابل تهدیدات جدید در حال حاضر و آینده محافظت می‌کند. راه‌حل‌های امنیتی هوش مصنوعی هنگامی که با سیستم‌های Computer Vision ادغام و تقویت می‌شوند، درست قبل از اینکه کاربر به خطر بیفتد، با سرعت بالا به شناسایی پیوست‌های ایمیل جعلی، لینک‌های بد و وب‌سایت‌های فریبنده می‌پردازند. ابزارهای پردازش گویش‌ها و رفتارهای عامیانه، یک لایه امنیتی دیگری را برای اطمینان از صحت زبان نوشتاری، لحن صدا، تشخیص لهجه‌ها و… برای جداسازی کاربران واقعی با هوش مصنوعی خرابکار فراهم می‌کنند.  

نتیجه گیری:

شک نکنید که ما وارد دوره خطرناکی از حضور هوش مصنوعی مولد مخرب شده‌ایم. شرکت‌های پیشگام فناوری، مدیران شبکه و امنیت سایبری و سایر تصمیم گیرندگان این حوزه باید به این حقیقت ناراحت‌کننده بپردازند که مجرمان سایبری هم اکنون با پیش دستی و استفاده زودتر از هوش مصنوعی، یک قدم جلوتر ایستاده‌اند. مقابله با این ماشین‌های هوشمند مستلزم آن است که با استفاده از امنیت مبتنی بر هوش مصنوعی، تعهدات محکم‌تری برای طراحی و اجرای راه کارهای حفاظتی در برابر این تهدید جدید داشته باشیم قبل از اینکه بازی به نفع آن‌ها به مراحل سخت‌تری کشیده شود.

ارسال پیام

پیمایش به بالا