مدیران حوزه امینت شبکه در بخشهای خصوصی و دولتی، از افزایش دسترسی به ابزارهای هوش مصنوعی مولد که بهصورت رایگان یا با هزینههای ناچیز در اختیار عموم قرار دارد، نگران شدهاند. این نگرانی به این دلیل است که پیشرفتهای هوش مصنوعی در حال پیشی گرفتن از روشهای معمول حفظ حریم خصوصی و امنیت دادهها است.
هوش مصنوعی مولد
اما هوش مصنوعی مولد چیست؟ Generative Artificial Intelligence در حقیقت مدلی از هوش مصنوعی است که میتواند دادههای متنی، تصاویر، صدا و یا سایر رسانههای دیگر را با توجه به درخواست کاربر خود، تولید کند. هوش مصنوعی مولد برای پاسخ دادن به درخواست کاربر، با روش یادگیری ماشینی، دادههای مورد نیاز را با الگوریتمهای جستجو از پایگاه داده از قبیل شبکه، اینترنت و… دریافت و با کمک الگوهای بخصوص خود پردازش کرده و محتوای مورد نیاز را تولید میکند. هوش مصنوعی مولد میتواند بهصورت سیستم تکوجهی و چندوجهی باشد (متناسب با نوع و تعداد داده ورودی) و با تولید داده جدید برای هر درخواست، آنها را به دانش قبلی خود میافزاید. بعنوان نمونه میتوان از ChatGPT بعنوان یکی از شناخته شده ترین ابزارهای هوش مصنوعی مولد یاد کرد که نسل چهارم آن میتواند متن و تصویر را بعنوان ورودی دریافت کند (سیستم چند وجهی). دلیل استقبال بسیار زیاد از هوش مصنوعی مولد، استفاده عموم جامعه از امکانات بیشمار آن در جهت افزایش بهرهوری و خلاقیت است. همانطور که دانشجویان یا کارمندان اداری از آن برای انجام تحقیق، تجزیه و تحلیل دادهها و نگارش اسناد و… استفاده میکنند، تولید محتوای جذاب بهصورت تصویر یا فیلم که بطور گسترده در شبکههای اجتماعی استفاده میشود، گویای محبوبیت این ابزار جدید است. استفاده از هوش مصنوعی مولد، تصور عموم از یک ابزار هوشمند را تغییر داده است. با این وجود، استفاده نادرست از آن چه پیامدهایی خواهد داشت؟ تخمین زده میشود که حملات BEC به طور خاص در سال گذشته میلادی (2022) نزدیک به 51 میلیارد دلار هزینه داشته است.
امنیت و هوش مصنوعی
هوش مصنوعی مولد از زمان راهاندازی ChatGPT باعث گردیده تا سیاستهای حوزه امنیتی نیاز به بررسی مجدد داشته باشد. حملات سایبری (Cyberattak) که از طریق ایمیل یا شبکههای اجتماعی رایج متنی، پیریزی و هدفگذاری میشوند از این دسته نگرانیها هستند. در حقیقت رباتهای قدرتمند هوش مصنوعی مولد با در اختیار داشتن پایگاههای داده مناسب مانند اینترنت، میتوانند با یادگیری از مدلهای زبانی استفاده شده توسط کابران، به دانش خود برای خودکارسازی حملات سایبری پیچیده در مقیاس عظیم اضافه کنند. مدیران حوزه امنیت شرکتهای بزرگ، شاهد افزایش قابل توجه تهدیدات فیشینگ با طراحی منحصر به فرد بودهاند که منشا آنها ابزارهای هوش مصنوعی است. بعنوان نمونه رباتهای هوش مصنوعی میتوانند تعداد بیشماری حمله جدید را به سادگی تولید کنند و با استفاده از کدهای بدافزار، موتورهای تشخیص استاندارد فعلی را دور بزنند. تهیه و ارسال هزاران ایمیل کلاهبرداری شبیهسازی شده با متنهای منحصربفرد و بدون هزینه که با روشهای معمول امنیتی، شناسایی نمیشوند از این دسته هستند. در یک نظرسنجی که اخیرا از بیش از 650 کارشناس ارشد امنیت سایبری صورت گرفته است، طی 12 ماه گذشته، افزایش این حملات به بیش از 75 درصد رسیده است که تقریبا نیمی از کارشناسان (46 درصد) اظهار داشتند که هوش مصنوعی مولد، آسیبپذیری سازمان را در برابر حملات افزایش داده است. از ابزارهای هوش مصنوعی عمومی که بگذریم، بخش نگرانکنندهتر، پیدایش نسل بعدی ابزارهای هوش مصنوعی در Darkweb مانند WormGPTیاFraudGPT و… است که اختصاصا برای استفاده از فناوریهای هوش مصنوعی مولد برای اهداف مجرمانه طراحی شدهاند و هم اکنون نیز شاهد پیدایش نسل جدیدی از ابزارها مانندBadGPT و WolfGPT برای ایجاد بدافزارهای مخرب، باج افزارها و حملات ایمیل تجاری (BEC) هستیم. یکی دیگر از پیشرفتهای نگرانکننده، تهدید «جیلبریک» هوش مصنوعی است که در آن هکرها بهطور هوشمندانه موارد حفاظتی یا به اصطلاح خط قرمزهای تعریف شده در استفاده قانونی را از رباتهای چت هوش مصنوعی حذف میکنند. به این ترتیب، ابزارهایی مانند ChatGPT فرد استفاده کننده را فریب میدهد و دادههای شخصی یا کلمات عبور و نام کاربری را به شخص دیگری ارسال میکند، که میتواند منجر به تهاجمات مخرب بیشتر بعدی شود. تخمین زده میشود که حملات BEC به طور خاص در سال گذشته میلادی (2022) نزدیک به 51 میلیارد دلار هزینه داشته است که انتظار میرود افزایش یابد. برای متخصصان امنیت شبکه تقریبا غیرممکن است که به سرعت بتوانند به این تهدیدات پاسخ دهند و در مقابل هوش مصنوعی با یادگیری ماشینی با سرعت بالا میتواند روش حمله خود را هر لحظه تغییر بدهد.
ماشین در برابر ماشین
تنها راه دفاع در برابر حملات هوش مصنوعی، استفاده از ابزارها و تکنیکهای مشابه آن برای محافظت از کاربران است. به همین دلیل است که مدیران شبکه و حوزه امنیت سایبری امروزه به سمت ابزارهایی در حال چرخش هستند که از اتوماسیون، یادگیری ماشینی و هوش مصنوعی در برابر این تهدیدات جدید استفاده میکنند. امنیت هوش مصنوعی (AI Security) با استفاده از تکنیکهای تقویت و شبیهسازی دادهها به مدیران حوزه شبکه و امنیت سایبری این امکان را میدهد تا بتوانند تهدیدهای دریافتی را در زمان مناسب شناسایی کنند. امنیت هوش مصنوعی توانایی شبیهسازی هزاران تهدید اصلی اولیه داشته و میتواند هزاران نوع مورد انتظار دیگر را که هنوز در راهند پیش بینی کند. به این ترتیب، لایههای فعال تدافعی هوش مصنوعی در سمت کاربران در مقابل تهدیدات جدید در حال حاضر و آینده محافظت میکند. راهحلهای امنیتی هوش مصنوعی هنگامی که با سیستمهای Computer Vision ادغام و تقویت میشوند، درست قبل از اینکه کاربر به خطر بیفتد، با سرعت بالا به شناسایی پیوستهای ایمیل جعلی، لینکهای بد و وبسایتهای فریبنده میپردازند. ابزارهای پردازش گویشها و رفتارهای عامیانه، یک لایه امنیتی دیگری را برای اطمینان از صحت زبان نوشتاری، لحن صدا، تشخیص لهجهها و… برای جداسازی کاربران واقعی با هوش مصنوعی خرابکار فراهم میکنند.
نتیجه گیری:
شک نکنید که ما وارد دوره خطرناکی از حضور هوش مصنوعی مولد مخرب شدهایم. شرکتهای پیشگام فناوری، مدیران شبکه و امنیت سایبری و سایر تصمیم گیرندگان این حوزه باید به این حقیقت ناراحتکننده بپردازند که مجرمان سایبری هم اکنون با پیش دستی و استفاده زودتر از هوش مصنوعی، یک قدم جلوتر ایستادهاند. مقابله با این ماشینهای هوشمند مستلزم آن است که با استفاده از امنیت مبتنی بر هوش مصنوعی، تعهدات محکمتری برای طراحی و اجرای راه کارهای حفاظتی در برابر این تهدید جدید داشته باشیم قبل از اینکه بازی به نفع آنها به مراحل سختتری کشیده شود.