آیا ChatGPT می‌تواند malware های خطرناک تولید کند؟

بنر مقاله آیا Chat GPT می‌تواند malware های خطرناک تولید کند؟

مقدمه

این مقاله توسط Chat GPT نوشته نشده است، یک انسان انجامش داده است. همچنین قرار نیست من یا Chat GPT به این سوال که در عنوان مقاله مطرح شده پاسخ بدهیم. به عنوان یک انسان، هیچ بعید نیست که در نوشتار من اشکالات گرامری به چشم بخورد، و این در حالی است که از هوش مصنوعی انتظار می‌رود بدون غلط به تولید متن و محتوا بپردازد. گرچه، از Chat GPT هیچ بعید نیست برای طبیعی به نظر رسیدن، غلط هم داشته باشد.

این فناوری ربات مبتنی بر هوش مصنوعی که حال و هوای فانتزی دارد، برای تولید جواب تکالیف، مقالات تحقیقاتی، مطالب حقوقی، تشخیص‌های پزشکی و بسیاری کارهای دیگر که کاربردی و لازم هستند، مقبول است و طرفداران زیادی پیدا کرده است و به عنوان یک ابزار انسانی به حد کافی خوب به نظر می‌رسد. اما آیا این برنامه که در تمامی دنیا سر و صدای زیادی به پا کرده، ممکن است باعث ساخته شدن صدها و بلکه هزارها بدافزار و باج افزار شود و برای امنیت سایبری، تهدید گسترده‌ای به حساب بیاید؟

در یک دوئل بین ماشین‌ها که سردسته‌ی آن هم تکنوراتی‌ها بوده‌اند،  ChatGPTکمی بیش از حد خوب به نظر می‌رسد، و نباید توانایی آن را به عنوان یک رقیب جدی که ایجاد خطر و اختلال برای سایر ماشین‌های مورد استفاده در محیط مجازی هستند نادیده گرفت. در شرایطی که مهاجم و مدافع همه از آخرین مدل‌های یادگیری ماشینی  (ML)استفاده می‌کنند، توجه به این نکته اهمیت زیادی دارد. 

چالش‌هایی که Chat GPT ایجاد می‌کند

نباید فراموش کرد که برای جلوگیری از هجوم بدافزارها، تنها استفاده از ربات‌های مختلف کافی و کارساز نیست، همیشه حضور دانش و تجربه‌ی انسانی مورد نیاز است. اهمیت این مساله از سال‌ها پیش مشخص شده است. بهتر بگویم، ما این موضوع را سال‌ها پیش تعیین کرده‌ایم و این مساله عرضه‌کنندگان محصولات مبتنی فقط بر هوش مصنوعی را ناراحت کرده، چرا که بازار معرکه‌گیری و فروش خود را در خطر شکست می‌بینند، و با اشاره به “اهمیت”! محصولات مبتنی فقط بر هوش مصنوعی، سعی در گل آلود کردن آب‌ها دارند تا ماهی‌هایشان را بگیرند.

خطرات احتمالی Chat GPT

در حالی که مدل‌های ML بر اساس نیاز تحلیلی اولویت‌بندی شده‌اند، از ابعاد کوچک گرفته تا دانه‌درشت‌ها نمی‌توانند به عنوان یک “دکمه کشتن و حذف بدافزار” به کار بروند. نحوه‌ی عملکرد بدافزارها بسیار پیچیده‌تراز این حرف‌هاست.

برای اینکه از این امر مطمئن شوم، از متخصصان ML از شرکت ESET چند سوال پرسیدم. جواب‌هایشان شاید کمی ما را از این سردرگمی خارج کند.

سوال: بدافزار تولید شده توسط ChatGPT چقدر خوب خواهد بود؟ آیا اصلا ساخت بدافزار توسط Chat GPT ممکن است؟

جواب: ما حتی به «بدافزار کاملا تولید شده توسط هوش مصنوعی» نزدیک هم نیستیم، اگرچه ChatGPT در پیشنهاد انواع کد، تولید نمونه‌ها و قسمت‌های مختلف کد، رفع اشکال و بهینه‌سازی کد و حتی اتوماسیون اسناد بسیار خوب است.

سوال:  ویژگی‌های پیشرفته‌تر این برنامه چیست؟

جواب: ما نمی‌دانیم که چقدر در کنایی و مبهم عمل کردن (obfuscation) خوب است. برخی از مثال‌های مرتبط به این زمینه به زبان‌های برنامه‌نویسی مانند پایتون مربوط می‌شوند. اما قبلا دیدیم که ChatGPT مفهوم کد به هم ریخته‌ی IDA Pro را «برعکس» می‌کند، که در نوع خود جالب است. در مجموع، Chat GPT احتمالا یک ابزار مفید برای کمک به برنامه‌نویسان است، و شاید همین نکته اولین گام به سمت ایجاد بدافزار با امکانات کامل‌تر باشد، اما هنوز به آن مرحله نرسیده‌ایم.

سوال: در حال حاضر این برنامه، چقدر خوب و موثر است؟

جواب: نرم‌افزار Chat GPT بسیار چشمگیر است. این برنامه یک مدل زبانی بزرگ است و قابلیت‌های آن حتی سازندگان چنین خود و نیز سازندگان سایر مدل‌های زبانی را به وجد می‎آورد. با این حال، Chat GPT در حال حاضر بسیار سطحی است، خطاهای زیادی دارد، پاسخ‌هایی می‌دهد که از شدت ساختگی بودن بیشتر به توهم نزدیک‌اند تا واقعیت، و واقعا نمی‌توان برای چیزهای جدی روی آن حساب کرد. اما به نظر می‌رسد با اظهار نظرهای علاقه‌مندان به تکنولوژی، به سرعت در حال کسب محبوبیت است.

سوال: در حال حاضر Chat GPT چه کاری می‌تواند انجام دهد، به عبارت دیگر، سهل الوصول‌ترین دستاورد مخرب این برنامه چه چیزی می‌تواند باشد؟

جواب: در حال حاضر، ما سه حوزه احتمالی پذیرش و استفاده مخرب از ابزار Chat GPT می‌بینیم:

پیشرفته شدن حملات فیشینگ و جلو زدن از فیشرهای سنتی

اگر فکر می‌کنید فرایند فیشینگ در گذشته به شیوه‌ای قانع‌کننده اتفاق می‌افتاد، بهتر است در طرز فکر خود تجدید نظر کنید.. از جستجو و پیدا کردن منابع داده بیشتر برای طرح‌ریزی حملات و ترکیب کردن آن‌ها به طور یکپارچه گرفته، تا ارسال بی‌شمار ایمیل‌های ساخته‌شده مخصوص فرایند فیشینگ که تشخیص آن‌ها بر اساس محتوای آنها بسیار دشوار است و نرخ موفقیت بالاتری در دریافت کلیک دارند، روش‌های (سو)استفاده از برنامه می‌تواند متنوع باشد. به دلیل وجود اشتباهات متعدد و در هم زبانی، از بین بردن سریع مختوای مخرب کار ساده‌ای نیست. دانش فیشرها برای رسیدن به هدف احتمالا به قدری زیاد است که زبان مادری شما را بیشتر و بهتر از شما خواهند دانست و در طرح‌های خود به کار خواهند برد. از آن‌جای که تعداد بسیار زیادی از بدترین حملات با کلیک کردن کاربر روی یک فایل پیوند شروع می‌شود، باید انتظار تاثیرات مخرب بسیار زیادی در نتیجه‌ی این حملات داشت.

خودکار سازی مذاکرات باجافزاری

احتمال زیادی می‌دهیم که اپراتورهای مذاکرات باج‌افزاری، ساده‌تر از چیزی باشند که فکر می‌کنیم. اما Chat GPT می تواند با افزودن زرق وبرق به نحوه‌ی انجام مذاکرات بار کاری مهاجمان را که در طول مذاکرات بسیار زیاد به نظر می‌رسد کاهش دهد. استفاده از چنین برنامه‌ای، همچنین امکان شناسایی مهاجمان و تشخیص موقعیت آن‌ها را بسیار کم کرده و به مهاجمان فضای امن‌تری برای پنهان شدن می‌دهد.

ارتقای روشهای کلاهبرداری تلفنی

با ارتقای تولید محتوای زبانی نزدیک به زبان طبیعی انسانی، با افزایش تولید زبان طبیعی، کلاهبرداران قادر خواهند بود که با بیانی بسیار شبیه به منطقه‌ی شما صحبت کنند و طوری وانمود کنند که انگار به خیرخواه شما هستند. داشتن اعتماد به نفس یکی از قدم‌های اولیه‌ی یک کلاهبردار خوب بودن است و کلاهبرداران نیز به دنبال چنین چیزی هستند تا اعتماد شما را جلب کنند. 

از آنجایی که احتمال وقوع همه چیز ممکن است، بهتر است روی پروژه‌ای مثل Chat GPT ریسک نکرد. قرار نیست در آینده‌ی نزدیک پیش بینی‌های امنیتی به وقوع بپیوندند. اما در عین حال نباید غافل شد که cybercriminalها نیز به سرعت در حال بهبود و توسعه‌‍‌ی روش‌های خرابکارانه‌ی خود هستند. 

این مقاله را به اشتراک بگذارید

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

مقالات مرتبط

با ثبت ایمیل از آخرین خبرها مطلع شوید