۱۷ شهریور ۱۴۰۴ - ۰۸:۴۸
سوءاستفاده مجرمان از هوش مصنوعی؛ تولید بدافزار با کمک چت‌بات‌ها

سوءاستفاده مجرمان از هوش مصنوعی؛ تولید بدافزار با کمک چت‌بات‌ها

یک گزارش جدید از شرکت آنتروپیک هشدار می‌دهد که مجرمان سایبری با فریب چت‌بات‌های برنامه‌نویسی، از آن‌ها برای تولید بدافزار و اخاذی در مقیاس گسترده استفاده می‌کنند.

به گزارش بازار، وبگاه تِک‌اِکسپلور در گزارشی آورده است:

سوءاستفاده احتمالی کاربران از ابزارهای هوش مصنوعی مصرفی، نگرانی‌های فزاینده‌ای را برانگیخته است؛ زیرا ظاهراً مجرمان سایبری تازه‌کار قادرند با فریب چت‌بات‌های برنامه‌نویسی، در تولید برنامه‌های مخرب پیشرفت کنند.

شرکت آمریکایی آنتروپیک در گزارشی جدید هشدار داده که وایب هَکینگ (vibe hacking؛ فریب هوش مصنوعی با سناریوسازی)، وایب کُدینگ (vibe coding؛ نسخه مخرب برنامه‌نویسی مبتنی‌بر وایب هکینگ)، نشان‌دهنده تکامل نگران‌کننده جرائم سایبری با کمک هوش مصنوعی است.

این شرکت در گزارش خود موردی را تشریح کرد که یک مجرم سایبری با استفاده از کلود کُد (نسخه تخصصی هوش مصنوعی کلود برای برنامه‌نویسی) تنها در مدت یک ماه گذشته، یک عملیات اخاذی داده در مقیاس گسترده علیه حداقل ۱۷ سازمان مجزا در بخش‌های دولتی، خدمات درمانی، خدمات اضطراری و نهادهای مذهبی انجام داده است.

طبق این گزارش، مهاجم از چت‌بات کلود برای ایجاد ابزارهایی استفاده کرده که داده‌های شخصی، پرونده‌های پزشکی و اطلاعات ورود را جمع‌آوری می‌کنند و در ارسال درخواست‌های باج‌ تا سقف ۵۰۰ هزار دلار کمک می‌کنند. مهاجم پس از این اقدامات توسط آنتروپیک مسدود شد؛ اما شرکت تأیید کرد که اقدامات پیچیده ایمنی و امنیتی آن نتوانسته از این سوءاستفاده جلوگیری کند.

شناسایی چنین مواردی، ترس‌هایی را که از زمان ظهور ابزارهای گسترده هوش مصنوعی مولد، صنعت امنیت سایبری را دچار مشکل کرده، تأیید می‌کنند و به‌هیچ‌وجه محدود به آنتروپیک نیستند. این مورد تأییدی است بر نگرانی‌هایی که از زمان ظهور ابزارهای هوش مصنوعی تولیدی، صنعت امنیت سایبری را آزار داده است.

رودریگ لو بایون (Rodrigue Le Bayon)، رئیس گروه واکنش به فوریت‌های رایانه‌ای شرکت دفاع سایبری اورنج (Orange)، هشدار می‌دهد: امروزه مجرمان سایبری به همان اندازه کاربران عادی از هوش مصنوعی استفاده می‌کنند.

دور زدن تجهیزات امنیتی

شرکت اُپِن اِی‌آی (OpenAI) نیز در ژوئن ۲۰۲۴ میلادی موردی را افشا کرد که در آن چت‌بات چت‌جی‌پی‌تی به یک کاربر در توسعه نرم‌افزارهای مخرب (بدافزار) کمک کرده بود. مدل‌های هوش مصنوعی حاوی تجهیزات امنیتی هستند که قرار است از مشارکت در فعالیت‌های غیر قانونی جلوگیری کنند، اما مهاجمان راه‌هایی برای دور زدن این محدودیت‌ها پیدا کرده‌اند.

ویتالی سیمونوویچ (Vitaly Simonovich)، متخصص امنیت سایبری، تأیید کرد که مهاجمان حتی بدون دانش فنی عمیق می‌توانند از ابزارهای هوش مصنوعی برای حملات سایبری استفاده کنند.· آن‌ها با روش‌های خاص، تجهیزات امنیتی را دور می‌زنند.

این رویکرد شامل متقاعد کردن هوش مصنوعی مولد برای شرکت در یک «دنیای تخیلی مفصل» است که در آن، ایجاد بدافزار به عنوان یک هنر دیده می‌شود. از چت‌بات خواسته می‌شد تا نقش یکی از شخصیت‌ها را بازی کند و ابزارهایی بسازد که بتوانند رمزهای عبور افراد را بدزدند.

سیمونوویچ در مارس ۲۰۲۴ میلادی تأیید کرد که توانسته با این روش، چت‌بات‌ها را وادار به تولید کدهای مخرب کند. این تلاش‌ها توسط جِمینای و کلود رد شد، اما توانست محدودیت‌های چت‌جی‌پی‌تی، دیپ‌سیک چین و کوپایلت مایکروسافت را دور بزند.

پیش‌بینی می‌شود چنین روش‌هایی در آینده حتی برای افراد غیر برنامه‌نویس نیز امکان توسعه بدافزار را فراهم کند؛ هر چند کارشناسان معتقدند این ابزارها بیشتر به افزایش تعداد قربانیان جرائم سایبری کمک می‌کنند تا ایجاد نسل کاملاً جدیدی از هکرها. از سوی دیگر، توسعه‌دهندگان این ابزارها در حال تحلیل داده‌های رفتاری کاربران هستند تا در آینده بتوانند استفاده مخرب از چت‌بات‌ها را بهتر شناسایی کنند.

این گزارش هشدار می‌دهد که صنعت امنیت سایبری باید هر چه سریع‌تر راهکارهای مقابله با سوءاستفاده از هوش مصنوعی را توسعه دهد.

کد خبر: ۳۶۳٬۱۵۳

اخبار مرتبط

اخبار رمزارزها

    برچسب‌ها

    نظر شما

    شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • captcha