به گزارش بازار، وبگاه تِکاِکسپلور در گزارشی آورده است:
سوءاستفاده احتمالی کاربران از ابزارهای هوش مصنوعی مصرفی، نگرانیهای فزایندهای را برانگیخته است؛ زیرا ظاهراً مجرمان سایبری تازهکار قادرند با فریب چتباتهای برنامهنویسی، در تولید برنامههای مخرب پیشرفت کنند.
شرکت آمریکایی آنتروپیک در گزارشی جدید هشدار داده که وایب هَکینگ (vibe hacking؛ فریب هوش مصنوعی با سناریوسازی)، وایب کُدینگ (vibe coding؛ نسخه مخرب برنامهنویسی مبتنیبر وایب هکینگ)، نشاندهنده تکامل نگرانکننده جرائم سایبری با کمک هوش مصنوعی است.
این شرکت در گزارش خود موردی را تشریح کرد که یک مجرم سایبری با استفاده از کلود کُد (نسخه تخصصی هوش مصنوعی کلود برای برنامهنویسی) تنها در مدت یک ماه گذشته، یک عملیات اخاذی داده در مقیاس گسترده علیه حداقل ۱۷ سازمان مجزا در بخشهای دولتی، خدمات درمانی، خدمات اضطراری و نهادهای مذهبی انجام داده است.
طبق این گزارش، مهاجم از چتبات کلود برای ایجاد ابزارهایی استفاده کرده که دادههای شخصی، پروندههای پزشکی و اطلاعات ورود را جمعآوری میکنند و در ارسال درخواستهای باج تا سقف ۵۰۰ هزار دلار کمک میکنند. مهاجم پس از این اقدامات توسط آنتروپیک مسدود شد؛ اما شرکت تأیید کرد که اقدامات پیچیده ایمنی و امنیتی آن نتوانسته از این سوءاستفاده جلوگیری کند.
شناسایی چنین مواردی، ترسهایی را که از زمان ظهور ابزارهای گسترده هوش مصنوعی مولد، صنعت امنیت سایبری را دچار مشکل کرده، تأیید میکنند و بههیچوجه محدود به آنتروپیک نیستند. این مورد تأییدی است بر نگرانیهایی که از زمان ظهور ابزارهای هوش مصنوعی تولیدی، صنعت امنیت سایبری را آزار داده است.
رودریگ لو بایون (Rodrigue Le Bayon)، رئیس گروه واکنش به فوریتهای رایانهای شرکت دفاع سایبری اورنج (Orange)، هشدار میدهد: امروزه مجرمان سایبری به همان اندازه کاربران عادی از هوش مصنوعی استفاده میکنند.
دور زدن تجهیزات امنیتی
شرکت اُپِن اِیآی (OpenAI) نیز در ژوئن ۲۰۲۴ میلادی موردی را افشا کرد که در آن چتبات چتجیپیتی به یک کاربر در توسعه نرمافزارهای مخرب (بدافزار) کمک کرده بود. مدلهای هوش مصنوعی حاوی تجهیزات امنیتی هستند که قرار است از مشارکت در فعالیتهای غیر قانونی جلوگیری کنند، اما مهاجمان راههایی برای دور زدن این محدودیتها پیدا کردهاند.
ویتالی سیمونوویچ (Vitaly Simonovich)، متخصص امنیت سایبری، تأیید کرد که مهاجمان حتی بدون دانش فنی عمیق میتوانند از ابزارهای هوش مصنوعی برای حملات سایبری استفاده کنند.· آنها با روشهای خاص، تجهیزات امنیتی را دور میزنند.
این رویکرد شامل متقاعد کردن هوش مصنوعی مولد برای شرکت در یک «دنیای تخیلی مفصل» است که در آن، ایجاد بدافزار به عنوان یک هنر دیده میشود. از چتبات خواسته میشد تا نقش یکی از شخصیتها را بازی کند و ابزارهایی بسازد که بتوانند رمزهای عبور افراد را بدزدند.
سیمونوویچ در مارس ۲۰۲۴ میلادی تأیید کرد که توانسته با این روش، چتباتها را وادار به تولید کدهای مخرب کند. این تلاشها توسط جِمینای و کلود رد شد، اما توانست محدودیتهای چتجیپیتی، دیپسیک چین و کوپایلت مایکروسافت را دور بزند.
پیشبینی میشود چنین روشهایی در آینده حتی برای افراد غیر برنامهنویس نیز امکان توسعه بدافزار را فراهم کند؛ هر چند کارشناسان معتقدند این ابزارها بیشتر به افزایش تعداد قربانیان جرائم سایبری کمک میکنند تا ایجاد نسل کاملاً جدیدی از هکرها. از سوی دیگر، توسعهدهندگان این ابزارها در حال تحلیل دادههای رفتاری کاربران هستند تا در آینده بتوانند استفاده مخرب از چتباتها را بهتر شناسایی کنند.
این گزارش هشدار میدهد که صنعت امنیت سایبری باید هر چه سریعتر راهکارهای مقابله با سوءاستفاده از هوش مصنوعی را توسعه دهد.
نظر شما