چت‌ربات‌های هوش مصنوعی می‌توانند خطرات سایبری داشته باشند

چت‌ربات‌های هوش مصنوعی می‌توانند خطرات سایبری داشته باشند

مقامات انگلیسی درباره ادغام چت‌بات‌های مبتنی بر هوش مصنوعی در کسب‌وکار سازمان‌های مختلف هشدار دادند.

به گزارش بازار، به گفته مقامات انگلیسی تحقیقات نشان داده که می‌توان این ابزارها را برای انجام کارهای خطرناک فریب داد.

مرکز امنیت سایبری ملی انگلیس (NCSC) در یک پست وبلاگی اعلام کرد که کارشناسان هنوز نتوانسته اند مشکلات امنیتی مرتبط با الگوریتم‌هایی را شناسایی کنند که می‌توانند تعاملات انسانی ایجاد کنند و به مدل‌های زبانی بزرگ (LLM) مشهورند.

استفاده از ابزارهای مبتنی بر هوش مصنوعی نه تنها به رشد کاربرد چت‌بات‌ها منجر شده بلکه برخی معتقدند علاوه بر آنکه جایگزین جستجوی اینترنتی می‌شود، بخش سرویس‌های مشتریان و تماس‌ها برای فروش را نیز از آنِ خود می‌کند.

طبق گزارش مرکز امنیت سایبری ملی انگلیس، این ابزارها می‌توانند خطراتی را به همراه داشته باشند، به ویژه اگر مدل‌های زبانی بزرگ به سایر عناصر فرآیندهای تجاری سازمان متصل شوند.

محققان بارها راه‌هایی یافته‌اند که با ارسال دستورهای ممنوع به چت‌بات‌ها یا گمراه کردن آن‌ها و دور زدن اقدامات محافظتی، این ابزارها را از کار می‌اندازند.

به عنوان مثال، یک ربات‌چت مبتنی بر هوش مصنوعی که توسط یک بانک استفاده شده، ممکن است فریب داده شود تا یک تراکنش غیرمجاز انجام دهد.

NCSC در یکی از پست‌های وبلاگی خود با اشاره به ارائه ازمایشی نسخه‌های نرم‌افزاری اعلام کرد: سازمان‌های خدماتی که از LLM استفاده می‌کنند باید مانند زمانی که یک محصول یا کدی را در وضعیت بتا ارائه می‌کنند، مراقب باشند.

ممکن است سازمان‌ها اجازه ندهند آن محصول آزمایشی از سوی مشتری تراکنشی انجام دهد و به طور کلی آن را معتبر ندانند. همین اقدامات احتیاطی باید در مدل‌های زبانی بزرگ نیز انجام شود.

پیامدهای امنیتی هوش مصنوعی نیز همچنان در کانون توجه قرار دارد و مقامات سراسر جهان می‌گویند که شاهد استقبال هکرها از این فناوری بوده اند.

کد خبر: ۲۴۰٬۶۴۰

اخبار مرتبط

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • captcha