۱۴ اسفند ۱۴۰۲ - ۱۱:۰۳
عصر خطرناک جنگ با هوش مصنوعی؛ چگونه می توان تهدید سلاح های خودکار را محدود کرد؟
فارن افرز تحلیل کرد

عصر خطرناک جنگ با هوش مصنوعی؛ چگونه می توان تهدید سلاح های خودکار را محدود کرد؟

دستیابی به توافق بین‌المللی در مورد سلاح‌های خودمختار برای رسیدگی به آسیب‌های آنها و ایجاد پایه‌ای برای همکاری در مورد خطرات هوش مصنوعی در آینده، حیاتی است.

بازار؛ گروه بین الملل: سایت تحلیلی فارن افرز اخیرا مقاله ای با قلم «پل شار» با عنوان «عصر خطرناک جنگ با هوش مصنوعی؛ چگونه تهدید سلاح های خودکار را محدود کنیم؟» منتشر نموده است. ترجمه متن مقاله در ادامه می آید.

سال گذشته، شرکت هواپیماهای بدون سرنشین اوکراینی ساکر ادعا کرد که یک سلاح کاملاً خودمختار به نام Saker Scout را به میدان آورده است که از هوش مصنوعی برای تصمیم‌گیری در مورد اینکه چه کسی را در میدان جنگ بکشد، استفاده می‌کند. مقامات ساکر اعلام کردند که این پهپاد حملات خودکار را در مقیاس کوچک انجام داده است. اگرچه این گزارش به طور مستقل تأیید نشده اما فناوری لازم برای ساخت چنین سلاحی قطعا وجود دارد. این یک گام فنی کوچک اما یک اقدام برای تولید سلاح‌های کاملاً خودمختار که قادر به جستجو و انتخاب اهداف به تنهایی باشند.

استقرار پهپاد ساکر نشان می دهد که بحث در مورد قوانین محدود کننده استفاده از این نوع سلاح ها بی نتیجه است. کشورها به مدت یک دهه در مورد نحوه استفاده از تسلیحات خودکار بحث کرده اند، اما هنوز نتوانسته‌اند بر روی مقرراتی برای محدود کردن آسیب‌های این نوع سلاح‌ها به توافق برسند. با این حال نیاز فوری به توافق بین المللی وجود دارد. توسعه بدون محدودیت تسلیحات خودکار می تواند منجر به جنگ هایی شود که فراتر از کنترل انسان گسترش می یابد و از حمایت های کمتری هم برای جنگجویان و هم برای غیرنظامیان برخوردار است. حتی اگر ممنوعیت عمده فروشی واقع بینانه نباشد، مقررات عملی زیادی وجود دارد که دولت ها می توانند برای کاهش بدترین خطرات سلاح های خودمختار اتخاذ کنند. بدون محدودیت، بشریت که به سوی آینده ای از جنگ خطرناک و ماشین محور حرکت می کند در خطر است.

جنگ در اوکراین به نوآوری در تسلیحات خودکار سرعت بخشید، به ویژه با فناوری های تجاری مانند هواپیماهای بدون سرنشین کوچک

از دهه ۱۹۸۰ کشورها از تسلیحات نیمه خودکار در شرایط محدود و دفاعی استفاده کرده اند. امروزه حداقل ۳۰ کشور از سیستم های دفاع هوایی و موشکی یا سیستم های حفاظت ضد موشکی برای وسایل نقلیه زمینی استفاده می کنند که حالت های خودگردان دارند. پس از فعال شدن، این سامانه‌های دفاعی می‌توانند به‌طور خودکار موشک‌ها، خمپاره‌ها و هواپیماهای وارده را حس کرده و آنها را رهگیری کنند. اما انسان ها بر عملکرد آنها نظارت دارند و اگر مشکلی پیش آمد می توانند مداخله کنند.

جنگ در اوکراین به نوآوری در هر دو طرف سرعت بخشید، به ویژه با فناوری های تجاری مانند هواپیماهای بدون سرنشین کوچک. مسکو و کیف به طور گسترده از پهپادها برای شناسایی و حملات به نیروهای زمینی استفاده کرده اند. این استقرار پهپادها به نوبه خود منجر به توسعه اقدامات متقابل جدید از جمله سیستم‌های جنگ الکترونیکی شده است که لینک‌های ارتباطی پهپادها را مختل می‌کند یا مکان اپراتورها را بر روی زمین مشخص می‌کند و سپس می‌توان به آنها حمله کرد. شکل خاصی که سلاح های خودمختار به خود می گیرند به نیازهای یک درگیری بستگی دارد.

چندین کشور از جمله چین، فرانسه، هند، روسیه، بریتانیا و ایالات متحده آمریکا در حال حاضر روی پهپادهای جنگی رادارگریز کار می کنند. در جنگ های آینده این پهپادها به طور مستقل دفاع هوایی یا پرتابگرهای موشک متحرک را هدف قرار می دهند. روبات‌های زمینی از همتایان هوایی و دریایی خود عقب مانده‌اند، اما در جنگ‌های آینده می‌توان شاهد استفاده از سلاح‌های خودمختار بر روی ربات‌ها یا محل اسلحه‌های ثابت بود.

تغییرات احتمالاً به همین جا ختم نمی شود. ازدحام پهپادها می توانند به طور مستقل رفتار خود را هماهنگ کنند و به تغییرات میدان نبرد با سرعتی فراتر از توانایی های انسانی واکنش نشان دهند. واکنش‌های خودمختار می‌تواند سرعت عملیات و سرعت نبرد را تسریع کند. این به نوبه خود می تواند فشار بیشتری را برای حذف انسان از چرخه تصمیم ایجاد کند. پیامدهای این تغییر به دوران جدیدی از جنگ ماشین‌محور عمیق خواهد بود.

یکی از شدیدترین خطرات ناشی از ادغام هوش مصنوعی و استقلال در سلاح های هسته ای است

دانشمندان برجسته هوش مصنوعی از جمله استاد دانشگاه کالیفرنیا، «استوارت راسل» و برنده جایزه تورینگ،«یانگ لکون» در مورد خطرات سلاح های خودران هشدار داده اند. کنسرسیومی متشکل از ۲۵۰ سازمان غیردولتی از جمله سازمان عفو بین‌الملل، دیده‌بان حقوق بشر و ابتکار زنان نوبل کمپین توقف ربات‌های قاتل را تشکیل داده‌اند و خواستار یک معاهده پیشگیرانه و الزام‌آور برای ممنوعیت سلاح‌های خودمختار هستند. انگیزه این هشدارها و کمپین‌ها نگرانی از این است که سلاح‌های خودمختار می‌توانند تلفات غیرنظامیان را در جنگ افزایش دهند. اگرچه سلاح های خودمختار می توانند تلفات غیرنظامیان را با هدف قرار دادن دقیق جنگجویان کاهش دهند اما در دستان دولتی که به تلفات غیرنظامیان اهمیت چندانی نمی دهد - یا می خواهند جمعیت غیرنظامی را مجازات کنند - می توانند برای ارتکاب جنایات ویرانگر استفاده شوند.

یکی از شدیدترین خطرات ناشی از ادغام هوش مصنوعی و استقلال در سلاح های هسته ای است. در سال ۲۰۲۲، ایالات متحده مدعی شد که برای تصمیم‌گیری در مورد استفاده از سلاح‌های هسته‌ای همیشه سیاست «انسان در حلقه» را حفظ خواهد کرد! بریتانیا سیاست مشابهی را در سال ۲۰۲۲ اتخاذ کرد. به نظر می رسد کنترل انسان بر سلاح های هسته ای نقطه شروع آسانی برای توافق بین المللی باشد.

استقرار گسترده سلاح‌های خودمختار که با سایر جنبه‌های هوش مصنوعی نظامی ادغام شده‌اند، می‌توانند به عصر جدیدی از جنگ ماشین‌محور منجر شوند

استقرار گسترده سلاح‌های خودمختار که با سایر جنبه‌های هوش مصنوعی نظامی ادغام شده‌اند، می‌توانند به عصر جدیدی از جنگ ماشین‌محور منجر شوند. برنامه های کاربردی هوش مصنوعی نظامی می توانند پردازش اطلاعات و تصمیم گیری را تسریع کنند. چرخه های تصمیم گیری با استفاده از هوش مصنوعی و اتوماسیون کشورها برای کاهش زمان یافتن، شناسایی و حمله به اهداف دشمن کوتاه می شود. در تئوری این مهم می تواند زمان بیشتری را برای تصمیم گیری های متفکرانه و عمدی در اختیار انسان بگذارد. در عمل رقبا مجبور خواهند شد به طور مشابه پاسخ دهند و از اتوماسیون برای سرعت بخشیدن به عملیات خود استفاده کنند. نتیجه یک مارپیچ در حال افزایش از اتوماسیون بیشتر و کنترل کمتر انسانی خواهد بود.

وضعیت نهایی این رقابت احتمالاً جنگی خواهد بود که با سرعت ماشین و خارج از کنترل انسان اجرا می شود. «چن هانگهویی»، محقق نظامی چینی از دانشکده فرماندهی ارتش آزادیبخش خلق، در مورد تکینگی در میدان نبرد فرضیه ای را مطرح کرده است، نقطه ای که در آن سرعت جنگ ماشین محور به طور مشابه از سرعت تصمیم گیری انسانی پیشی می گیرد. این نقطه عطف، انسان ها را مجبور می کند که هم برای تصمیم گیری های تاکتیکی و هم برای استراتژی های جنگی در سطح عملیاتی، کنترل را به ماشین ها واگذار کنند. ماشین‌ها نه تنها اهداف فردی را انتخاب می‌کنند، بلکه کل کمپین‌ها را نیز برنامه‌ریزی و اجرا می‌کنند. نقش انسان‌ها به روشن کردن ماشین‌ها و نشستن در حاشیه، با توانایی کمی برای کنترل یا حتی پایان دادن به جنگ‌ها کاهش می‌یابد.

بدون محدودیت‌های مؤثر، سلاح‌های خودمختار کنترل انسان بر جنگ را کاهش می‌دهند، خطر بیشتری را برای غیرنظامیان و رزمندگان ایجاد می‌کنند و ثبات بین‌المللی را تضعیف می‌کنند

مقررات بین‌المللی اگر با دقت طراحی و اجرا شوند، می‌توانند به کاهش برخی از بدترین آسیب‌های سلاح‌های خودران کمک کنند. حدود ۳۰ کشور و کنسرسیومی از سازمان های بشردوستانه خواستار یک معاهده پیشگیرانه و الزام آور قانونی برای ممنوعیت سلاح های خودمختار قبل از استقرار آنها شده اند. از آنجایی که تسلیحات خودمختار هنوز به طور کامل توسعه نیافته‌اند، آسیب‌های احتمالی و ارزش نظامی آنها ناشناخته است. بنابراین دولت ها به دلیل ادعاهای نامشخص در مورد آسیب های احتمالی آینده، تمایلی به کنار گذاشتن یک سلاح بالقوه ارزشمند ندارند.

سلاح های خودمختار می آیند. تلاش برای ممنوعیت کامل آنها، هرچند به معنای خوب، احتمالاً بیهوده است زیرا ارزش نظامی آنها خیلی زیاد است. با این حال کشورها در مورد نحوه استفاده از تسلیحات خودمختار حق انتخاب دارند. بدون محدودیت‌های مؤثر، سلاح‌های خودمختار کنترل انسان بر جنگ را کاهش می‌دهند، خطر بیشتری را برای غیرنظامیان و نظامیان ایجاد می‌کنند و ثبات بین‌المللی را تضعیف می‌کنند. برای مقابله با بدترین خطرات این تسلیحات باید فوراً اقداماتی انجام شود. انجام این کار مستلزم حرکت فراتر از انتخاب ساده و گمراه‌کننده کنونی بین ممنوعیت همه سلاح‌های خودمختار و بدون محدودیت است.

سلاح های خودمختار آزمایش اولیه توانایی بشر برای مقابله با هوش مصنوعی تسلیحاتی است که اشکال خطرناک تری از آن در راه است. سیستم های پیشرفته هوش مصنوعی توانایی کمک به توسعه سلاح های سایبری و سلاح های شیمیایی و بیولوژیکی را نشان داده اند. همکاری جهانی برای کنترل بهبود آنها، محدود کردن گسترش آنها و محافظت در برابر استفاده بالقوه آنها ضروری است. دستیابی به توافق بین‌المللی در مورد سلاح‌های خودمختار برای رسیدگی به آسیب‌های آنها و ایجاد پایه‌ای برای همکاری در مورد خطرات هوش مصنوعی در آینده، حیاتی است.

کد خبر: ۲۷۶٬۱۹۷

اخبار مرتبط

اخبار رمزارزها

    برچسب‌ها

    نظر شما

    شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • captcha