۲۸ مرداد ۱۴۰۲ - ۰۸:۵۹
هوش مصنوعی نژادپرست است|  الگوریتم های حاکم بر زندگی ما، مستعد تکرار اشتباهات بزرگ گذشته اند!
استاد دانشگاه لندن در گفتگو با بازار:

هوش مصنوعی نژادپرست است| الگوریتم های حاکم بر زندگی ما، مستعد تکرار اشتباهات بزرگ گذشته اند!

«آرشین ادیب مقدم» معتقد است تک تک جنبه های زندگی معاصر در جوامع با تکنولوژی بالا تحت تأثیر فناوری هوش مصنوعی قرار گرفته است.

بازار؛ گروه بین الملل: بر اساس کتاب جدید آرشین ادیب مقدم، استاد اندیشه جهانی و فلسفه های تطبیقی در دانشگاه لندن، نژادپرستی و تبعیض جنسی مدرن باید غلبه شود تا جامعه پساانسانی پایداری بسازیم که در آن بتوانیم در کنار دوستان سایبورگ خود در صلح باشیم.

«آیا هوش مصنوعی نژادپرستانه است؟، اخلاق هوش مصنوعی و آینده بشریت» موضوع فراگیر نژادپرستی را در الگوریتم هایی که زندگی روزمره ما را شکل می دهد روشن می کند و خواستار آینده ای فراگیرتر و مسئولانه تر است.

پروفسور آرشین ادیب مقدم با تحقیق و تحلیل خود، نقش غول‌های فناوری و شخصیت‌های تأثیرگذار مانند ایلان ماسک، مارک زاکربرگ و بیل گیتس را تشریح می‌کند تا نشان دهد که چگونه ایده‌ها و اقدامات آنها در گسترش اشکال مختلف افراط‌گرایی کمک می‌کند.

بسیاری از مردم متوجه نیستند که هر جنبه حیاتی از زندگی ما قبلاً توسط نوعی هوش مصنوعی کنترل می شود - بانکداری، مراقبت های بهداشتی، خرید، ایمیل ها، رسانه های اجتماعی و غیره - و برخی از الگوریتم ها به وضوح تبعیض آمیز هستند. خطر این است که ما با چشم بسته از اشتباهات گذشته وارد این عصر جدید وجود انسان می شویم.

این کتاب بر تأثیر قابل توجه غول های فناوری تأکید می کند. نویسنده با گشودن شبکه پیچیده ارتباطات بین نژادپرستی عصر روشنگری و شیوه های تبعیض آمیز که در الگوریتم های امروزی جاسازی شده است، آشکار می کند که چگونه فناوری به طور ناخواسته سلسله مراتب اجتماعی و مرزهای تبعیض آمیز را تثبیت می کند.

تجزیه و تحلیل کتاب از داده هایی که به فناوری هوش مصنوعی می خورند، دیدگاهی انتقادی در مورد پیامدهای بالقوه برای امنیت بین المللی و حقوق بشر ارائه می دهد. ادیب مقدم با برجسته کردن پیامدهای هشداردهنده توسعه کنترل نشده هوش مصنوعی، جامعه را ترغیب می کند تا در مورد نیاز فوری به دستورالعمل های اخلاقی و حکمرانی مسئولانه در این زمینه فکر کند. تجزیه و تحلیل و بینش او خوانندگان را وادار می کند تا در مورد خطرات بالقوه پیشرفت فن آوری کنترل نشده فکر کنند.

در ادامه گفتگوی خبرنگار بازار با پروفسور «آرشین ادیب مقدم»، رئیس مرکز مطالعات ایران در مدرسه مطالعات شرقی و آفریقایی دانشگاه لندن در مورد این کتاب آمده است.

«آرشین ادیب مقدم»، استاد کامل «سیاست در غرب آسیا» در دانشگده مطالعات شرقی و آفریقایی در دانشگاه لندن است. کتاب «روانشناسی ناسیونالیسم، تفکرات جهانی، تصورات ایرانی» که از سوی انتشارات «دانشگاه کمبریج» منتشر شده از جمله آثار وی است.

*در کتاب «آیا هوش مصنوعی نژادپرستانه است؟، اخلاق هوش مصنوعی و آینده بشریت» به موضوع تبعیض نژادی و جسنی در هوش مصنوعی پرداخته اید. اهمیت این موضوعات در عصر دیجیتال چیست؟

این کتاب نشان می دهد که چگونه فناوری هوش مصنوعی تبعیض جنسی و نژادپرستی را در جامعه ترکیب می کند، اگر هوش مصنوعی کنترل نشده و تنظیم نشده باقی بماند.

این کتاب ریشه‌های تاریخی داده‌های آلوده ما را، به‌ویژه در جوامع اروپایی و آمریکای شمالی، ردیابی می‌کند و برخی از مشکلات را با اشاره به نهادهای جهانی و فعالیت‌های جامعه مدنی به راه‌حل‌هایی برای آینده مرتبط می‌کند.

*کتاب شما به نوعی موضوع اخلاق در فناوری و نگرانی در مورد چگونگی توجه به اخلاق در هوش مصنوعی را مطرح می کند. به نظر شما، هوش مصنوعی در چه زمینه هایی ممکن است اخلاق را نادیده بگیرد؟ شما معتقدید که بسیاری از جنبه های زندگی انسان در گذشته توسط هوش مصنوعی کنترل می شد. به نظر می رسد نگران این هستید که انسان ها وارد دنیایی شوند که در آن هوش مصنوعی کنترل بیشتری بر زندگی انسان ها دارد. به نظر شما افزایش آگاهی در این زمینه وظیفه کیست؟

تک تک جنبه های زندگی معاصر در جوامع با تکنولوژی بالا تحت تأثیر فناوری هوش مصنوعی قرار گرفته و به طور فزاینده ای تعیین می شود. این شامل مراقبت‌های بهداشتی، بانکداری روزمره، آموزش و غیره است. این کتاب نشان می‌دهد که الگوریتم‌های حاکم بر آن حوزه‌های زندگی ما مستعد اشتباهات گذشته هستند - تاریخ دردناک تبعیض و سرکوب سیستماتیک اقلیت‌ها متأسفانه بخشی از آن است. بنابراین، کتاب با مجموعه ای از توصیه ها برای زندگی روزمره به پایان می رسد، کارهایی که می توانیم برای محافظت از حریم خصوصی خود انجام دهیم.

هوش مصنوعی تنها پیشرفت در تاریخ جهانی ما است که ممکن است نظارت و کنترل انسانی را از بین ببرد

همچنین بخش‌های مختلفی در مورد گزینه‌های حکمرانی، در سطح محلی، ملی و بین‌المللی وجود دارد که ممکن است به شروع گفت‌وگوی جهانی درباره تدوین یک اجماع در مورد ضوابط رفتار برای برنامه‌های کاربردی مبتنی بر هوش مصنوعی کمک کند. در پایان، این ما شهروندان هستیم که نیاز به افزایش آگاهی و مشارکت دولت های خود داریم تا اطمینان حاصل کنیم که فناوری مبتنی بر هوش مصنوعی امنیت انسانی ما را تهدید نمی کند، بلکه آن را تقویت می کند. این امکان پذیر است و کتاب نشان می دهد که چرا انجام آن ضروری و ممکن است.

فناوری مبتنی بر هوش مصنوعی قبلاً نشان داده است که این پتانسیل را دارد که نظم سیاسی را مختل کند

*عواقب توسعه کنترل نشده هوش مصنوعی بر امنیت بین المللی و حقوق بشر چیست؟

فناوری مبتنی بر هوش مصنوعی قبلاً نشان داده است که این پتانسیل را دارد که نظم سیاسی را مختل کند. انتخاب دولت های دست راستی، از جمله دونالد ترامپ، برگزیت و سایر تحولات عمده توسط برخی از این الگوریتم ها انجام شد. علاوه بر این، با توجه به ماهیت خود-بهبود فناوری که با هر چیزی که قبلاً با آن مواجه شده‌ایم قابل مقایسه نیست، فناوری هوش مصنوعی می‌تواند به یک تهدید وجودی برای بشریت، یعنی برای گونه ما به عنوان یک کل تبدیل شود، زیرا هوش مصنوعی تنها پیشرفت در تاریخ جهانی ما است که ممکن است نظارت و کنترل انسانی را از بین ببرد.

مجدداً تأکید می کنم که اکنون زمان جلوگیری از این امر و تنظیم دستور کار است که سوء استفاده شرورانه از هوش مصنوعی را به عنوان وسیله ای برای حمل اشکال مختلف افراط گرایی و سیستم های سرکوبی مستقر به حداقل برساند.

استدلال نمی کنم که ماسک، زاکربرگ و گیتس شخصاً مسئول هستند و من اصلاً به این دیدگاه خنده دار و در عین حال رایج در رسانه های اجتماعی مبنی بر اینکه آنها بخشی از یک توطئه جهانی برای اداره جهان هستند، پایبند نیستم. با این حال، کتاب نشان می دهد که ایدئولوژی که شرکت های آنها به آن پایبند هستند، انگیزه امپریالیستی دارد

*با توجه به کارکردی که هوش مصنوعی برای دولت ها دارد، فکر می کنید شرکت های مرتبط با هوش مصنوعی چقدر به اخلاقیات توجه می کنند و صرفاً منافع دولت ها را در نظر نمی گیرند؟ زیرا معتقدید افرادی مانند ایلان ماسک، مارک زاکربرگ و بیل گیتس به اشکال مختلف افراط گرایی کمک کرده اند.

من استدلال نمی کنم که ماسک، زاکربرگ و گیتس شخصاً مسئول هستند و من اصلاً به این دیدگاه خنده دار و در عین حال رایج در رسانه های اجتماعی مبنی بر اینکه آنها بخشی از یک توطئه جهانی برای اداره جهان هستند، پایبند نیستم. با این حال، کتاب نشان می دهد که ایدئولوژی که شرکت های آنها به آن پایبند هستند، انگیزه امپریالیستی دارد، یعنی همه چیز در مورد توسعه طلبی است. فقط این است که نوع توسعه طلبی با اشکال قبلی متفاوت است، زیرا قلمرو فیزیکی را هدف نمی گیرد، بلکه دنیای دیجیتال/مجازی را هدف قرار می دهد.

بنابراین منطق آنها برای جذب ما در دنیای دیجیتال/مجازی از طریق اینترنت، رسانه های اجتماعی یا اختراعات جدید مانند دنیای مجازی منطقی است، زیرا اینجاست که ما به مصرف کنندگان سازگار تبدیل می شویم، تحت نظارت و کنترل قرار می گیریم. مطابق با حاشیه سودی که این شرکت ها سعی در به حداکثر رساندن آن دارند. این نوع امپریالیسم نه در یک قلمرو یا یک مکان قرار دارد، نه آمریکایی آمریکایی یا آسیایی یا چیزی دیگر، زیرا شهروندان آن مناطق خود هدف اصلی چنین رژیم های سرمایه داری امپریالیستی هستند. در واقع، نابودی دموکراسی در ایالات متحده و از دست دادن همزمان ثبات در این کشور که به وجود آمده است، می تواند مستقیماً به قدرت امپریالیستی «غول های فناوری» و تأثیر گالوانیزه بر اشکال مختلف افراط گرایی مرتبط باشد که با آن کنار آمد. مجدداً، این کتاب این ارتباطات جهانی را ایجاد می‌کند و نشان می‌دهد که چگونه می‌توانیم از تهدیدها و فرصت‌ها عبور کنیم تا از عزیزانمان و آینده جامعه آنطور که می‌شناسیم محافظت کنیم.

کد خبر: ۲۳۷٬۸۸۱

اخبار مرتبط

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • captcha