۲۳ فروردین ۱۴۰۱ - ۱۱:۱۳
خطرات عدم همسویی هوش مصنوعی با ارزش های انسانی
بازار گزارش می دهد؛

خطرات عدم همسویی هوش مصنوعی با ارزش های انسانی

در حوزه هوش مصنوعی (AI)، مشکل هم ترازی به چالش های ناشی از این واقعیت اشاره دارد که رباتها دارای ارزش های مشابه ارزش های انسانی نیستند.

بازار؛ گروه بین الملل: در حوزه هوش مصنوعی (AI، مشکل هم ترازی به چالش های ناشی از این واقعیت اشاره دارد که رباتها دارای ارزش های مشابه ارزش های انسانی نیستند. در واقع در سطح بنیادی وقتی نوبت به ارزش‌ها می‌رسد، رباتها واقعاً پیچیده‌تر از درک این موضوع نیستند که ۱ با ۰ متفاوت است.

در جامعه امروزی اکنون در نقطه‌ای هستیم که به ماشین‌ها اجازه می‌دهیم برای ما تصمیم بگیرند. پس چگونه می‌توان انتظار داشت آنها بفهمند که باید این کار را به گونه‌ای انجام دهند که متضمن تعصب نسبت به افراد از نژاد یا جنسیت خاص نباشد؟ یا اینکه دنبال سرعت یا کارآمدی یا سود باید به گونه ای باشند که به قداست نهایی زندگی انسان احترام بگذارد؟

از نظر تئوری، اگر به یک خودروی خودران بگویید که از نقطه A به نقطه B حرکت کند، بدون توجه به ماشین‌ها، عابران پیاده یا ساختمان‌هایی که در مسیر خود تخریب می‌کند، می‌تواند مسیر خود را به مقصد برساند.

«نیک بوستروم» استاد دانشگاه آکسفورد در این ارتباط می گوید: اگر به یک ماشین هوشمند بگویید گیره کاغذ بسازد، ممکن است در نهایت تمام جهان را در تلاش برای تبدیل مواد خام به گیره کاغذ نابود کند. اصل این است که هیچ درکی از ارزش جان انسان یا مواد ندارد یا اینکه برخی چیزها آنقدر ارزشمند هستند که به گیره کاغذ تبدیل شوند مگر اینکه به طور خاص به آن آموزش داده شود.

بر این اساس آخرین کتاب «برایان کریستین» در مورد شکل هم ترازی - اینکه چگونه هوش مصنوعی ارزش های انسانی را یاد می گیرد - می باشد. سومین کتاب او در زمینه هوش مصنوعی پس از آثار قبلی او، در مورد الگوریتم هایی برای زندگی است.

تمرکز او بر پیامدهای اجتماعی، فلسفی و روانی توانایی روزافزون ما برای ایجاد تفکر و ماشین های یادگیری است. در هر صورت، این جنبه ای از هوش مصنوعی است که در آن به بهترین متفکران نیاز داریم تا تلاش های خود را متمرکز کنند.

به هر حال، فناوری در حال حاضر در نقطه ای است که درکی از ارزش های انسانی ندارد و فقط بهتر خواهد شد. چیزی که خیلی کمتر قطعی است این است که آیا جامعه به اندازه کافی بالغ است و تدابیر امنیتی کافی برای استفاده از فرصت های شگفت انگیزی که هوش مصنوعی ارائه می دهد وجود دارد یا خیر؟

یکی از رویدادهایی که کریستین برای نشان دادن این که چگونه این ناهماهنگی می‌تواند در دنیای واقعی رخ دهد، استفاده می‌کند، اولین مرگ ثبت شده یک عابر پیاده در برخورد با یک خودروی خودران است - مرگ «الین هرزبرگ» در آریزونا ایالات متحده، در سال ۲۰۱۸.

هنگامی که هیئت ملی ایمنی حمل و نقل بررسی کرد که چه چیزی باعث برخورد بین وسیله نقلیه آزمایشی اوبر و هرزبرگ شده بود، متوجه شدند که هوش مصنوعی کنترل کننده ماشین هیچ اطلاعی از مفهوم عابرپیاده ندارد و برای مواجهه با فردی که در میانه راه، جایی که نباید می بود، کاملاً آماده نبود.

کتاب کریستین در ادامه به بررسی این موضوعات می‌پردازد زیرا به بسیاری از پارادایم‌های مختلف که در حال حاضر در زمینه یادگیری ماشین محبوب هستند، مانند یادگیری بدون نظارت، یادگیری تقویتی و یادگیری تقلیدی مربوط می‌شوند. به نظر می رسد که هر یک از آنها چالش های خاص خود را در مورد همسویی ارزش ها و رفتار ماشین ها با انسان هایی که از آنها برای حل مشکلات استفاده می کنند، ارائه می دهند.

گاهی اوقات این واقعیت که یادگیری ماشین تلاش می کند تا یادگیری انسان را تکرار کند، دلیل مشکلات است. این امر ممکن است زمانی اتفاق بیفتد که اشتباهات در داده‌ها به این معنی باشد که هوش مصنوعی با موقعیت‌ها یا رفتارهایی مواجه می‌شود که هرگز در زندگی واقعی، مغز انسان با آنها مواجه نمی‌شود. این بدان معناست که هیچ نقطه مرجعی وجود ندارد و دستگاه احتمالاً به اشتباهات بیشتر و بیشتری در یک سری از شکست‌های آبشاری ادامه می‌دهد.

در یادگیری تقویتی - که شامل آموزش ماشین‌ها برای به حداکثر رساندن شانس خود برای دستیابی به پاداش برای تصمیم‌گیری درست است - ماشین‌ها می‌توانند به سرعت یاد بگیرند که خوب بازی کنند و این امر ممکن است منجر به نتایجی ‌شود که با نتایج مورد نظر ارتباطی ندارند.

در اینجا کریستین از تلاش آسترو تلر برای تشویق ربات‌های فوتبالیست جهت برنده شدن در مسابقات استفاده می‌کند. او سیستمی را ابداع کرد که هر بار که روبات‌ها توپ را در اختیار می‌گرفتند، به آنها پاداش می‌داد - در ظاهر عملی که به نظر می‌رسد برای برنده شدن در مسابقه مفید باشد.

با این حال، ماشین ها به سرعت یاد گرفتند که به سادگی به توپ نزدیک شوند و بارها آن را لمس کنند. از آنجایی که این بدان معنا بود که آنها به طور مؤثر توپ را بارها و بارها در اختیار می گرفتند، آنها جوایز متعددی را به دست آوردند - اگرچه وقتی نوبت به پیروزی در مسابقه می رسید، فایده چندانی نداشت!

کتاب کریستین مملو از نمونه‌های دیگری از این مشکل هم‌ترازی است و همچنین کاوش کاملی در مورد اینکه در زمان حل آن کجا هستیم. همچنین به وضوح نشان می‌دهد که چگونه بسیاری از نگرانی‌های نخستین پیشگامان در زمینه هوش مصنوعی و ML هنوز حل نشده است و موضوعات جذابی مانند تلاش برای آغشته کردن ماشین‌ها به ویژگی‌های دیگر هوش انسانی مانند کنجکاوی را مورد بررسی قرار می‌دهد.

کد خبر: ۱۴۳٬۵۸۲

اخبار مرتبط

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • captcha