۱۰ بهمن ۱۴۰۰ - ۱۰:۰۶
پنج راه حل جهت اطمینان از پایداری ابتکارات هوش مصنوعی
بازار گزارش می‌دهد؛

پنج راه حل جهت اطمینان از پایداری ابتکارات هوش مصنوعی

سازمانها باید از موفقیت بلندمدت و پایداری ابتکارات هوش مصنوعی اطمینان حاصل کنند.

بازار؛ گروه بین الملل: امروزه، تقریباً هر شرکتی - حتی شرکت‌هایی با تیم‌های بزرگی از دانشمندان و مهندسان داده پیچیده - می‌توانند با مدل‌های یادگیری ماشینی (ML) که در دنیای واقعی به طرز شگفت‌انگیزی شکست می‌خورند، به کار خود ادامه دهند.

خواه مدل‌های پیش‌بینی تقاضا باشد که توسط اقتصاد کووید اصلاح شده‌اند یا مدل‌هایی که نرم‌افزار منابع انسانی را تقویت می‌کنند که به‌طور ناخواسته علیه جویندگان کار بالقوه تبعیض قائل می‌شوند، مشکلات مدل‌ها رایج هستند و در صورت عدم نظارت و تشخیص زودهنگام خطرناک هستند.

با درک این واقعیت، تعداد فزاینده ای از شرکت ها – از آلفابت و آمازون گرفته تا بانک آمریکا، اینتل، متا و مایکروسافت – بی سر و صدا استفاده خود از هوش مصنوعی (یا مقررات بالقوه آن) را به عنوان عامل خطر در آخرین گزارش های مالی سالانه خود افشا می کنند.

علیرغم خطرات، بیشتر شرکت ها با اطمینان در حال پیشرفت هستند. امروزه، تقریباً هر صنعتی برای افزایش سودآوری، بهره‌وری و حتی نجات جان انسان‌ها، به سیستم‌های مجهز به یادگیری ماشینی متکی است. در مجموع پیش بینی می شود هزینه‌های شرکت‌های جهانی برای هوش مصنوعی تا سال ۲۰۲۵ به ۲۰۴ میلیارد دلار خواهد رسید.

بنابراین چگونه شرکت ها می توانند قدرت فوق العاده و خطر بالقوه هوش مصنوعی را متعادل کنند و نتایج مثبت را برای مشتریان و جامعه در کل به حداکثر برسانند؟
در اینجا پنج راه حل ارائه می شود که هر شرکتی می تواند برای اطمینان از پایداری ابتکارات هوش مصنوعی به آن ها توجه کند.

۱.تیم هایی که هوش مصنوعی را ایجاد و به کار می گیرند - و مجموعه داده های مورد استفاده برای آموزش مدل ها - باید نماینده تنوع مشتریان و جامعه در کل باشد. در دنیای هوش مصنوعی و یادگیری ماشینی، داده‌ها و مدل‌ها گاهی اوقات می‌توانند حقایق سخت تجربه زندگی یک فرد را پنهان کنند. از آنجایی که مدل‌های یادگیری ماشینی بر اساس داده‌های تاریخی آموزش دیده‌اند، می‌توانند هرگونه تبعیض یا ساختار قدرت نابرابر موجود در آن داده‌های تاریخی را تقویت کنند.تنها راه حل واقعی برای این مشکل، تنوع مشتریان و جامعه در کل است.

۲.همانطور که سازمان ها حریم خصوصی را مدیریت می‌کنند، شرکت‌ها باید یک چارچوب مدون اخلاقی و مدیریت ریسک برای هوش مصنوعی ایجاد کنند. رویکرد مبتنی بر فناوری به تنهایی نمی‌تواند هر خطری را کاهش دهد یا هوش مصنوعی را از نظر اخلاقی مسئول کند. پاسخ باید شامل پیاده‌سازی سیستم‌هایی باشد که ریسک‌های اخلاقی و سازمانی را در سراسر شرکت، از فناوری اطلاعات تا منابع انسانی، بازاریابی تا محصول و فراتر از آن، شناسایی می‌کند و افراد را تشویق می‌کند تا بر اساس آنها عمل کنند. در حالی که فناوری اغلب پیش نیاز ضروری برای نشان دادن مشکلات صحیح است، کارکنان باید برای عمل بر روی این بینش‌ها توانمند شوند.

۳. شرکت‌ها باید اطمینان حاصل کنند که یک خط‌مشی داده مدرن دارند که به متخصصان هوش مصنوعی اجازه می دهند در صورت نیاز به داده‌های محافظت‌شده دسترسی داشته باشند. دانشمندان داده و مهندسان یادگیری ماشینی نمی توانند آنچه را که نمی بینند درست کنند.

حرکت به سمت چارچوب هوش مصنوعی مسئول به معنای مدرن کردن سیاست‌ها در مورد دسترسی به داده‌ها و در برخی موارد گسترش مجوزها بر اساس نقش است. بیشتر شرکت‌ها در توسعه نرم‌افزار در این امر مهارت دارند - جایی که دسترسی به سیستم‌های تولید به شدت مدیریت می‌شود - اما تعداد کمتری از آنها دارای نظارت دقیق در مورد دسترسی به داده‌های مشتری در یادگیری ماشین هستند.

۴.باید بر انتقال هوش مصنوعی نظارت وجود داشته باشد. نیاز به ابزارهای بهتر برای نظارت و عیب‌یابی عملکرد مدل یادگیری ماشینی در دنیای واقعی - و کمک به تیم‌ها برای رفع مشکلات قبل از تأثیرگذاری بر نتایج تجاری - واضح است. حتی پیچیده‌ترین تیم‌های علم داده همچنان اشکالاتی را کشف می‌کنند که در عملکرد مدل پنهان می‌شوند.

پنج سال پیش تنها شرکت‌هایی که دارای منابع کافی بودند، نیروی انسانی لازم برای ساخت این ابزارها را در داخل داشتند. امروزه، یک اکوسیستم به سرعت در حال بلوغ وجود دارد تا حتی به تیم‌های ضعیف کمک کند تا مدل‌ها را بهتر اعتبارسنجی و نظارت کنند، زیرا با مشکلاتی در تولید مواجه می‌شوند.

۵.با توجه به اهمیت فزاینده هوش مصنوعی برای عملیات حیاتی کسب و کار، تیم‌های فنی که مدل‌های یادگیری ماشینی را به کار می‌گیرند و همتایان اجرایی آن‌ها باید در یک راستا حرکت کنند.

بسیاری از ابزارهای مدرن زمانی که به درستی پیکربندی شوند می توانند به تیم های فنی و اجرایی خدمت کنند. در صنایع به شدت تحت نظارت مانند امور مالی، شفافیت مدل یادگیری ماشینی توسط قانون الزامی است، اما واقعیت این است که هر صنعتی باید بتواند به درون خود نگاه کند و بفهمد که چرا یک مدل پیش بینی خاصی را انجام داده است.

با سرمایه‌گذاری برای دستیابی به توضیح‌پذیری مدل و به طور جدی‌تر، انجام تجزیه و تحلیل علت ریشه‌ای در صورت شکست یک مدل، تیم‌های یادگیری ماشینی می‌توانند به مدیران کمک کنند تا سیستم‌های هوش مصنوعی را بهتر درک کنند و از اهداف حکومت‌داری گسترده‌تر اطمینان حاصل کنند.

از آنجایی که شرکت‌ها خلق ارزش پایدار را در اولویت قرار می‌دهند، زمان آن فرا رسیده است که هوش مصنوعی به بخش بزرگ‌تری از گفتگو و بجث تبدیل شود. با انجام چند قدم ساده، سازمان‌ها می‌توانند مسیر طولانی و پایداری را در دستیابی به ابتکارات هوش مصنوعی انعطاف‌پذیر که به نفع همه ذینفعان است، پیش ببرند.

کد خبر: ۱۳۱٬۷۸۱

اخبار مرتبط

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • captcha