۱۵ مرداد ۱۳۹۹ - ۰۶:۵۸
حفظ حریم خصوصی در  صنعت بیومتریک در نظر گرفته شود
در راستای تنظیم مقررات  

حفظ حریم خصوصی در  صنعت بیومتریک در نظر گرفته شود

بیومتریک یا تشخیص چهره یکی از فناوری هایی است که این روزها به دلیل همه گیری کرونا ویروس و کاهش تماس در بیشتر جاها از آن استفاده می شود  از این رو لازم است تا بیشتر در زمینه حریم خصوصی و امنیت آن دقت و توجه شود.

فرحناز سپهری؛ بازار: سایت «بیومتریک براساس گزارش جدید شرکت  ارنست اند یانگ (EY )، شرکت های درگیر در سنجش بیومتریک و سایر کاربردهای هوش مصنوعی  هنوز به توافق نرسیده اند که اصول اخلاقی را در اولویت بندی قرار دهند، درحالی که  این مساله می تواند با تغییر سیاست گذاران برای تنظیم مقررات، مشکلاتی را برای آنها ایجاد کند. بررسی های تشخیص چهره برای مکان هایی مانند فرودگاه ها، هتل ها و بانک ها و نظارت بر اجرای قانون از جمله استفاده از بیومتریک صورت، از موارد مورد استفاده خاص است که در این گزارش در نظر گرفته شده است.

این گزارش  که تحت عنوان «Bridging AI’s trust gaps» توسط شرکت  ارنست اند یانگ  با همکاری The Future Society تهیه شده است، نشان می دهد ناهماهنگی بین شرکت های فناوری های هوش مصنوعی با سیاستگذاران وجود دارد و این امر خطرات جدیدی را برای آنها ایجاد می کند. ارنست اند یانگ استدلال می کند که اشخاص ثالث (Third parties)  می توانند در پر کردن این شکاف اعتماد، نقش داشته باشند.

برای تشخیص بیومتریک چهره، «انصاف و اجتناب از تعصب» اولویت اصلی سیاستگذاران است، به دنبال آن «حفظ حریم خصوصی و محافظت از داده ها» و «شفافیت». این درحالی است که در بین شرکت ها، حریم خصوصی و محافظت از داده ها در صدر لیست اولویتها  و پس از آن ایمنی و امنیت و سپس شفافیت قرار دارد.

از طرفی باید اشاره کرد که اتخاذ رویکرد  ذینفعان برای حاکمیت این مساله  ضروری است، تقریباً بیش از دو سوم (۶۹ درصد) از شرکت ها میگویند که تنظیم کننده ها پیچیدگی های فناوری هوش مصنوعی و چالش های تجاری را درک می کنند و از طرفی تقریباً همین تعداد سیاست گذاران (۶۶ درصد) می گویند که این کار را نمی کنند.

گیل فورر، سرپرست بخش  بازار دیجیتال و تجارت ارنست اند یانگ، اظهار داشت: با توجه به اینکه هوش مصنوعی در برنامه های کاربردی جدید افزایش می یابد، سیاست گذاران و شرکت ها باید با هم همکاری کنند تا ریسک های قانونی را کاهش دهند. همکاری متقابل به این گروه ها کمک می کند تا درک کنند که چگونه اصول اخلاقی در حال ظهور بر مقررات هوش مصنوعی تأثیر می گذارد و  از طرفی این امر به سیاست گذاران در تصمیم گیری های ظریف و واقع بینانه نیز کمک خواهد کرد.

مطابق با یک پست وبلاگ، دفتر کمیساریای اطلاعات انگلیس (ICO) یک سند راهنمایی جدید در مورد هوش مصنوعی و محافظت از داده ها را برای کمک به بخش فناوری و متخصصان از منظر نظارتی تنظیم کرده است.

این راهنما اطلاعات و توصیه هایی را در مورد بهترین شیوه ها و معیارهای فنی برای اتخاذ سازمانها به منظور به حداقل رساندن خطرات مرتبط با هوش مصنوعی ارائه می دهد. ارزیابی تأثیر حفاظت از داده ها؛ نقش کنترلر و پردازشگرها توضیح و راهنمایی در مورد چگونگی اطمینان  از سیستم های هوش مصنوعی، قانونی، عادلانه و شفاف ارائه شده است.

در عین حال چگونگی اعمال GDPR (معرفی مقررات اتحادیه اروپایی برای محافظت از داده ها) در داده های بیومتریک، هنگامی که در یک گروه ویژه برای اطلاعات حساس قرار می گیرد، به تفصیل شرح داده شده است. همچنین مفاهیم امنیتی داده از بازتولید یا رمزگذاری داده های بیومتریک، یافتن اطلاعات منسجم و معماری پرس و جو در حفظ حریم خصوصی بحث شده است.

کد خبر: ۳۳٬۷۷۱

اخبار مرتبط

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • captcha