۸ آبان ۱۴۰۰ - ۱۲:۱۵
ناکارآمدی هوش مصنوعی در ممیزی محتوای نژادپرستانه فیسبوک
رویترز فاش کرد؛

ناکارآمدی هوش مصنوعی در ممیزی محتوای نژادپرستانه فیسبوک

اسناد به دست آمده از فیسبوک نشان می دهند که این شرکت طی ده سال گذشته، در جلوگیری از انتشار محتوای تفرقه افکن، نفرت پراکنی و نژادپرستانه کاملا کوتاهی کرده است.

به گزارش خبرگزاری بازار، اظهارات پنج نفر از کارکنان سابق فیسبوک و همچنین اسناد موجود نشان می دهند این شرکت طی یک دهه گذشته در خصوص جلوگیری از انتشار محتوای نا مناسب و غیر اخلاقی در زمینه موارد نفرت‌پراکن، تفرقه‌انگیز، آشوب‌برانگیز، توهین‌آمیز و آزارگرانه کوتاهی کرده است.

بر اساس این گزارش، خبرگزاری رویترز با افشای این موضوع اعلام کرد که اسناد داخلی این شرکت نشان می‌دهند که فیسبوک در شماری از کشورهای در حال توسعه به تعداد کافی افراد آشنا به زبان و رویدادهای محلی استخدام نکرده بوده تا محتوای نامناسب را بشکلی موثر از این شبکه اجتماعی حذف کنند.

این اسناد نشان می‌دهند هوش مصنوعی که فیسبوک برای حذف محتوای نامناسب بکار گرفته هم این کار را بدرستی انجام نمی‌داده و کار را برای کاربرانی که می‌خواستند نقض مقررات خود فیسبوک را گزارش کنند هم آسان نکرده بوده است.

بر اساس این اسناد و مدارک، کارکنان فیسبوک بارها هشدار داده اند که این شبکه اجتماعی، به وعده‌ خود در جلوگیری از انتشار نفرت‌پراکنی در کشورهایی مثل افعانستان و یمن عمل نکرده است.

علاوه بر این، بررسی اسناد داخلی شرکت نشان می دهند که یکی از کارکنان این شرکت هشدار داده بود که نظارت بر محتوای نامناسب بخصوص در کشورهایی مانند اتیوپی و میانمار که در خطر خشونت واقعی هستند، «شکاف‌های قابل‌توجهی» دارد.

گفته می شود، این اسناد را چندی پیش «فرانسیس هاگن» از مدیران سابق فیسبوک ابتدا در اختیار روزنامه وال‌استریت ژورنال و بعد کمیسیون بورس و اوراق بهادار و کنگره آمریکا قرار داده و رویترز هم آنها را مشاهده کرده است.

کد خبر: ۱۱۳٬۸۳۱

اخبار مرتبط

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • captcha