بازار؛ گروه بین الملل: در ۱۸ ژانویه، مجله تایم افشاگری هایی را منتشر کرد که به بسیاری از افرادی که در زمینه هوش مصنوعی کار می کنند، هشدار داد. این خبر مربوط به چت جی پی تی، یک ربات چت هوش مصنوعی پیشرفته بود که هم به عنوان یکی از هوشمندترین سیستمهای هوش مصنوعی ساخته شده تا به امروز شناخته میشود و هم به عنوان مرز جدیدی در سرقت ادبی احتمالی و فرسایش صنایع دستی در نوشتن.
بسیاری تعجب کرده بودند که چگونه چت جی پی تی که مخفف Chat Generative Pre-trained Transformer است، نسبت به نسخه های قبلی این فناوری که به سرعت به سخنان نفرت انگیز تبدیل می شد، بهبود یافته است. پاسخ در مقاله مجله تایم آمده است: دهها کارگر کنیایی کمتر از ۲ دلار در ساعت دستمزد میگیرند تا حجم بیپایانی محتوای خشونتآمیز و نفرتانگیز را پردازش کنند تا سیستمی را که عمدتاً برای کاربران غربی عرضه میشود، ایمنتر کنند.
برای همگان باید روشن شود الگوی دیجیتالی شدن کنونی مشکل کارگری دارد. این الگو از ایدهآل یک اینترنت باز که حول جوامعی با منافع مشترک ساخته شده است، دور میشود و در حال دور شدن از آن است و به سمتی میرود که تحت سلطه امتیازات تجاری تعداد انگشت شماری از شرکتهای مستقر در مناطق جغرافیایی خاص است.
در این مدل، شرکتهای بزرگ، روند استخراج و انباشت سود را برای صاحبان خود نه تنها به هزینه کارگران، بلکه همچنین به هزینه کاربران به حداکثر میرسانند. به کاربران دروغ می گویند که در یک جامعه برابر شرکت می کنند زیرا هر چه این شرکت ها مسلط تر شوند، قدرت نابرابر بین مالکان و کاربران فاحش تر است.
جامعه در اینجا به این معنی است که مردم عادی هزینه های اخلاقی و اجتماعی رشد بی رویه این شرکت ها را می پردازند، در حالی که صاحبان آنها سود و تحسین را جذب می کنند و تودهای از نیروی کار کم دستمزد تحت سختترین شرایطی که از نظر قانونی برای حفظ توهم اینترنت بهتر ممکن است، استخدام میشوند.
در مورد فیس بوک، یوتیوب و مدل تعدیل محتوا که در واقع طرح اولیه برون سپاری چت جی پی تی را فراهم می کند، مطالب زیادی نوشته شده است. گردانندگان محتوا وظیفه دارند جریانی دائمی از بدترین چیزهایی را که مردم در این پلتفرم ها قرار می دهند مصرف کنند و آن را برای حذف یا اقدامات بعدی علامت گذاری کنند. اغلب این ها پست هایی درباره خشونت جنسی و سایر انواع خشونت هستند.
اتباع کشورهایی که شرکتها در آن مستقر هستند، به دلیل آسیبهای روانی که کار بر آنها وارد کرده است، شکایت کردهاند. به عنوان مثال در سال ۲۰۲۰، فیس بوک مجبور شد ۵۲ میلیون دلار به کارمندان آمریکایی برای اختلال استرس پس از سانحه (PTSD) که پس از کار به عنوان ناظر محتوا تجربه کرده بودند، بپردازد.
در حالی که آگاهی عمومی فزاینده ای از آسیب های ثانویه و تلفاتی که مشاهده خشونت باعث ایجاد آن می شود وجود دارد، ما هنوز نمی دانیم قرار گرفتن در معرض این نوع محتوا برای یک هفته کاری کامل با بدن انسان چه می کند
در حالی که آگاهی عمومی فزاینده ای از آسیب های ثانویه و تلفاتی که مشاهده خشونت باعث ایجاد آن می شود وجود دارد، ما هنوز نمی دانیم قرار گرفتن در معرض این نوع محتوا برای یک هفته کاری کامل با بدن انسان چه می کند.
ما می دانیم که روزنامه نگاران و امدادگران اغلب با علائم جدی PTSD از مناطق درگیری بازمی گردند و حتی خواندن گزارش های منتشر شده از این مناطق درگیری می تواند تأثیر روانی داشته باشد. انجام مطالعات مشابه در مورد تأثیر کار تعدیل محتوا بر افراد به دلیل توافق نامه های عدم افشایی که اغلب از کارمندان خواسته می شود قبل از شروع به کار امضا کنند، دشوارتر است.
ما همچنین از طریق شهادت «فرانسیس هاگن»، افشاگر فیس بوک متوجه شدیم که تصمیم فیس بوک برای سرمایه گذاری ناکافی در تعدیل محتوای مناسب یک تصمیم اقتصادی بود. توییتر تحت رهبری ایلان ماسک نیز با اخراج تعداد زیادی از مدیران محتوا به کاهش هزینهها پرداخته است.
عدم ارائه تعدیل محتوای مناسب منجر به افزایش سمیت پلتفرم های شبکه های اجتماعی شده و آسیب های ناشی از آن پیامدهای عمده ای در دنیای آنالوگ داشته است
عدم ارائه تعدیل محتوای مناسب منجر به افزایش سمیت پلتفرم های شبکه های اجتماعی شده است. آسیب های ناشی از آن پیامدهای عمده ای در دنیای آنالوگ داشته است. در میانمار، فیس بوک متهم به فعال کردن نسل کشی شده است. در اتیوپی و ایالات متحده آمریکا، متهم به اجازه دادن به تحریک به خشونت است. در واقع تحقیق در حوزه تعدیل محتوا و مشکلاتی که پلتفرم های اجتماعی با آن مواجه هستند، به خوبی نشان میدهد که مدل دیجیتالیسازی کنونی چه مشکلی دارد.
تصمیم جهت استفاده از یک شرکت کنیایی برای آموزش عدم تنفر به ربات چت آمریکایی باید در چارچوب یک تصمیم عمدی برای تسریع انباشت سود به بهای استفاده از نرده های محافظ معنی دار برای کاربران درک شود. این شرکتها قول میدهند که عنصر انسانی قبل از اینکه سیستم هوش مصنوعی به اندازه کافی پیشرفت کند تا کار را به تنهایی انجام دهد، فقط یک پاسخ موقت است. اما این ادعا برای کارمندانی که امروز مورد استثمار قرار میگیرند فراتر از پاسخ موقت است. همچنین باید به این واقعیت اشاره کرد که مردم – زبانهایی که به آنها صحبت میکنند و معنایی که به زمینهها یا موقعیتها نسبت میدهند – بسیار انعطافپذیر و پویا هستند، به این معنی که اعتدال محتوا از بین نخواهد رفت.
بنابراین، برای ناظرانی که امروز آسیب می بینند، چه کاری انجام می شود و چگونه رویه کسب و کار به طور اساسی تغییر خواهد کرد تا از ناظرانی که فردا قطعاً مورد نیاز خواهند بود، محافظت شود؟ مدل دیجیتالیسازی که با غریزه محافظت از منافع کسانی که از سیستم بیشترین سود را میبرند به جای کسانی که واقعاً آن را به کار میگیرند هدایت میشود، میلیاردها نفر را در برابر انواع بیشمار استثمار اجتماعی و اقتصادی آسیبپذیر میکند، که تأثیر آن تا مدتها ادامه خواهد داشت.
زمان آن فرا رسیده است که به این افسانه که دیجیتالی شدن و رهبری شرکت ها به نوعی از همه افراط و تفریط های گذشته سوداگری و طمع دوری می کنند، صرفاً به این دلیل که افرادی که صاحب این شرکت ها هستند تی شرت می پوشند و قول می دهند هیچ شرارتی انجام ندهند، خاتمه دهیم.
تاریخ مملو از مثالهایی است که نشان میدهد چگونه کسانی که به حال خود رها شدهاند، این کار را انجام میدهند و فرصتی برای جمعآوری سود دارند و حقوقی را که ما برای محافظت از آسیبپذیرترین افراد در میان خود به آن نیاز داریم، تضییع میکنند.
ما باید به اصول اولیه بازگردیم و اینکه چرا در قرن گذشته نیاز به مبارزه برای تضمین حقوق کار داشتیم. حقوق کار در واقع بخشی از حقوق بشر است و این رسوایی اخیر یادآوری به موقع است که اگر به آن توجه نکنیم چیزهای زیادی را از دست خواهیم داد، زیرا حواسمان به جدیدترین چیزهای درخشان جدید پرت شده است.
نظر شما