مدیرعامل OpenAI از وابستگی بیش از حد کاربران به ChatGPT ابراز نگرانی کرد

مدیرعامل OpenAI از وابستگی بیش از حد کاربران به ChatGPT ابراز نگرانی کرد

مدیرعامل OpenAI، در اظهارنظری اعلام کرد که از روند روبه‌رشد استفاده مردم از ChatGPT و اعتماد آنها به این چت‌بات برای گرفتن مهم‌ترین تصمیمات زندگی‌شان، احساس ناراحتی می‌کند.

به گزارش بازار، «سم آلتمن» در توییتی مفصل که آن را «تفکرات فعلی» خود و نه موضع رسمی OpenAI خواند، به یک پدیده روبه‌رشد اشاره کرد: «بسیاری از مردم از ChatGPT به عنوان نوعی درمانگر یا مربی زندگی استفاده می‌کنند، حتی اگر خودشان اینگونه توصیفش نکنند.»

او ضمن تأیید اینکه این موضوع می‌تواند «واقعاً خوب» باشد و بسیاری هم‌اکنون نیز از آن ارزش دریافت می‌کنند، جنبه تاریک‌تر آن را نیز آشکار کرد. او گفت این رابطه در صورتی ناخوشایند است که «کاربران رابطه‌ای با ChatGPT داشته باشند که در آن فکر کنند پس از صحبت‌کردن حالشان بهتر می‌شود، اما ندانسته از حال‌ خوب واقعی در بلندمدت دور می‌شوند.»

او همچنین ایجاد وابستگی را یک خطر دیگر دانست و گفت: «خوب نیست اگر یک کاربر بخواهد کمتر از ChatGPT استفاده کند اما احساس کند که نمی‌تواند.»

نظرات سم آلتمن درباره اعتماد مردم به ChatGPT

آلتمن فاش کرد که شرکت OpenAI حدود یک سال است که درحال ردیابی دقیق «حس وابستگی» کاربران به مدل‌های هوش مصنوعی خاص است. او اعتراف کرد که این وابستگی، «متفاوت و قوی‌تر» از وابستگی به سایر فناوری‌های گذشته است. او به عنوان یک نمونه بارز، به واکنش‌های منفی پس از عرضه GPT-۵ و جایگزینی مدل محبوب GPT-۴o اشاره کرد. بسیاری از کاربران از لحن خشک و غیرخلاقانه مدل جدید شکایت کرده‌اند و خواستار بازگرداندن مدل قدیمی‌تر شدند. آلتمن در توییت خود، حذف ناگهانی مدل‌های قدیمی را که کاربران به آنها وابسته بودند، یک «اشتباه» خواند.

آلتمن در بخشی از اظهاراتش به مسئولیت‌پذیری در قبال کاربران آسیب‌پذیر پرداخت: «مردم از فناوری، از جمله هوش مصنوعی، به روش‌های خودتخریبی استفاده کرده‌اند. اگر یک کاربر در وضعیت روانی شکننده‌ای قرار داشته باشد و مستعد توهم باشد، ما نمی‌خواهیم هوش مصنوعی آن را تقویت کند.»

او اذعان کرد که اگرچه اکثر کاربران می‌توانند مرز میان واقعیت و داستان را تشخیص دهند، اما درصد کمی قادر به این کار نیستند.

آلتمن پیشتر نیز در یک پادکست، به یک خطر دیگر اشاره کرده بود: چالش‌های حقوقی. او هشدار داد که اگر کاربری از ChatGPT برای گفتگوهای حساس و درمانی استفاده کند، ممکن است در آینده و در جریان یک دعوای حقوقی، شرکت OpenAI مجبور به ارائه متن آن مکالمات به دادگاه شود.

آلتمن آینده‌ای را پیش‌بینی می‌کند که در آن میلیاردها نفر برای مهم‌ترین تصمیمات زندگی خود با هوش مصنوعی مشورت خواهند کرد. او می‌گوید اگرچه این چشم‌انداز او را «ناراحت» می‌کند، اما معتقد است که جامعه و OpenAI باید راهی برای تبدیل این پدیده به یک نتیجه مثبت پیدا کنند.

کد خبر: ۳۵۷٬۸۵۹

اخبار مرتبط

اخبار رمزارزها

    برچسب‌ها

    نظر شما

    شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • captcha