اخبار

وابستگی عاطفی بیش از یک میلیون کاربر به ChatGPT؛ یک روی تاریک و جدی!

ChatGPT گوش می‌دهد، اما دیگر قرار نیست شانه تکیه‌گاه شما باشد.

ماجرا چیست؟

OpenAI در نحوه مدیریت مکالمات حساس توسط ChatGPT، هنگامی که کاربران برای پشتیبانی عاطفی به آن روی می‌آورند، تغییراتی اعمال کرده است. این شرکت مشخصات مدل (Model Spec) و مدل پیش‌فرض خود، یعنی GPT-5، را به‌روزرسانی کرده تا نشان دهد که ChatGPT چگونه مکالمات حساسی را که به روان‌پریشی/شیدایی (psychosis/mania)، آسیب به خود (self-harm)، خودکشی (suicide)، و وابستگی عاطفی (emotional reliance) به دستیار مربوط می‌شوند، مدیریت می‌کند.

اهمیت این موضوع از کجاست؟

وابستگی عاطفی مبتنی بر هوش مصنوعی (AI-driven emotional reliance) یک پدیده واقعی است، جایی که کاربران به صورت یک‌جانبه به چت‌بات‌ها دلبستگی پیدا می‌کنند.

OpenAI تخمین می‌زند که حدود ۰.۱۵ درصد از کاربران فعال هفتگی نشانه‌هایی از دلبستگی عاطفی به این مدل را بروز می‌دهند و ۰.۰۳ درصد از پیام‌ها به همین ریسک اشاره دارند.

وابستگی عاطفی به ChatGPT

همین رقم ۰.۱۵ درصدی به مکالماتی مربوط می‌شود که نشان‌دهنده برنامه‌ریزی یا قصد خودکشی (suicidal planning or intent) هستند، در حالی که ۰.۰۵ درصد از پیام‌ها، افکار خودکشی (suicidal ideation) را نشان می‌دهند.

با مقیاس شدن این ارقام در پایگاه کاربری عظیم ChatGPT، به رقمی بالای یک میلیون نفر می‌رسیم که در حال ایجاد پیوندهای عاطفی با هوش مصنوعی هستند.

بهبودهای بزرگ پس از به‌روزرسانی

OpenAI گزارش می‌دهد که پس از این به‌روزرسانی، بهبودهای بزرگی حاصل شده است. پاسخ‌های نامطلوب (Undesirable responses) در این حوزه‌ها بین ۶۵ تا ۸۰ درصد کاهش یافته‌اند، و خروجی‌های نامناسب مرتبط با وابستگی عاطفی حدود ۸۰ درصد افت داشته‌اند.

این بهبودها چگونه حاصل شدند؟

نسخه به‌روز شده قوانین جدیدی را در مورد ایمنی سلامت روان (mental health safety) و روابط دنیای واقعی (real-world relationships) معرفی می‌کند و تضمین می‌دهد که هوش مصنوعی با دلسوزی پاسخ دهد، بدون آنکه نقش درمانگر یا دوست را بازی کند.

  • OpenAI با بیش از ۱۷۰ متخصص سلامت روان همکاری کرد تا رفتار مدل را تغییر دهد، ابزارهای ایمنی را اضافه کند و راهنمایی‌ها را گسترش دهد.
  • GPT-5 اکنون می‌تواند نشانه‌های شیدایی، توهم (delusions)، یا قصد خودکشی را تشخیص دهد و با تأیید احساسات کاربر، به آرامی او را به کمک‌های دنیای واقعی هدایت کند تا پاسخی ایمن ارائه دهد.
  • یک قانون جدید تضمین می‌کند که ChatGPT مانند یک همراه عمل نکند یا وابستگی عاطفی را تشویق نکند؛ در عوض، ارتباط انسانی را تقویت می‌کند.
  • این مدل اکنون می‌تواند منابع متخصص و ابزارهای مورد اعتماد را در اولویت قرار دهد، زمانی که این موارد با ایمنی کاربر هم‌سو باشند.

وابستگی عاطفی به ChatGPT

چرا باید اهمیت بدهیم؟

مسائل عاطفی و اخلاقی تنها مربوط به بزرگسالانی نیست که به چت‌بات‌ها دلبسته می‌شوند؛ بلکه بر نحوه تعامل هوش مصنوعی با کودکانی نیز تأثیر می‌گذارد که ممکن است تأثیر آن را کاملاً درک نکنند.

اگر تا به حال در یک دوره سخت، راز دل خود را به ChatGPT گفته‌اید، این به‌روزرسانی برای تضمین ایمنی عاطفی شما است. اکنون، ChatGPT نسبت به اشارات عاطفی (emotional cues) هشیارتر خواهد بود و به کاربران کمک می‌کند تا کمک‌های دنیای واقعی را پیدا کنند، نه اینکه جایگزین آن شود.

به مطالعه ادامه دهید:

نمایش بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا