وابستگی عاطفی بیش از یک میلیون کاربر به ChatGPT؛ یک روی تاریک و جدی!

ChatGPT گوش میدهد، اما دیگر قرار نیست شانه تکیهگاه شما باشد.
ماجرا چیست؟
OpenAI در نحوه مدیریت مکالمات حساس توسط ChatGPT، هنگامی که کاربران برای پشتیبانی عاطفی به آن روی میآورند، تغییراتی اعمال کرده است. این شرکت مشخصات مدل (Model Spec) و مدل پیشفرض خود، یعنی GPT-5، را بهروزرسانی کرده تا نشان دهد که ChatGPT چگونه مکالمات حساسی را که به روانپریشی/شیدایی (psychosis/mania)، آسیب به خود (self-harm)، خودکشی (suicide)، و وابستگی عاطفی (emotional reliance) به دستیار مربوط میشوند، مدیریت میکند.
اهمیت این موضوع از کجاست؟
وابستگی عاطفی مبتنی بر هوش مصنوعی (AI-driven emotional reliance) یک پدیده واقعی است، جایی که کاربران به صورت یکجانبه به چتباتها دلبستگی پیدا میکنند.
OpenAI تخمین میزند که حدود ۰.۱۵ درصد از کاربران فعال هفتگی نشانههایی از دلبستگی عاطفی به این مدل را بروز میدهند و ۰.۰۳ درصد از پیامها به همین ریسک اشاره دارند.

همین رقم ۰.۱۵ درصدی به مکالماتی مربوط میشود که نشاندهنده برنامهریزی یا قصد خودکشی (suicidal planning or intent) هستند، در حالی که ۰.۰۵ درصد از پیامها، افکار خودکشی (suicidal ideation) را نشان میدهند.
با مقیاس شدن این ارقام در پایگاه کاربری عظیم ChatGPT، به رقمی بالای یک میلیون نفر میرسیم که در حال ایجاد پیوندهای عاطفی با هوش مصنوعی هستند.
بهبودهای بزرگ پس از بهروزرسانی
OpenAI گزارش میدهد که پس از این بهروزرسانی، بهبودهای بزرگی حاصل شده است. پاسخهای نامطلوب (Undesirable responses) در این حوزهها بین ۶۵ تا ۸۰ درصد کاهش یافتهاند، و خروجیهای نامناسب مرتبط با وابستگی عاطفی حدود ۸۰ درصد افت داشتهاند.
این بهبودها چگونه حاصل شدند؟
نسخه بهروز شده قوانین جدیدی را در مورد ایمنی سلامت روان (mental health safety) و روابط دنیای واقعی (real-world relationships) معرفی میکند و تضمین میدهد که هوش مصنوعی با دلسوزی پاسخ دهد، بدون آنکه نقش درمانگر یا دوست را بازی کند.
- OpenAI با بیش از ۱۷۰ متخصص سلامت روان همکاری کرد تا رفتار مدل را تغییر دهد، ابزارهای ایمنی را اضافه کند و راهنماییها را گسترش دهد.
- GPT-5 اکنون میتواند نشانههای شیدایی، توهم (delusions)، یا قصد خودکشی را تشخیص دهد و با تأیید احساسات کاربر، به آرامی او را به کمکهای دنیای واقعی هدایت کند تا پاسخی ایمن ارائه دهد.
- یک قانون جدید تضمین میکند که ChatGPT مانند یک همراه عمل نکند یا وابستگی عاطفی را تشویق نکند؛ در عوض، ارتباط انسانی را تقویت میکند.
- این مدل اکنون میتواند منابع متخصص و ابزارهای مورد اعتماد را در اولویت قرار دهد، زمانی که این موارد با ایمنی کاربر همسو باشند.
چرا باید اهمیت بدهیم؟
مسائل عاطفی و اخلاقی تنها مربوط به بزرگسالانی نیست که به چتباتها دلبسته میشوند؛ بلکه بر نحوه تعامل هوش مصنوعی با کودکانی نیز تأثیر میگذارد که ممکن است تأثیر آن را کاملاً درک نکنند.
اگر تا به حال در یک دوره سخت، راز دل خود را به ChatGPT گفتهاید، این بهروزرسانی برای تضمین ایمنی عاطفی شما است. اکنون، ChatGPT نسبت به اشارات عاطفی (emotional cues) هشیارتر خواهد بود و به کاربران کمک میکند تا کمکهای دنیای واقعی را پیدا کنند، نه اینکه جایگزین آن شود.
به مطالعه ادامه دهید:

