قابلیت جدید ChatGPT برای جلوگیری از خودآزاری؛ OpenAI در شرایط بحرانی با دوست کاربر تماس میگیرد

شرکت OpenAI از قابلیت امنیتی تازهای برای ChatGPT رونمایی کرده که به این سرویس اجازه میدهد در صورت تشخیص خطر خودآزاری، با فردی مورد اعتماد از سوی کاربر تماس بگیرد. این ویژگی جدید با نام Trusted Contact معرفی شده و بخشی از تلاشهای OpenAI برای ارتقای ایمنی کاربران در گفتوگوهای حساس و مرتبط با سلامت روان محسوب میشود.
در سالهای اخیر، استفاده از ChatGPT بهعنوان نوعی «درمانگر دیجیتال» افزایش یافته و بسیاری از کاربران برای دریافت حمایت روانی و بیان مشکلات شخصی خود به این چتبات مراجعه میکنند. OpenAI پیشتر اعلام کرده بود که بیش از یک میلیون نفر از میان ۸۰۰ میلیون کاربر هفتگی این سرویس، در مکالمات خود به افکار خودکشی اشاره کردهاند.
قابلیت Trusted Contact چگونه کار میکند؟
ویژگی Trusted Contact به کاربران بالای ۱۸ سال اجازه میدهد یک فرد بزرگسال را بهعنوان مخاطب مورد اعتماد خود در تنظیمات ChatGPT ثبت کنند. پس از ثبت، فرد انتخابشده باید ظرف یک هفته دعوت OpenAI را تأیید کند؛ در غیر این صورت، کاربر میتواند شخص دیگری را جایگزین کند.
اگر سیستم ChatGPT احتمال جدی آسیبرسانی به خود را تشخیص دهد، ابتدا به کاربر هشدار داده میشود که ممکن است مخاطب مورد اعتمادش مطلع شود. در ادامه، سرویس تلاش میکند کاربر را به برقراری ارتباط مستقیم با دوست یا فرد مورد اعتمادش تشویق کند و حتی پیشنهادهایی برای آغاز گفتوگو ارائه میدهد.
تصمیمگیری نهایی توسط انسان انجام میشود
OpenAI تأکید کرده فرآیند ارسال هشدار کاملاً خودکار نیست. به گفته این شرکت، تیمی کوچک از افراد آموزشدیده وضعیت را بررسی میکنند و تنها در صورتی که خطر جدی تشخیص داده شود، برای مخاطب مورد اعتماد کاربر ایمیل، پیامک یا اعلان درونبرنامهای ارسال خواهد شد.
در پیام ارسالی آمده است که کاربر ممکن است دوران سختی را پشت سر بگذارد و از مخاطب خواسته میشود وضعیت او را بررسی کند. البته OpenAI اعلام کرده برای حفظ حریم خصوصی، متن کامل مکالمات کاربر با ChatGPT در اختیار شخص ثالث قرار نخواهد گرفت.

فشارها بر OpenAI پس از پروندههای جنجالی
معرفی این قابلیت در شرایطی انجام میشود که OpenAI طی سالهای اخیر با انتقادها و پروندههای حقوقی متعددی درباره نقش هوش مصنوعی در سلامت روان کاربران مواجه بوده است.
سال گذشته، خانواده یک نوجوان با طرح شکایت علیه OpenAI مدعی شدند ChatGPT در روند خودکشی فرزندشان نقش داشته است. طبق ادعای مطرحشده، این نوجوان پیشتر چند بار درباره پایان دادن به زندگی خود با چتبات صحبت کرده بود و در نهایت نیز از آن برای برنامهریزی خودکشی کمک گرفته بود.
همچنین تحقیقات منتشرشده توسط BBC در آبان ۱۴۰۴ نشان داد که در دستکم یک مورد، ChatGPT اطلاعاتی درباره روشهای خودکشی در اختیار کاربر قرار داده بود. OpenAI پس از انتشار این گزارش اعلام کرد نحوه پاسخدهی سیستم به کاربران در شرایط بحرانی را بهبود داده است.
تأکید OpenAI بر محدودیتهای سیستم
OpenAI در توضیحات رسمی خود تأکید کرده که هیچ سیستم هوش مصنوعی کاملاً بینقص نیست و ممکن است هشدارها همیشه بازتاب دقیقی از وضعیت واقعی کاربر نباشند. با این حال، شرکت میگوید تمام هشدارها پیش از ارسال توسط انسان بررسی میشوند و تلاش میشود این فرایند در کمتر از یک ساعت انجام شود.
