اخبار فناوری

قابلیت جدید ChatGPT برای جلوگیری از خودآزاری؛ OpenAI در شرایط بحرانی با دوست کاربر تماس می‌گیرد

شرکت OpenAI از قابلیت امنیتی تازه‌ای برای ChatGPT رونمایی کرده که به این سرویس اجازه می‌دهد در صورت تشخیص خطر خودآزاری، با فردی مورد اعتماد از سوی کاربر تماس بگیرد. این ویژگی جدید با نام Trusted Contact معرفی شده و بخشی از تلاش‌های OpenAI برای ارتقای ایمنی کاربران در گفت‌وگوهای حساس و مرتبط با سلامت روان محسوب می‌شود.

در سال‌های اخیر، استفاده از ChatGPT به‌عنوان نوعی «درمانگر دیجیتال» افزایش یافته و بسیاری از کاربران برای دریافت حمایت روانی و بیان مشکلات شخصی خود به این چت‌بات مراجعه می‌کنند. OpenAI پیش‌تر اعلام کرده بود که بیش از یک میلیون نفر از میان ۸۰۰ میلیون کاربر هفتگی این سرویس، در مکالمات خود به افکار خودکشی اشاره کرده‌اند.

قابلیت Trusted Contact چگونه کار می‌کند؟

ویژگی Trusted Contact به کاربران بالای ۱۸ سال اجازه می‌دهد یک فرد بزرگسال را به‌عنوان مخاطب مورد اعتماد خود در تنظیمات ChatGPT ثبت کنند. پس از ثبت، فرد انتخاب‌شده باید ظرف یک هفته دعوت OpenAI را تأیید کند؛ در غیر این صورت، کاربر می‌تواند شخص دیگری را جایگزین کند.

اگر سیستم ChatGPT احتمال جدی آسیب‌رسانی به خود را تشخیص دهد، ابتدا به کاربر هشدار داده می‌شود که ممکن است مخاطب مورد اعتمادش مطلع شود. در ادامه، سرویس تلاش می‌کند کاربر را به برقراری ارتباط مستقیم با دوست یا فرد مورد اعتمادش تشویق کند و حتی پیشنهادهایی برای آغاز گفت‌وگو ارائه می‌دهد.

تصمیم‌گیری نهایی توسط انسان انجام می‌شود

OpenAI تأکید کرده فرآیند ارسال هشدار کاملاً خودکار نیست. به گفته این شرکت، تیمی کوچک از افراد آموزش‌دیده وضعیت را بررسی می‌کنند و تنها در صورتی که خطر جدی تشخیص داده شود، برای مخاطب مورد اعتماد کاربر ایمیل، پیامک یا اعلان درون‌برنامه‌ای ارسال خواهد شد.

در پیام ارسالی آمده است که کاربر ممکن است دوران سختی را پشت سر بگذارد و از مخاطب خواسته می‌شود وضعیت او را بررسی کند. البته OpenAI اعلام کرده برای حفظ حریم خصوصی، متن کامل مکالمات کاربر با ChatGPT در اختیار شخص ثالث قرار نخواهد گرفت.

چت جی پی تی

فشارها بر OpenAI پس از پرونده‌های جنجالی

معرفی این قابلیت در شرایطی انجام می‌شود که OpenAI طی سال‌های اخیر با انتقادها و پرونده‌های حقوقی متعددی درباره نقش هوش مصنوعی در سلامت روان کاربران مواجه بوده است.

سال گذشته، خانواده یک نوجوان با طرح شکایت علیه OpenAI مدعی شدند ChatGPT در روند خودکشی فرزندشان نقش داشته است. طبق ادعای مطرح‌شده، این نوجوان پیش‌تر چند بار درباره پایان دادن به زندگی خود با چت‌بات صحبت کرده بود و در نهایت نیز از آن برای برنامه‌ریزی خودکشی کمک گرفته بود.

همچنین تحقیقات منتشرشده توسط BBC در آبان ۱۴۰۴ نشان داد که در دست‌کم یک مورد، ChatGPT اطلاعاتی درباره روش‌های خودکشی در اختیار کاربر قرار داده بود. OpenAI پس از انتشار این گزارش اعلام کرد نحوه پاسخ‌دهی سیستم به کاربران در شرایط بحرانی را بهبود داده است.

تأکید OpenAI بر محدودیت‌های سیستم

OpenAI در توضیحات رسمی خود تأکید کرده که هیچ سیستم هوش مصنوعی کاملاً بی‌نقص نیست و ممکن است هشدارها همیشه بازتاب دقیقی از وضعیت واقعی کاربر نباشند. با این حال، شرکت می‌گوید تمام هشدارها پیش از ارسال توسط انسان بررسی می‌شوند و تلاش می‌شود این فرایند در کمتر از یک ساعت انجام شود.

نمایش بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا