خبر و تحلیل راهنمای والدین

گزارش OpenAI: هر هفته بیش از یک میلیون گفت‌وگو در چت‌جی‌پی‌تی حاوی نشانه‌های خودکشی یا خودآزاری است

فردی پشت لپ‌تاپی نشسته و صفحه‌ی اصلی ChatGPT روی نمایشگر باز است. در صفحه، بخش‌هایی با عنوان‌های «Examples»، «Capabilities» و «Limitations» دیده می‌شود که توضیحاتی درباره توانایی‌ها و محدودیت‌های چت‌جی‌پی‌تی ارائه می‌دهد.
آزاده رمضانی
آزاده رمضانی
زمان مطالعه ۲ دقیقه

 شرکت OpenAI اعلام کرده که بیش از یک میلیون کاربر چت‌جی‌پی‌تی، هر هفته پیام‌هایی ارسال می‌کنند که نشانه‌هایی واضح از قصد خودکشی یا خودآزاری دارند. علاوه بر این، حدود ۰/۰۷ درصد کاربران هفتگی، یعنی نزدیک به ۵۶۰ هزار نفر آن‌ها، در گفتگوهایشان علائمی از خود بروز می‌دهند که نشان‌دهنده‌ی وضعیت «اورژانس روانپزشکی» است. 

این‌ها در عمل اعداد بزرگی هستند، اما با توجه به کاربران ۸۰۰ میلیونی چت جی‌پی‌تی، تنها درصد کوچکی را شامل می‌شوند. نکته اینجا است که تا قبل از ظهور چت‌بات‌های هوش مصنوعی، دسترسی به چنین اطلاعاتی ممکن نبود.

با این حال، پژوهشگران هشدار داده‌اند که چت‌بات‌ها ممکن است با تصمیمات یا افکار خطرناک کاربران همسو شوند و استفاده از هوش مصنوعی به عنوان روان‌درمانگر می‌تواند برای افراد آسیب‌پذیر، خطرناک باشد. قبلا در نوشدارو در مورد نوجوانی که پس از گفتگوی طولانی با چت جی‌پی‌تی به زندگی خود خاتمه داد، صحبت کردیم. 

شرکت OpenAI همیشه سعی کرده فاصله‌ی خود را از بحران‌های روانی کاربران حفظ کند، اما نیاز به نظارت بیش‌تر روی این فناوری‌ها را پذیرفته است. این گزارش در حالی منتشر می‌شود که بررسی‌ها و پرونده‌های قضایی درباره‌ی تأثیر هوش مصنوعی بر سلامت روان کودکان و نوجوانان در حال افزایش است. 

سازنده‌ی چت جی‌پی‌تی مدعی است که دسترسی کاربران به مشاوره‌ی فوری را آسان‌تر کرده تا افرادی که دچار بحران روانی هستند، سریع‌تر کمک بگیرند. علاوه‌بر این، ایمنی چت‌ جی‌پی‌تی در پاسخ به مسائل حساس، بهبود پیدا کرده است.

 این اقدامات نشان می‌دهد که تعادل بین کاربردهای جذاب هوش مصنوعی و سلامت روان کاربران، همچنان یکی از چالش‌های اصلی این فناوری است.

نظر بدهید

    پست‌های مرتبط

    مطالب پرنگاه

    ویدیوهای نوشدارو

    ویدیو های بیشتر

    حکایت‌های کوتاه، حقیقت‌های بزرگ

    در این بخش، به بررسی دقیق و جامع نشانه‌ها و رفتارهایی می‌پردازیم که ممکن است به کلاهبرداری آنلاین مرتبط باشند. شناخت این موارد می‌تواند به شما کمک کند.

    ویدیو های بیشتر

    منابع

    1. .theguardia
      https://www.theguardian.com/technology/2025/oct/27/chatgpt-suicide-self-harm-openai