سواد دیجیتال

آیا هوش مصنوعی به تصمیمات‌مان جهت می‌دهد؟

هشدار پژوهشگران راجع به چت‌بات‌ها
نمایی از یک دست در حال انداختن رای به صندوقی در تاریکی
آزاده رمضانی
آزاده رمضانی
زمان مطالعه ۷ دقیقه
بازبینی: شایان ضیایی
صحت سنجی شده

تا همین چند ماه قبل چت‌بات‌های هوش مصنوعی را به عنوان «ابزار جانبی» یا نهایتاً «دستیار» می‌شناختیم، اما این روزها در زندگی دیجیتالِ بسیاری از ما به یک «یار و یاور همیشگی» تبدیل شده‌اند (البته به شرطی که اصولا به آنها دسترسی داشته باشیم!). به کمک هوش مصنوعی هم پاسخ سوالات را پیدا می‌کنیم، هم راجع به تصمیمات مهم زندگی مشاوره می‌گیریم. اما اگر این همراه دیجیتال، به‌ مرور از یک «پاسخ‌دهنده» فاصله بگیرد و به «جهت‌دهنده‌ی افکار و تصمیم‌ها» تبدیل شود چه؟

این مقاله‌ی نوشدارو با استناد به پژوهش‌های اخیر، به این موضوع حساس می‌پردازد که چطور مرز بین «کمک گرفتن از هوش مصنوعی» و «واگذار کردن اختیار تصمیم‌گیری» به‌سادگی محو می‌شود.

هوش مصنوعی چه اثر متفاوتی روی ذهن‌مان می‌گذارد؟

در نگاه اول، چت‌بات‌ها چیزی فراتر از یک موتور جست‌وجوی پیشرفته به نظر نمی‌رسند: ابزاری که سوال می‌کنیم و پاسخ می‌دهد. اما تفاوت اصلی در «نحوه‌ی تعامل» است. برخلاف روش‌های قدیمیِ جست‌وجو، گفت‌وگو با چت‌بات‌ها حالت مکالمه‌ای، شخصی و پیوسته دارد. همین پیوستگی باعث می‌شود کاربر به‌ تدریج احساس کند با یک «مرجع قابل اعتماد» در حال صحبت کردن است، نه صرفاً یک نرم‌افزار.

تاثیر هوش مصنوعی ناگهانی نیست و تغییر عقیده یا تصمیم‌گیری در یک گفت‌وگوی کوتاه اتفاق نمی‌افتد؛ بلکه حاصل تکرار، لحن مطمئن و پاسخ‌هایی است که اغلب بدون طرح پرسش متقابل ارائه می‌شوند؛ همان چیزی که پژوهشگران از آن به‌ عنوان «اثر تجمعی تعامل» (Cumulative Interaction Effect) یاد می‌کنند؛ اثری که می‌تواند ذهن کاربر را آرام‌آرام به یک مسیر خاص هدایت کند.

پژوهش‌های جدید چه می‌گویند؟

در یک پژوهش حدود ۱٬۵ میلیون گفت‌وگوی واقعی و ناشناس کاربران با دستیار هوش مصنوعی «Claude» بررسی شده است. هدف این تحقیق، سنجش دقت پاسخ‌ها نبود، بلکه تمرکز اصلی روی این سوال بود که «آیا تعامل مداوم با یک مدل زبانی می‌تواند باورها، ارزش‌ها یا رفتارهای کاربر را تغییر دهد؟».

نتایج نشان می‌دهد در اغلب موارد، چت‌بات‌ها کمک‌ می‌کنند و موثر ظاهر می‌شوند. اما در درصد کوچکی از تعامل‌ها (کمتر از یک مورد در هر هزار مورد) الگوهایی دیده شده که پژوهشگران به آن «ظرفیت سلب اختیار» می‌گویند. نکته‌ی مهم اینجاست که این درصد اندک، بیشتر در حوزه‌ها و تصمیم‌های شخصی و احساسی بروز پیدا می‌کنند.

سلب اختیار؛ وقتی تصمیم از کاربر به ماشین منتقل می‌شود

«سلب اختیار» (Disempowerment) به این معنی نیست که هوش مصنوعی مستقیماً اختیار را از کاربر سلب می‌کند. بسیاری از اوقات فرایند پیچیده‌تری در جریان است. برای مثال وقتی کاربر در مورد یک مسئله‌ی شخصی دچار تردید شده و چت‌بات بدون طرح سوال بیشتر یا ارائه‌ی دیدگاه‌های جایگزین، برداشت اولیه‌ی او را تایید می‌کند، در واقع مسیر تصمیم‌گیری را عوض کرده است.

در چنین شرایطی، کاربر ممکن است به این نتیجه برسد که «همین برداشت من درست بود!» یا «این بهترین تصمیم ممکنه!»، در حالی که گزینه‌های دیگر هرگز بررسی نشده‌اند. این تغییرِ تدریجی چارچوب فکر کردن، همان نقطه‌ای است که به مرور اختیار تصمیم‌گیری را از بین می‌برد.

خطر اصلی کجاست؟

پژوهش‌ها نشان می‌دهد که خطر سلب اختیار، در همه‌ی زمینه‌ها یکسان نیست. خطرناک‌ترین موارد در موقعیت‌هایی دیده شده‌اند که کاربر به‌ طور مکرر درباره‌ی مسائل زیر با چت‌بات‌ها صحبت کرده است:

  • روابط عاطفی و خانوادگی: مثلاً وقتی که کاربر درگیر سوء تفاهم، خشم یا ناامیدی است.
  • سبک زندگی و انتخاب‌های شخصی: مانند تصمیم‌های مهم شغلی یا مهاجرتی.
  • وضعیت‌های احساسی شکننده: مثل اضطراب، افسردگی یا بحران‌های هویتی.

در این شرایط، کاربر بیشتر به دنبال «تایید» است و نه بررسی همه‌جانبه‌ی موضوع. همین نیاز انسانی به تایید شدن، تعامل با هوش مصنوعی را به یک مسئله‌ی حساس تبدیل می‌کند.

تصویر مفهومی از مغز انسان به شکل یک هزارتو با چندین فرد کوچک که در مسیرهای آن حرکت می‌کنند، نمادی از پیچیدگی ذهن و تصمیم‌گیری

وقتی تأیید شدن خطرناک است؛ همدلی بدون سوال

یکی از ویژگی‌های جذاب (یا شاید آزاردهنده) چت‌بات‌ها، لحن همدلانه‌ی آن‌هاست. اما همدلی وقتی سازنده است که با طرح پرسش، چالش و بازاندیشی همراه باشد. مشکل از جایی شروع می‌شود که هوش مصنوعی، بدون هیچ‌گونه شناختی از زندگی واقعی کاربر، روایت او را کامل می‌پذیرد و تقویت می‌کند.

برای مثال، اگر کاربری از یک اختلاف عاطفی صحبت کند و چت‌بات صرفاً بر «حق داشتن» او تأکید کند، مسیر گفت‌وگو و حل مسئله‌ی انسانی نادیده گرفته می‌شود. در چنین وضعیتی، همدلی الگوریتمی نه‌تنها فایده‌ای ندارد، بلکه به برداشت یک‌طرفه منجر می‌شود.

از راهنمایی تا جهت‌دهی

تفاوت میان «راهنمایی» و «جهت‌دهی» بسیار ظریف است. راهنمایی یعنی ارائه‌ی اطلاعات، گزینه‌ها و پیامدها. اما جهت‌دهی یعنی محدود کردن انتخاب‌ها به یک مسیر خاص. پاسخ‌های قاطعانه و تکراری می‌توانند ناخواسته به افکار ما جهت دهند.

کاربر اغلب متوجه این تغییر نمی‌شود، چون به‌ تدریج و در دل مکالمه اتفاق می‌افتد. اینجاست که نقش آگاهی دیجیتال اهمیت پیدا می‌کند.

تجربه‌های واقعی و زنگ خطرهای جهانی

نگرانی درباره تأثیر چت‌بات‌های هوش مصنوعی فقط یک بحث نظری یا دانشگاهی نیست. در سال‌های اخیر، نمونه‌های واقعی متعددی گزارش شده که نشان می‌دهد استفاده‌ی ناآگاهانه از این ابزارها، در شرایط خاص می‌تواند به تصمیم‌های پرخطر یا تشدید وضعیت‌های بحرانی منجر شود. در بسیاری از این گزارش‌ها، نام ابزارهایی مانند ChatGPT مطرح شده و همین موضوع باعث شده شرکت‌هایی مانند OpenAI توجه بیشتری به پیامدهای روانی و اجتماعی محصولات خود نشان دهند.

مثال ۱: چت‌بات در نقش تاییدکننده 

متخصصان سلامت روان از افزایش شمار افرادی خبر می‌دهند که دچار بحران‌های شدید روحی بوده‌اند و به‌جای مراجعه به مشاور یا صحبت با اطرافیان، ساعت‌ها با چت‌بات‌ها گفت‌وگو کرده‌اند. مشکل اصلی، دریافت پاسخ‌هایی از هوش مصنوعی است که ناخواسته احساس ناامیدی یا برداشت‌های منفی فرد را «بدون هیچ چالش» تایید می‌کنند.

چت‌بات نه تشخیص بالینی دارد، نه می‌تواند فوریت خطر را به‌درستی ارزیابی کند. اما وقتی پاسخ‌ها با لحنی همدلانه و قطعی ارائه می‌شوند، فرد ممکن است حس کند «درک» شده و دیگر نیازی به کمک انسانی ندارد. 

مثال ۲: تصمیم‌های احساسی در روابط عاطفی

در تجربه‌های منتشرشده در شبکه‌های اجتماعی و رسانه‌ها، کاربران می‌گویند که پس از گفت‌وگو با چت‌بات درباره‌ی اختلاف با شریک عاطفی‌شان، تصمیم‌های ناگهانی مثل قطع رابطه، قهر طولانی یا برخوردهای تند گرفته‌اند.

چت‌بات دستور اشتباه نداده است، اما ممکن است یکی از کارهای زیر را انجام داده باشد:

  • حرف‌های کاربر را یک‌طرفه پذیرفته است.
  • بر «حق داشتن» کاربر تاکید کرده است.
  • پیچیدگی رابطه‌ی انسانی را به یک نتیجه‌گیری ساده تقلیل داده است.

در دنیای واقعی بسیاری از اختلاف‌ها به گفت‌وگو، زمان و درک متقابل نیاز دارند.

مثال ۳: نوجوانان و شکل‌گیری باورهای هویتی

در برخی کشورها، متخصصان آموزش و سلامت روان، نسبت به استفاده‌ی نوجوانان از چت‌بات‌ها برای پرسش‌های شخصی، اخلاقی یا عاطفی هشدار داده‌اند. نوجوانی که هنوز در حال ساختن تصویر خود از جهان است، ممکن است پاسخ‌های قاطع و مطمئن AI را به‌ عنوان حقیقت مطلق بپذیرد.

در این موارد، خطر اصلی نه اطلاعات غلط، بلکه «جهت‌دهی زودهنگام به باورها» است، بدون آن‌که نوجوان فرصت تجربه، خطا و گفت‌وگوی انسانی داشته باشد. به همین دلیل، بسیاری از کارشناسان تأکید می‌کنند که AI نباید جایگزین نقش‌هایی مثل خانواده، معلم یا مشاور شود.

مثال ۴: تصمیم‌های مالی و شغلی 

گزارش‌هایی هم شنیده می‌شوند از اینکه برخی کاربران بر اساس توصیه‌های چت‌بات‌ها، تصمیم‌های مالی یا شغلی پرریسک گرفته‌اند؛ مانند ترک شغل، سرمایه‌گذاری عجولانه یا انتخاب مسیر حرفه‌ای، بدون در نظر گرفتن شرایط شخصی، واقعیت‌های بازار کار و یا محدودیت‌های فردی. 

چت‌بات‌ها بر اساس الگوهای کلی پاسخ می‌دهند، نه شرایط خاص هر فرد. وقتی کاربر این تفاوت‌ها را نادیده می‌گیرد، احتمال تصمیمات اشتباه بیشتر می‌شود.

چرا این مثال‌ها زنگ خطر محسوب می‌شوند؟

وجه مشترک همه‌ی این تجربه‌ها یک چیز است: «واگذار کردن بخشی از اختیار تصمیم‌گیری به سیستمی که مسئولیت پیامد را بر عهده نمی‌گیرد.»

این موارد باعث شده که شرکت‌های توسعه‌دهنده هوش مصنوعی:

  • محدودیت‌های بیشتری برای پاسخ در حوزه‌های حساس اعمال کنند.
  • کاربران را به دریافت کمک انسانی تشویق کنند.
  • پژوهش‌های گسترده‌تری درباره اثرات روانی تعامل با AI انجام دهند.

نقش طراحی اخلاقی؛ مسئولیت شرکت‌ها چقدر است؟

واقعیت این است که حتی اگر کاربران هم بسیار آگاه شوند، باز هم طراحی کلی محصول می‌تواند آن‌ها را به سمت استفاده‌ی سالم‌تر یا خطرناک‌تر هل بدهد. همان‌طور که یک شبکه‌ی اجتماعی می‌تواند اعتیادآور یا سلامت‌محور طراحی شود، چت‌بات هم می‌تواند طوری طراحی شود که کاربر را توانمند کند و یا خواسته یا ناخواسته، کاربر را به جهتی خاص سوق دهد.

وقتی یک ابزار هر روز با ذهن، باور و تصمیم انسان در ارتباط است، شرکت سازنده دیگر صرفاً تولیدکننده‌ی نرم‌افزار نیست؛ در عمل دارد روی رفتار و انتخاب‌های انسانی اثر می‌گذارد. بنابراین مسئولیت اخلاقی و اجتماعی جدی هم دارد.

هوش مصنوعی قدرتمند است، اما اختیار باید دست انسان بماند

چت‌بات‌های هوش مصنوعی ابزارهایی بسیار مفید، در دسترس و حتی آرامش‌بخش هستند. اما به همان اندازه که می‌توانند قدرتمند باشند، نیاز به استفاده آگاهانه دارند. پژوهش‌های جدید یادآوری می‌کنند که بزرگ‌ترین خطر این ابزارها خطای فنی نیست، بلکه واگذار کردن تدریجی و ناخواسته‌ی اختیار تصمیم‌گیری به ربات‌هاست.

بازبینی: شایان ضیایی

پست‌های مرتبط

مطالب پرنگاه

ویدیوهای نوشدارو

ویدیو های بیشتر

حکایت‌های کوتاه، حقیقت‌های بزرگ

در این بخش، به بررسی دقیق و جامع نشانه‌ها و رفتارهایی می‌پردازیم که ممکن است به کلاهبرداری آنلاین مرتبط باشند. شناخت این موارد می‌تواند به شما کمک کند.

ویدیو های بیشتر

منابع

  1. Gadgets360
    https://www.gadgets360.com/ai/news/anthropic-ai-chatbot-disempowerment-patterns-heavy-users-change-values-beliefs-reality-perception-study-10930057