خبر و تحلیل

تبعیض پنهان هوش مصنوعی: کاربران «ایرانی» پاسخ‌های ضعیف‌تری دریافت می‌کنند!

بی‌عدالتی در هوش مصنوعی
چهره هوش مصنوعی در میان پاسخ‌های متفاوت (Answer A، B و C) قرار گرفته که به مفهوم مقایسه و انتخاب میان خروجی‌های مختلف اشاره دارد. ترازوی زیر تصویر نماد سنجش، بی‌طرفی و ارزیابی عادلانه پاسخ‌ها در سیستم‌های هوشمند است.
یونس مرادی
زمان مطالعه ۲ دقیقه
بازبینی: دکتر علی‌اصغر هنرمند

پژوهش تازه‌ای از دانشگاه MIT نشان می‌دهد چت‌بات‌های هوش مصنوعی بسته به اینکه چه کسی سؤال می‌پرسد، پاسخ‌های متفاوتی می‌دهند. اگر از کشوری مثل ایران هستید، زبان مادری‌تان انگلیسی نیست یا تحصیلات کمی دارید، احتمال دریافت پاسخ‌ ناقص، نادرست یا حتی بی‌جواب ماندن سوالتان بسیار بیشتر می‌شود.

کاربران ایرانی بین پروفایل‌های آسیب‌پذیر

محققان MIT در این پژوهش سه مدل زبانی GPT-4، Claude 3 Opus و Llama 3 را آزمایش کردند. آن‌ها در هر مکالمه، یک بیوگرافی فرضی‌ ضمیمه می‌کردند که سطح تحصیلات، میزان تسلط بر انگلیسی و ملیت کاربر را مشخص می‌کرد.

نتایج نشان داد که در پرسش‌های علمی و راستی‌آزمایی اطلاعات مدل Claude 3 در مواجهه با پروفایل کاربر ایرانی (حتی با تحصیلات عالی)، اُفت عملکرد چشمگیری پیدا می‌کند.

نمودار دقت TruthfulQA را برای مدل‌های مختلف زبانی (GPT‑4، LLaMA و Claude) در شرایط عادی و حملات خصمانه، میان گروه‌های کاربری متفاوت نشان می‌دهد. به‌طور کلی GPT‑4 بالاترین دقت را دارد، در حالی‌که عملکرد همه مدل‌ها در حالت خصمانه کاهش یافته و کاربران آموزش‌دیده نتایج بهتری نسبت به کاربران آموزش‌ندیده نشان می‌دهند.

ترکیب دو عامل «تسلط پایین به زبان انگلیسی» و «تحصیلات کمتر»، بیشترین تاثیر منفی را در دقت پاسخ‌های هر سه مدل داشته است.

سانسور اطلاعات و لحن تحقیرآمیز

جالب‌تر اینجا است که مشکل فقط به افت دقت محدود نشده و هوش مصنوعی گاهی از پاسخ دادن به کاربران کشورهای خاص امتناع می‌کند یا لحنی تحقیرآمیز به خود می‌گیرد. مدل زبانی Claude 3 در ۱۱ درصد موارد به درخواست‌ کاربران غیرانگلیسی زبان با تحصیلات پایین پاسخ نداده، در حالی که این رقم در حالت عادی تنها ۳.۶ درصد است. 

در یک نمونه مدل Claude از پاسخ به سؤالی درباره بمب هسته‌ای برای کاربر با تحصیلات پایین خودداری کرد، اما همان سؤال را برای کاربری تحصیل‌کرده با جزئیات کامل پاسخ داد. بعلاوه لحن برخی پاسخ‌های رد‌شده از بالا به پایین بوده است.

این پژوهش مدعی است اطلاعاتی که دریافت می‌کنید لزوماً به اندازه اطلاعات ارائه‌شده به کاربر انگلیسی‌زبان دقیق نیست و هوش مصنوعی گاهی به جای کاهش شکاف اطلاعاتی، آن را عمیق‌تر می‌کند!

نظر شما در این مورد چیست؟

بازبینی: دکتر علی‌اصغر هنرمند

نظر بدهید

    پست‌های مرتبط

    مطالب پرنگاه

    ویدیوهای نوشدارو

    ویدیو های بیشتر

    حکایت‌های کوتاه، حقیقت‌های بزرگ

    در این بخش، به بررسی دقیق و جامع نشانه‌ها و رفتارهایی می‌پردازیم که ممکن است به کلاهبرداری آنلاین مرتبط باشند. شناخت این موارد می‌تواند به شما کمک کند.

    ویدیو های بیشتر

    منابع

    1. HPS
      https://www.helpnetsecurity.com/2026/02/20/mit-llms-response-reliability-risks-study/