سم آلتمن، مدیرعامل شرکت OpenAI (سازنده هوش مصنوعی چت جیپیتی) در یک مصاحبه گفته صحبتهای کاربران با چت جیپیتی، از مصونیت قانونی برخوردار نیست. این یعنی اگر کاربران با چت جیپیتی مثل رواندرمانگر، وکیل یا پزشک صحبت کنند و اطلاعات خصوصی ارائه دهند، هیچ تضمینی وجود ندارد که از این اطلاعات در دادگاه استفاده نشود.
آلتمن در مصاحبه اخیر خود میگوید که بسیاری از کاربران جوانِ چت جیپیتی، از این هوش مصنوعی به عنوان تراپیست یا مربی زندگی (لایف کوچ) استفاده میکنند و از آن برای روابط عاطفی و مشکلات شخصی خود مشاوره میگیرند.
اما او هشدار میدهد که هنوز قوانین صحیحی برای مکالمات مردم با هوش مصنوعی تنظیم نشده:
مکالمه با هوش مصنوعی باید از همان قواعد حریم شخصی مربوط به مکالمه با تراپیست پیروی کند و هیچکس تا همین یک سال پیش به این موضوع فکر نمیکرد.
هنوز راه حل این مشکل را برای چت جیپیتی پیدا نکردهایم. اگر با چت جیپیتی راجع به حساسترین مسائل صحبت کنید و بعد یک پرونده قضایی یا چیزی مشابه شکل بگیرد، ممکن است از ما بخواهند این اطلاعات را به اشتراک بگذاریم که به نظرم خیلی اشتباه است.
مکالمه با هوش مصنوعی باید از همان قواعد حریم شخصی مربوط به مکالمه با تراپیست پیروی کند و هیچکس تا همین یک سال پیش به این موضوع فکر نمیکرد.
آلتمن در حالی این صحبت را مطرح میکند که OpenAI در دعوای حقوقی بزرگی با نشریه نیویورک تایمز است و دادگاه ممکن است دستور به نگه داشتن اطلاعات کاربران غیر سازمانی بدهد. این شرکت به ماجرا معترض است و میگوید چنین تصمیمی آینده خطرناکی برای حریم شخصی کاربران رقم میزند.
مدیرعامل اوپنایآی در بخشی دیگر از مصاحبه میگوید که خودش به دلیل نگرانیهای مربوط به حریم خصوصی، تا جای ممکن از استفاده از ChatGPT اجتناب میکند.
به نظر کار منطقی این است که پیش از استفاده مداوم و بسیار شخصی [از چنین ابزارهایی]، از شفافیت قضایی آنها مطمئن شویم. در نهایت باید افزود که چت جیپیتی اطلاعات حیرتانگیزی درباره کاربران جمعآوری میکند و گاهی اوقات از کوچکترین جزییات زندگی کاربر و اعضای خانواده او باخبر است. اگر از این ابزار استفاده روزمره دارید، پیشنهاد میکنیم با چند پرامپت ساده بررسی کنید که چت جیپیتی چه چیزهایی در مورد شما میداند! چیزی که قبلا هم در نوشدارو به آن پرداختهایم
نظر بدهید