حریم خصوصی مبانی امنیت

۸ مثال از اطلاعاتی که هیچوقت نباید در اختیار هوش مصنوعی بگذارید!

ربات‌ها فرقی با غریبه‌ها ندارند…
مردی پشت سیستم کامپیوتر نشسته و صفحه نمایش او یک مکالمه با هوش مصنوعی حاوی اطلاعات هویتی سانسور شده را به عنوان هشداری برای عدم اشتراک‌گذاری داده‌های حساس نشان می‌دهد.
شایان ضیایی
زمان مطالعه ۵ دقیقه
صحت سنجی شده

یک‌بار برای همیشه باید این واقعیت را پذیرفت: مکالمات ما با هوش مصنوعی به‌هیچ‌وجه خصوصی نمی‌مانند!

هرچیزی که در پلتفرم‌هایی مانند جمنای، چت‌جی‌پی‌تی، کلود و هر مدل هوش مصنوعی دیگری تایپ و آپلود می‌کنیم، نه‌تنها ممکن است خوانده شود، بلکه ممکن است مورد سوءاستفاده هم قرار بگیرد. پس قاعده کلی این است: اگر حاضر نیستیم سند یا اطلاعاتی را با یک آدم کاملاً غریبه به اشتراک بگذاریم، نباید آن را برای هوش مصنوعی هم بفرستیم!

پژوهشگران دانشگاه استنفورد اخیراً سیاست‌هایِ حریمِ خصوصیِ شش شرکتِ بزرگ آمریکایی (که برخی از محبوب‌ترین مدل‌ها مثل کلود و چت‌جی‌پی‌تی را ساخته‌اند) را بررسی کردند.

نتیجه چه بود؟ اینکه همه آن‌ها به صورت پیش‌فرض از داده‌های کاربران برای تعلیم دادن مدل‌های هوش مصنوعی خود استفاده می‌کنند. برخی از آن‌ها داده‌های شما را برای همیشه نگه می‌دارند و بیشترشان هم اطلاعات را با سایر داده‌های جمع‌آوری شده از کاربر (مثل تاریخچه جستجوها و خریدهای اینترنتی) ترکیب می‌کنند.

این یعنی نه‌تنها اطلاعات خصوصی شما از چشم شرکت‌های سازنده پنهان نیست، بلکه خطر نشت اطلاعات هم وجود دارد و شاید آنچه امروز برای هوش مصنوعی می‌نویسید، فردا به دست هکرها و مهاجمان بیفتد.

چه اطلاعاتی را در اختیار هوش مصنوعی نگذاریم؟

اگر از چت‌بات‌های هوش مصنوعی استفاده می‌کنید، در اینجا به مواردی اشاره می‌کنیم که باید از اشتراک‌گذاری آن‌ها جداً خودداری کرد:

اطلاعات ورود به حساب‌های کاربری

کاملاً بدیهی است که هرگز نباید نام کاربری و رمز عبور خود را در اختیار یک چت‌بات بگذارید؛ همین موضوع شامل آپلود فایل‌هایی که حاوی این اطلاعات هستند نیز می‌شود.

این را هم فراموش نکنید که هوش مصنوعی عملکرد ضعیفی در تولید رمزهای عبور امن دارد. به‌جای آنکه تولید رمز را به هوش مصنوعی بسپارید، از ابزارهای مدیریت رمز عبور (Password Manager) مثل بیت‌واردن استفاده کنید یا اینکه سراغ تکنولوژی Passkey بروید.

اطلاعات مالی

چت‌بات‌ها کارشناس امور مالی نیستند. هرگز نباید اسناد مالی یا داده‌های مربوط به وضعیت اقتصادی شخصی خود را در این پلتفرم‌ها وارد کنید. از جمله اطلاعات حساس می‌شود به صورت‌حساب‌های بانکی، شماره کارت اعتباری، اطلاعات سرمایه‌گذاری، شماره حساب و موجودی حساب‌ها اشاره کرد. اشتراک‌گذاری جزئیات مالی در محیط‌های ناامن، خطر سرقت، کلاهبرداری و فیشینگ را به‌شدت بالا می‌برد.

پرونده‌های پزشکی

هوش مصنوعی پزشک نیست و نباید برای توصیه‌های درمانی به آن اتکا کنید. اطلاعات پزشکی خود را فقط در اختیار پزشک حاذق بگذارید و فقط از انسان‌ها راهنمایی درمانی بگیرید! در صورت آپلود اسناد پزشکی، نه‌تنها سوابق درمانی شما تبدیل به خوراکِ تعلیمِ هوش مصنوعی می‌شوند، بلکه اطلاعات‌تان در معرض خطر نشت قرار می‌گیرد.

اطلاعات هویتی

پیام‌های شما به هوش مصنوعی هرگز نباید شامل اطلاعاتی مانند نام و نام خانوادگی، آدرس، ایمیل، شماره تلفن، تاریخ تولد، شماره ملی، شماره پاسپورت یا هر داده دیگری باشد که بتوان از آن برای سرقت هویت استفاده کرد.

اطلاعات عمومی سلامت

علاوه بر مخفی نگه داشتن سوابق حساس پزشکی، باید از ارائه اطلاعاتِ ظاهراً بی‌خطر راجع به سلامتی خود که می‌توانند برای «پروفایل‌سازی» استفاده شوند هم خودداری کنید.

گزارش استنفورد اشاره می‌کند که چت‌بات می‌تواند از دلِ درخواست شما برای «دستور غذای مناسب بیمار قلبی»، وضعیت سلامت شما را استنتاج کند؛ اطلاعاتی که ممکن است روزی در دسترس شرکت‌های بیمه یا مهاجمان قرار بگیرد. همین محافظه‌کاری را باید نسبت به اطلاعات مربوط به سلامت جنسی و داروهای مصرفی هم داشته باشید.

مشکلات سلامت روان

چت‌بات شما روان‌درمانگر هم نیست! عملکرد هوش مصنوعی در زمینه سلامت روان، در بهترین حالت «بی‌فایده» و در بدترین حالت «آسیب‌زا» بوده است. حتی با وجود به‌روزرسانی‌هایی که برای محافظت از کاربران در شرایط بحرانی انجام شده، چت‌بات‌ها هنوز هم جایگزینی برای حمایت انسانی واقعی نیستند.

عکس‌های شخصی

این روزها خیلی ویرایش تصاویرشان را به هوش مصنوعی می‌سپارند، اما این کار ریسک‌های متعدد دارد. قبل از هر چیز احتمالاً دلتان نخواهد که از عکس‌های شخصی‌تان برای تعلیم هوش مصنوعی استفاده شود. علاوه بر این نباید فراموش کنیم که تصاویر معمولاً حاوی متادیتا (فراداده) و اطلاعاتی مانند موقعیت جغرافیایی و زمان دقیق تصویربرداری هستند.

حداقلی‌ترین کاری که باید انجام دهید این است که تصاویر خودتان یا دیگران (و به‌ویژه کودکان) را در اختیار هوش مصنوعی نگذارید و حواس‌تان به پاک کردن داده‌های پنهان تصاویر هم باشد.

اسناد و مدارک شرکتی

هوش مصنوعی ابزار فوق‌العاده‌ای برای خلاصه‌سازی اسناد، ساخت فایل ارائه، پیش‌نویس کردن ایمیل‌ها و خلاصه انجام سریع‌تر اکثر کارهای اداری است؛ اما هنگام آپلود فایل‌های حاویِ اطلاعاتِ حساسِ شرکت باید بسیار محتاط باشید. حتی ممکن است کارفرمای شما سیاست‌های سخت‌گیرانه‌ای داشته باشد و آپلود فایل‌ها برای هوش مصنوعی را خط قرمز به حساب بیاورد!

در آخر: کم‌ گوی و گزیده گوی!

همیشه مراقب آنچه با چت‌بات‌های هوش مصنوعی به اشتراک می‌گذارید باشید. در واقع فرض را بر این بگذارید که تک‌تک کلمات‌تان ذخیره و توسط شخصی دیگر خوانده می‌شوند! اگر این نکته مهم را فراموش نکنید، ناخودآگاه احتیاط بیشتری به خرج می‌دهید و از اشتراک‌گذاری اطلاعات شخصی و هویتی پرهیز می‌کنید. ضمناً اکثر مدل‌های فعلی، «تنظیمات حریم خصوصی» هم دارند و برای مثال می‌توان از اشتراک‌گذاری داده‌ها برای تعلیم هوش مصنوعی انصراف داد؛ از این گزینه‌ها استفاده کنید.

پست‌های مرتبط

مطالب پرنگاه

ویدیوهای نوشدارو

ویدیو های بیشتر

حکایت‌های کوتاه، حقیقت‌های بزرگ

در این بخش، به بررسی دقیق و جامع نشانه‌ها و رفتارهایی می‌پردازیم که ممکن است به کلاهبرداری آنلاین مرتبط باشند. شناخت این موارد می‌تواند به شما کمک کند.

ویدیو های بیشتر

منابع

  1. Life Hacker
    https://lifehacker.com/tech/what-not-to-share-with-ai-chatbot?utm_medium=RSS