یکبار برای همیشه باید این واقعیت را پذیرفت: مکالمات ما با هوش مصنوعی بههیچوجه خصوصی نمیمانند!
هرچیزی که در پلتفرمهایی مانند جمنای، چتجیپیتی، کلود و هر مدل هوش مصنوعی دیگری تایپ و آپلود میکنیم، نهتنها ممکن است خوانده شود، بلکه ممکن است مورد سوءاستفاده هم قرار بگیرد. پس قاعده کلی این است: اگر حاضر نیستیم سند یا اطلاعاتی را با یک آدم کاملاً غریبه به اشتراک بگذاریم، نباید آن را برای هوش مصنوعی هم بفرستیم!
پژوهشگران دانشگاه استنفورد اخیراً سیاستهایِ حریمِ خصوصیِ شش شرکتِ بزرگ آمریکایی (که برخی از محبوبترین مدلها مثل کلود و چتجیپیتی را ساختهاند) را بررسی کردند.
نتیجه چه بود؟ اینکه همه آنها به صورت پیشفرض از دادههای کاربران برای تعلیم دادن مدلهای هوش مصنوعی خود استفاده میکنند. برخی از آنها دادههای شما را برای همیشه نگه میدارند و بیشترشان هم اطلاعات را با سایر دادههای جمعآوری شده از کاربر (مثل تاریخچه جستجوها و خریدهای اینترنتی) ترکیب میکنند.
این یعنی نهتنها اطلاعات خصوصی شما از چشم شرکتهای سازنده پنهان نیست، بلکه خطر نشت اطلاعات هم وجود دارد و شاید آنچه امروز برای هوش مصنوعی مینویسید، فردا به دست هکرها و مهاجمان بیفتد.
چه اطلاعاتی را در اختیار هوش مصنوعی نگذاریم؟
اگر از چتباتهای هوش مصنوعی استفاده میکنید، در اینجا به مواردی اشاره میکنیم که باید از اشتراکگذاری آنها جداً خودداری کرد:
اطلاعات ورود به حسابهای کاربری
کاملاً بدیهی است که هرگز نباید نام کاربری و رمز عبور خود را در اختیار یک چتبات بگذارید؛ همین موضوع شامل آپلود فایلهایی که حاوی این اطلاعات هستند نیز میشود.
این را هم فراموش نکنید که هوش مصنوعی عملکرد ضعیفی در تولید رمزهای عبور امن دارد. بهجای آنکه تولید رمز را به هوش مصنوعی بسپارید، از ابزارهای مدیریت رمز عبور (Password Manager) مثل بیتواردن استفاده کنید یا اینکه سراغ تکنولوژی Passkey بروید.
اطلاعات مالی
چتباتها کارشناس امور مالی نیستند. هرگز نباید اسناد مالی یا دادههای مربوط به وضعیت اقتصادی شخصی خود را در این پلتفرمها وارد کنید. از جمله اطلاعات حساس میشود به صورتحسابهای بانکی، شماره کارت اعتباری، اطلاعات سرمایهگذاری، شماره حساب و موجودی حسابها اشاره کرد. اشتراکگذاری جزئیات مالی در محیطهای ناامن، خطر سرقت، کلاهبرداری و فیشینگ را بهشدت بالا میبرد.
پروندههای پزشکی
هوش مصنوعی پزشک نیست و نباید برای توصیههای درمانی به آن اتکا کنید. اطلاعات پزشکی خود را فقط در اختیار پزشک حاذق بگذارید و فقط از انسانها راهنمایی درمانی بگیرید! در صورت آپلود اسناد پزشکی، نهتنها سوابق درمانی شما تبدیل به خوراکِ تعلیمِ هوش مصنوعی میشوند، بلکه اطلاعاتتان در معرض خطر نشت قرار میگیرد.
اطلاعات هویتی
پیامهای شما به هوش مصنوعی هرگز نباید شامل اطلاعاتی مانند نام و نام خانوادگی، آدرس، ایمیل، شماره تلفن، تاریخ تولد، شماره ملی، شماره پاسپورت یا هر داده دیگری باشد که بتوان از آن برای سرقت هویت استفاده کرد.
اطلاعات عمومی سلامت
علاوه بر مخفی نگه داشتن سوابق حساس پزشکی، باید از ارائه اطلاعاتِ ظاهراً بیخطر راجع به سلامتی خود که میتوانند برای «پروفایلسازی» استفاده شوند هم خودداری کنید.
گزارش استنفورد اشاره میکند که چتبات میتواند از دلِ درخواست شما برای «دستور غذای مناسب بیمار قلبی»، وضعیت سلامت شما را استنتاج کند؛ اطلاعاتی که ممکن است روزی در دسترس شرکتهای بیمه یا مهاجمان قرار بگیرد. همین محافظهکاری را باید نسبت به اطلاعات مربوط به سلامت جنسی و داروهای مصرفی هم داشته باشید.
مشکلات سلامت روان
چتبات شما رواندرمانگر هم نیست! عملکرد هوش مصنوعی در زمینه سلامت روان، در بهترین حالت «بیفایده» و در بدترین حالت «آسیبزا» بوده است. حتی با وجود بهروزرسانیهایی که برای محافظت از کاربران در شرایط بحرانی انجام شده، چتباتها هنوز هم جایگزینی برای حمایت انسانی واقعی نیستند.
عکسهای شخصی
چطور اطلاعات خصوصی و لوکیشن رو از داخل تصاویر پاک کنیم؟ (متادیتا و داده EXIF)
این روزها خیلی ویرایش تصاویرشان را به هوش مصنوعی میسپارند، اما این کار ریسکهای متعدد دارد. قبل از هر چیز احتمالاً دلتان نخواهد که از عکسهای شخصیتان برای تعلیم هوش مصنوعی استفاده شود. علاوه بر این نباید فراموش کنیم که تصاویر معمولاً حاوی متادیتا (فراداده) و اطلاعاتی مانند موقعیت جغرافیایی و زمان دقیق تصویربرداری هستند.
حداقلیترین کاری که باید انجام دهید این است که تصاویر خودتان یا دیگران (و بهویژه کودکان) را در اختیار هوش مصنوعی نگذارید و حواستان به پاک کردن دادههای پنهان تصاویر هم باشد.
اسناد و مدارک شرکتی
هوش مصنوعی ابزار فوقالعادهای برای خلاصهسازی اسناد، ساخت فایل ارائه، پیشنویس کردن ایمیلها و خلاصه انجام سریعتر اکثر کارهای اداری است؛ اما هنگام آپلود فایلهای حاویِ اطلاعاتِ حساسِ شرکت باید بسیار محتاط باشید. حتی ممکن است کارفرمای شما سیاستهای سختگیرانهای داشته باشد و آپلود فایلها برای هوش مصنوعی را خط قرمز به حساب بیاورد!
در آخر: کم گوی و گزیده گوی!
همیشه مراقب آنچه با چتباتهای هوش مصنوعی به اشتراک میگذارید باشید. در واقع فرض را بر این بگذارید که تکتک کلماتتان ذخیره و توسط شخصی دیگر خوانده میشوند! اگر این نکته مهم را فراموش نکنید، ناخودآگاه احتیاط بیشتری به خرج میدهید و از اشتراکگذاری اطلاعات شخصی و هویتی پرهیز میکنید. ضمناً اکثر مدلهای فعلی، «تنظیمات حریم خصوصی» هم دارند و برای مثال میتوان از اشتراکگذاری دادهها برای تعلیم هوش مصنوعی انصراف داد؛ از این گزینهها استفاده کنید.
