گوگل برای تشخیص محتوای تولیدشده با هوش مصنوعی جمنای (Gemini) از یک سیستم واترمارک نامرئی به نام SynthID استفاده میکند. این واترمارک تاکنون روی بیش از ۱۰ میلیارد تصویر و ویدیو چسبانده شده و قرار بود در برابر هرگونه ویرایش، برش، تغییر سایز یا فشردهسازی کاملاً مقاوم باشد. اما حالا یک برنامهنویس موفق شده این مکانیسم اصالتسنجی را به سادگی دور بزند.
شکستن قفل تنها با ۲۰۰ تصویر
این برنامهنویس که با نام کاربری Aloshdenny در «گیتهاب» فعالیت میکند، بهجای استفاده از شبکههای عصبی پیچیده یا کدهای فاششده، سراغ روشی ساده و خلاقانه رفت.
او با استفاده از جمنای، ۲۰۰ تصویر کاملاً سیاهوسفید تولید کرد و از همین راه توانست الگوی پنهان واترمارک گوگل را استخراج کند. او این تصاویر را روی هم قرار داد و از آنها میانگین گرفت. این کار باعث شد بخشهایی از تصویر که حاوی تغییرات پنهان بودند، خودشان را نشان بدهند و سیگنال مخفی گوگل آشکار شود.
بررسیهای او نشان داد که قویترین بخش این واترمارک در کانال رنگ سبز قرار دارد؛ یعنی از میان سه مولفهی اصلی رنگ در تصویر، بیشترین رد واترمارک در بخش سبز دیده میشود. او بعد با تکیه بر همین یافتهها، ابزاری ساخت که نهتنها میتواند واترمارکها را با دقت ۹۰ درصد شناسایی کند، بلکه قادر است آنها را بدون افت محسوس در کیفیت ظاهری تصویر حذف کند.
در آخر: زنگ خطر برای اعتماد دیجیتال
این ابزارِ دور زدن واترمارک که در پلتفرم گیتهاب منتشر شده، نشان میدهد سیستمهای تشخیص اصالت محتوا تا چه حد شکنندهاند. در شرایطی که نهادهای قانونی مانند اتحادیه اروپا فشار را برای علامتگذاری محتوای ساختهشده با هوش مصنوعی افزایش دادهاند، هک شدن سیستم محافظتی گوگل ثابت میکند که تکیه بر «امنیت از طریق پنهانکاری» راهکار پایداری نیست.
برای حل این مشکل، «ائتلاف اصالت محتوا» که با حمایت «ادوبی» و «مایکروسافت» و رسانههای معتبر جهانی پیش میرود، راه حل کاملاً متفاوتی روی میز گذاشته است. این ائتلاف سیستمی با نام C2PA را پیشنهاد کرده که به جای مخفی کردن الگوها در دل پیکسلها، همزمان با تولید محتوا، مجموعهای از دادههای رمزنگاریشده را به محتوا متصل میکند.
