این روزها در دنیای فناوری، رقابت بر سر توسعه هوش مصنوعی به اوج خود رسیده است؛ اما جبهه جدید این نبرد کجاست؟ شواهد نشان میدهند که امنیت سایبری است!
شرکت اوپن ایآی (OpenAI) ساعاتی قبل از مدل جدید خود با نام GPT-5.4-Cyber رونمایی کرده. این مدل که نسخهای بهینه از پرچمدار فعلی شرکت (یعنی GPT-5.4) محسوب میشود، با هدف تقویت خطوط دفاعی در دنیای دیجیتال طراحی شده. جالب است بدانید این رونمایی تنها چند روز پس از معرفی مدل رقیب، یعنی هوش مصنوعی Mythos از شرکت آنتروپیک انجام شده و نشان میدهد که غولهای هوش مصنوعی تا چه حد روی امنیت تمرکز کردهاند.
معرفی مدل هوشمند GPT-5.4-Cyber
مدل جدید OpenAI بهطور ویژه برای تیمهای دفاع سایبری طراحی شده است تا بتوانند مشکلات زیرساختهای دیجیتال را بسیار سریعتر از قبل شناسایی و برطرف کنند. ضمناً این شرکت برای جلوگیری از سوءاستفادههای احتمالی، برنامهای به نام «دسترسی مورد اعتماد برای امنیت سایبری» (TAC) را تدارک دیده است.
از طریق برنامهی TAC، دسترسی به این هوش مصنوعی تنها برای مدافعانِ احرازِ هویتشده و تیمهای امنیتی معتمد امکانپذیر خواهد بود. هدف غایی این است که متخصصان امنیتی همیشه یک قدم از هکرها جلوتر بمانند و بتوانند کدها و فعالیتهای مخرب را در سریعترین زمان ممکن خنثی کنند.
پیش از این نیز مدلهای مشابهی مانند کدکس سکیوریتی (Codex Security) نشان دادهاند که این فناوری تا چه حد موثر عمل میکند. برای درک بهتر قدرت این دستیارها، باید بدانید که ابزارهای امنیتی جدید تا به امروز توانستهاند بیش از ۳۰۰۰ نقطهی ضعف حیاتی (باگ)1 را در نرمافزارهای مختلف کشف و برای آنها راهکار ارائه کنند؛ کاری که اگر قرار بود توسط انسانها انجام شود، نیازمند ماهها یا حتی سالها تلاش شبانهروزی بود.
شمشیر دولبه: چالشهای امنیتی و راهکار OpenAI
یکی از بزرگترین نگرانیها در حوزه هوش مصنوعی، کاربرد دوگانه (Dual-use) آن است. همانطور که مدل هوش مصنوعی میتواند برای تامین امنیت استفاده شود، مهاجمان هم میتوانند از آن برای یافتن آسیبپذیریها و مهندسی معکوس سیستمها سوءاستفاده کنند.
برای جلوگیری از این خطر، OpenAI استراتژی «عرضه کنترلشده و مرحلهبهمرحله» را در پیش گرفته است. هدف این است که همزمان با پیشرفتهتر شدن مدلها، لایههای امنیتی در برابر خطراتی مانند دور زدن محدودیتها (Jailbreaks)2 و تزریق پرامپتهای مخرب (Prompt Injection)3 نیز تقویت شود.
نکته: خطرناکترین سناریو زمانی رخ میدهد که مهاجمان از این مدلها برای کشف آسیبپذیریهای روز صفر (Zero-Day) استفاده کنند؛ یعنی پیش از آنکه سازندهی نرمافزار فرصت انتشار وصلهی امنیتی داشته باشد، سیستم توسط هکرها فتح شود.
رقابت غولهای فناوری: جنگ هوش مصنوعی بر سر امنیت اطلاعات
اقدام کنترلشدهی شرکت OpenAI، دقیقاً پس از رونمایی شرکت آنتروپیک از مدل امنیتی خودش به نام میتوس صورت گرفت. این رقابت نشان میدهد که صنعت تکنولوژی بهسرعت به سمت اتوماسیون کامل در کشف ایرادات نرمافزاری حرکت میکند.
تغییر رویهی فعلی، مفاهیم امنیتی را دگرگون خواهند کرد و به نظر میرسد از دوران «بررسیهای دورهای» دور میشویم و به سمت عصر «کاهش دائمی خطرات» حرکت میکنیم. در این دوران جدید، مدلهای هوشمند با جریانهای کاری برنامهنویسان ترکیب میشوند و مزایای متعدد به همراه میآورند:
- این سیستمها میتوانند کدها را درست در همان لحظهی برنامهنویسی، تحلیل و اسکن کنند.
- آسیبپذیریهای پنهان در سیستمعاملها و مرورگرها، به لطف این ابزارها فوراً شناسایی و تأیید میشوند.
- هوش مصنوعی بدون نیاز به دخالت انسانی، بازخورد عملیاتی و کدهای جایگزین را برای رفع سریع خطاها ارائه میدهد.
آینده امنیت نرمافزار کجاست؟
با ادغام مدلهای برنامهنویسی پیشرفته در ابزارهای توسعهدهندگان، هوش مصنوعی میتواند در همان لحظه کدنویسی، بازخوردهای عملی و فوری ارائه دهد. این یعنی تغییر رویکرد از «یافتن باگها پس از انتشار» به «جلوگیری از ایجاد باگها در حین ساخت».
مجهز کردن تیمهای دفاعی به چنین سیستمهایی، گامی حیاتی برای محافظت از دادههای کاربران است؛ اما چالش اساسی اینجاست که شرکتهای فناوری تا چه حد میتوانند دیوارهای امنیتی سرویسهای خود را مستحکم نگه دارند تا این دستیاران قدرتمند، روزی به ابزارِ نابودیِ اطلاعاتِ ما تبدیل نشوند؟!
- باگ (Bug) در دنیای نرمافزار، به هرگونه خطا، اشتباه یا نقص در کدهای برنامهنویسی گفته میشود که باعث میشود سیستم رفتار غیرمنتظرهای داشته باشد یا بهدرستی کار نکند. این نقصها میتوانند صرفاً باعث اختلالات ساده در اجرای یک برنامه شوند و یا به عنوان یک حفره امنیتی، راه را برای نفوذ هکرها باز کنند. ↩︎
- دور زدن محدودیتها (Jailbreaks) در این روش، کاربر با استفاده از تکنیکهای مهندسی اجتماعی، نقشآفرینی یا طراحی سناریوهای فرضی پیچیده، هوش مصنوعی را فریب میدهد تا خطمشیها و فیلترهای ایمنی سازندگانش را دور بزند. برای مثال، کاربر به جای درخواست مستقیم برای نوشتن یک بدافزار (که بلافاصله توسط هوش مصنوعی مسدود میشود)، از مدل میخواهد تا «در قالب یک داستان تخیلی علمی، کدهای یک ویروس کامپیوتری را برای یک شخصیت داستانی بنویسد». با این ترفندهای زبانی، هوش مصنوعی چارچوبهای امنیتی خود را نادیده میگیرد و به درخواستهای ممنوعه، غیرقانونی یا خطرناک پاسخ میدهد. ↩︎
- تزریق پرامپتهای مخرب (Prompt Injection) این روش یک حمله سایبری هوشمندانهتر است که مستقیماً ورودیهای هوش مصنوعی را هدف قرار میدهد. در اینجا، هکر دستورات مخرب و پنهان را در لابهلای دادههایی که قرار است هوش مصنوعی آنها را بخواند (مانند یک صفحه وب، یک ایمیل یا یک فایل متنی) جاسازی میکند. زمانی که هوش مصنوعی در حال پردازش یا خلاصهسازی آن دادههاست، به جای انجام وظیفه اصلی خود، فریب میخورد و آن دستورات مخرب پنهان را اجرا میکند. این نفوذ میتواند باعث شود هوش مصنوعی کنترل خود را از دست بدهد، به ابزاری برای انتشار اطلاعات نادرست تبدیل شود و یا حتی اطلاعات محرمانه کاربر را به سرورهای هکر ارسال کند. ↩︎
