روند جدیدی در فضای مولد هوش مصنوعی در حال ظهور است – هوش مصنوعی مولد برای امنیت سایبری – و گوگل از جمله کسانی است که به دنبال ورود در طبقه همکف هستند.
امروز در کنفرانس RSA 2023، گوگل Cloud Security AI Workbench را معرفی کرد، مجموعهای از امنیت سایبری که توسط یک مدل تخصصی زبان هوش مصنوعی «امنیتی» به نام Sec-PaLM پشتیبانی میشود. گوگل میگوید که شاخهای از مدل PalM Google، Sec-PaLM برای موارد استفاده امنیتی بهخوبی تنظیم شده است – اطلاعات امنیتی مانند تحقیقات در مورد آسیبپذیریهای نرمافزار، بدافزارها، شاخصهای تهدید و نمایههای عامل تهدید رفتاری را در خود جای داده است.
Cloud Security AI Workbench طیف وسیعی از ابزارهای جدید مبتنی بر هوش مصنوعی را در بر می گیرد، مانند هوش مصنوعی Mandiant’s Threat Intelligence، که از Sec-PaLM برای یافتن، خلاصه کردن و اقدام در مورد تهدیدات امنیتی استفاده می کند. (به یاد بیاورید که Google Mandiant را در سال 2022 به قیمت 5.4 میلیارد دلار خریداری کرد.) VirusTotal، یکی دیگر از دارایی های Google، از Sec-PaLM برای کمک به مشترکین برای تجزیه و تحلیل و توضیح رفتار اسکریپت های مخرب استفاده می کند.
در جای دیگر، Sec-PaLM به مشتریان Chronicle، سرویس امنیت سایبری ابری Google، در جستجوی رویدادهای امنیتی و تعامل “محافظتآمیز” با نتایج کمک خواهد کرد. در همین حال، کاربران هوش مصنوعی مرکز فرماندهی امنیتی Google، توضیحات «قابل خواندن برای انسان» در مورد قرار گرفتن در معرض حمله توسط Sec-PaLM، از جمله داراییهای آسیبدیده، کاهشهای توصیهشده و خلاصههای خطر برای یافتههای امنیت، انطباق و حریم خصوصی را دریافت خواهند کرد.
گوگل در یک پست وبلاگی امروز صبح نوشت: «در حالی که هوش مصنوعی مولد اخیراً تخیل را به خود جلب کرده است، Sec-PaLM بر اساس سالها تحقیق بنیادی هوش مصنوعی توسط Google و DeepMind و تخصص عمیق تیمهای امنیتی ما است. ما تازه شروع به درک قدرت بکارگیری هوش مصنوعی مولد در امنیت کردهایم و مشتاقانه منتظر ادامه استفاده از این تخصص برای مشتریان خود و ایجاد پیشرفتها در سراسر جامعه امنیتی هستیم.»
اینها جاه طلبی های بسیار جسورانه ای هستند، به ویژه با توجه به اینکه VirusTotal Code Insight، اولین ابزار در میز کار هوش مصنوعی Cloud Security، در حال حاضر فقط در یک پیش نمایش محدود در دسترس است. (گوگل میگوید که قصد دارد بقیه پیشنهادات را در ماههای آینده برای «تستکنندگان مورد اعتماد» عرضه کند.) صراحتاً مشخص نیست که Sec-PaLM در عمل چقدر خوب کار میکند – یا کار نمیکند. مطمئناً، «کاهشهای پیشنهادی و خلاصههای ریسک» مفید به نظر میرسند، اما آیا این پیشنهادها بسیار بهتر یا دقیقتر هستند زیرا یک مدل هوش مصنوعی آنها را تولید کرده است؟
به هر حال، مدلهای زبان هوش مصنوعی – مهم نیست چقدر پیشرفته – اشتباه میکنند. و آنها مستعد حملاتی مانند تزریق سریع هستند، که میتواند باعث شود به گونهای رفتار کنند که سازندگانشان قصد نداشتهاند.
البته این مانع غول های فناوری نمی شود. در ماه مارس، مایکروسافت Security Copilot را راهاندازی کرد، ابزار جدیدی که هدف آن «خلاصهسازی» و «معنیسازی» اطلاعات تهدید با استفاده از مدلهای هوش مصنوعی مولد OpenAI از جمله GPT-4 است. در مطالب مطبوعاتی، مایکروسافت – مشابه گوگل – ادعا کرد که هوش مصنوعی مولد بهتر است متخصصان امنیتی را برای مبارزه با تهدیدات جدید مجهز کند.
هیئت منصفه در این مورد بسیار مخالف است. در حقیقت، هوش مصنوعی مولد برای امنیت سایبری ممکن است بیش از هر چیز تبلیغاتی باشد – مطالعات کمی در مورد اثربخشی آن وجود دارد. ما به زودی نتایج را با خوش شانسی خواهیم دید، اما در این میان، ادعاهای گوگل و مایکروسافت را با یک دانه نمک سالم بپذیرید.