گوگل هوش مصنوعی مولد را به امنیت سایبری می آورد

روند جدیدی در فضای مولد هوش مصنوعی در حال ظهور است – هوش مصنوعی مولد برای امنیت سایبری – و گوگل از جمله کسانی است که به دنبال ورود در طبقه همکف هستند.

امروز در کنفرانس RSA 2023، گوگل Cloud Security AI Workbench را معرفی کرد، مجموعه‌ای از امنیت سایبری که توسط یک مدل تخصصی زبان هوش مصنوعی «امنیتی» به نام Sec-PaLM پشتیبانی می‌شود. گوگل می‌گوید که شاخه‌ای از مدل PalM Google، Sec-PaLM برای موارد استفاده امنیتی به‌خوبی تنظیم شده است – اطلاعات امنیتی مانند تحقیقات در مورد آسیب‌پذیری‌های نرم‌افزار، بدافزارها، شاخص‌های تهدید و نمایه‌های عامل تهدید رفتاری را در خود جای داده است.

Cloud Security AI Workbench طیف وسیعی از ابزارهای جدید مبتنی بر هوش مصنوعی را در بر می گیرد، مانند هوش مصنوعی Mandiant’s Threat Intelligence، که از Sec-PaLM برای یافتن، خلاصه کردن و اقدام در مورد تهدیدات امنیتی استفاده می کند. (به یاد بیاورید که Google Mandiant را در سال 2022 به قیمت 5.4 میلیارد دلار خریداری کرد.) VirusTotal، یکی دیگر از دارایی های Google، از Sec-PaLM برای کمک به مشترکین برای تجزیه و تحلیل و توضیح رفتار اسکریپت های مخرب استفاده می کند.

در جای دیگر، Sec-PaLM به مشتریان Chronicle، سرویس امنیت سایبری ابری Google، در جستجوی رویدادهای امنیتی و تعامل “محافظت‌آمیز” با نتایج کمک خواهد کرد. در همین حال، کاربران هوش مصنوعی مرکز فرماندهی امنیتی Google، توضیحات «قابل خواندن برای انسان» در مورد قرار گرفتن در معرض حمله توسط Sec-PaLM، از جمله دارایی‌های آسیب‌دیده، کاهش‌های توصیه‌شده و خلاصه‌های خطر برای یافته‌های امنیت، انطباق و حریم خصوصی را دریافت خواهند کرد.

گوگل در یک پست وبلاگی امروز صبح نوشت: «در حالی که هوش مصنوعی مولد اخیراً تخیل را به خود جلب کرده است، Sec-PaLM بر اساس سال‌ها تحقیق بنیادی هوش مصنوعی توسط Google و DeepMind و تخصص عمیق تیم‌های امنیتی ما است. ما تازه شروع به درک قدرت بکارگیری هوش مصنوعی مولد در امنیت کرده‌ایم و مشتاقانه منتظر ادامه استفاده از این تخصص برای مشتریان خود و ایجاد پیشرفت‌ها در سراسر جامعه امنیتی هستیم.»

اینها جاه طلبی های بسیار جسورانه ای هستند، به ویژه با توجه به اینکه VirusTotal Code Insight، اولین ابزار در میز کار هوش مصنوعی Cloud Security، در حال حاضر فقط در یک پیش نمایش محدود در دسترس است. (گوگل می‌گوید که قصد دارد بقیه پیشنهادات را در ماه‌های آینده برای «تست‌کنندگان مورد اعتماد» عرضه کند.) صراحتاً مشخص نیست که Sec-PaLM در عمل چقدر خوب کار می‌کند – یا کار نمی‌کند. مطمئناً، «کاهش‌های پیشنهادی و خلاصه‌های ریسک» مفید به نظر می‌رسند، اما آیا این پیشنهادها بسیار بهتر یا دقیق‌تر هستند زیرا یک مدل هوش مصنوعی آنها را تولید کرده است؟

به هر حال، مدل‌های زبان هوش مصنوعی – مهم نیست چقدر پیشرفته – اشتباه می‌کنند. و آنها مستعد حملاتی مانند تزریق سریع هستند، که می‌تواند باعث شود به گونه‌ای رفتار کنند که سازندگانشان قصد نداشته‌اند.

البته این مانع غول های فناوری نمی شود. در ماه مارس، مایکروسافت Security Copilot را راه‌اندازی کرد، ابزار جدیدی که هدف آن «خلاصه‌سازی» و «معنی‌سازی» اطلاعات تهدید با استفاده از مدل‌های هوش مصنوعی مولد OpenAI از جمله GPT-4 است. در مطالب مطبوعاتی، مایکروسافت – مشابه گوگل – ادعا کرد که هوش مصنوعی مولد بهتر است متخصصان امنیتی را برای مبارزه با تهدیدات جدید مجهز کند.

هیئت منصفه در این مورد بسیار مخالف است. در حقیقت، هوش مصنوعی مولد برای امنیت سایبری ممکن است بیش از هر چیز تبلیغاتی باشد – مطالعات کمی در مورد اثربخشی آن وجود دارد. ما به زودی نتایج را با خوش شانسی خواهیم دید، اما در این میان، ادعاهای گوگل و مایکروسافت را با یک دانه نمک سالم بپذیرید.