ویژگی امنیتی جدید GitLab از هوش مصنوعی برای توضیح آسیب‌پذیری‌ها برای توسعه‌دهندگان استفاده می‌کند

پلتفرم توسعه‌دهنده GitLab امروز یک ویژگی امنیتی مبتنی بر هوش مصنوعی را معرفی کرد که از یک مدل زبان بزرگ برای توضیح آسیب‌پذیری‌های بالقوه برای توسعه‌دهندگان استفاده می‌کند و برنامه‌هایی برای گسترش این آسیب‌پذیری‌ها برای رفع خودکار این آسیب‌پذیری‌ها با استفاده از هوش مصنوعی در آینده دارد.

در اوایل این ماه، این شرکت یک ابزار آزمایشی جدید را معرفی کرد که کد را برای یک توسعه‌دهنده توضیح می‌دهد – شبیه به ویژگی امنیتی جدید اعلام شده GitLab – و یک ویژگی آزمایشی جدید که به طور خودکار نظرات مربوط به مشکل را خلاصه می‌کند. در این زمینه، همچنین شایان ذکر است که GitLab قبلاً یک ابزار تکمیل کد را راه‌اندازی کرده بود که اکنون در دسترس کاربران GitLab Ultimate و Premium است و ویژگی بررسی‌کنندگان پیشنهادی مبتنی بر ML آن در سال گذشته.

اعتبار تصویر: GitLab

ویژگی جدید «توضیح این آسیب‌پذیری» سعی می‌کند به تیم‌ها کمک کند تا بهترین راه را برای رفع آسیب‌پذیری در چارچوب کد پایه پیدا کنند. این زمینه است که تفاوت را در اینجا ایجاد می کند، زیرا این ابزار قادر است اطلاعات اولیه مربوط به آسیب پذیری را با بینش خاصی از کد کاربر ترکیب کند. این باید رفع این مشکلات را آسان‌تر و سریع‌تر کند.

این شرکت فلسفه کلی خود را در پس افزودن ویژگی‌های هوش مصنوعی «سرعت با نرده‌های محافظ» می‌نامد، یعنی ترکیبی از کد هوش مصنوعی و تولید آزمایش که توسط پلتفرم تمام پشته DevSecOps این شرکت پشتیبانی می‌شود تا اطمینان حاصل شود که هر آنچه که هوش مصنوعی تولید می‌کند می‌تواند با خیال راحت به کار گرفته شود.

GitLab همچنین تاکید کرد که تمام ویژگی‌های هوش مصنوعی آن با در نظر گرفتن حریم خصوصی ساخته شده‌اند. «اگر ما هستند لمس کردن yما پر فکر ویژگی، که است کد، wه هستند فقط رفتن به بودن در حال ارسال که به آ مدل که است GitLabs یا است در GitLab ابر معماری،» دیوید دسانتو، مدیر ارشد اجرایی GitLab به من گفت. «تیاو دلیل اینکه چرا آن برای ما مهم است – و این به آن برمی گردد شرکت، پروژه DevSecOps – این است ما مشتریان هستند به شدت تنظیم شده است. ما مشتریان هستند معمولا بسیار امنیت و انطباق هوشیار، آگاه، و ما می دانست ما میتوانست نه ساختن آ کد پیشنهادات راه حل که ضروری ما در حال ارسال آی تی به آ سوم-مهمانی – جشن هوش مصنوعی.” او همچنین خاطرنشان کرد که GitLab از داده های خصوصی مشتریان خود برای آموزش مدل های خود استفاده نخواهد کرد.

DeSanto تاکید کرد که هدف کلی GitLab برای ابتکار هوش مصنوعی خود، بهره وری 10 برابری است – و نه فقط کارایی توسعه دهنده فردی، بلکه چرخه عمر کلی توسعه. همانطور که او به درستی اشاره کرد، حتی اگر بتوانید بهره‌وری یک توسعه‌دهنده را 100 برابر کنید، ناکارآمدی‌های پایین‌دستی در بررسی آن کد و تولید آن به راحتی می‌تواند آن را نفی کند.

اگر توسعه است 20% از را زندگی چرخه، زوج اگر ما ساختن که 50% بیشتر موثر، شما هستید نه واقعا رفتن به احساس کنید دیسانتو گفت.اکنون، اگر ما ساختن را امنیت تیم ها، را عملیات تیم ها، را تیم های انطباق همچنین بیشتر کارآمد، سپس مانند یک سازمان، شما هستید رفتن به دیدن آی تی.”

به عنوان مثال، ویژگی «توضیح این کد» نه تنها برای توسعه دهندگان، بلکه برای تیم‌های QA و امنیتی کاملاً مفید است، که اکنون درک بهتری از آنچه باید آزمایش کنند، دریافت می‌کنند. مطمئناً به همین دلیل بود که GitLab آن را گسترش داد تا آسیب‌پذیری‌ها را نیز توضیح دهد. در درازمدت، ایده در اینجا ساخت ویژگی‌هایی است که به این تیم‌ها کمک می‌کند تا به طور خودکار تست‌های واحد و بررسی‌های امنیتی را تولید کنند – که سپس در پلتفرم کلی GitLab ادغام می‌شوند.

بر اساس گزارش اخیر DevSecOps GitLab، 65 درصد از توسعه دهندگان در حال حاضر از هوش مصنوعی و ML در تلاش های آزمایشی خود استفاده می کنند یا قصد دارند این کار را در سه سال آینده انجام دهند. در حال حاضر، 36٪ از تیم ها از یک ابزار AI/ML برای بررسی کد خود قبل از اینکه بازبین کد آن را ببینند استفاده می کنند.

دیو استیر از GitLab در اطلاعیه امروز می‌نویسد: «با توجه به محدودیت‌های منابعی که تیم‌های DevSecOps با آن مواجه هستند، اتوماسیون و هوش مصنوعی به یک منبع استراتژیک تبدیل می‌شوند. پلتفرم DevSecOps ما به تیم‌ها کمک می‌کند که شکاف‌های مهم را پر کنند، در حالی که به‌طور خودکار سیاست‌ها را اعمال می‌کنند، چارچوب‌های انطباق را اعمال می‌کنند، آزمایش‌های امنیتی را با استفاده از قابلیت‌های اتوماسیون GitLab انجام می‌دهند و توصیه‌هایی به کمک هوش مصنوعی ارائه می‌کنند – که منابع را آزاد می‌کند.»