سازمان ها باید به سرعت استراتژی های امنیتی برنامه خود را برای مقابله با تهدیدات جدید ناشی از هوش مصنوعی تطبیق دهند.
آنها عبارتند از:
- ترافیک ربات پیچیده تر.
- حملات فیشینگ باورپذیرتر
- ظهور عوامل قانونی هوش مصنوعی که از طرف کاربران به حساب های آنلاین مشتریان دسترسی پیدا می کنند.
با درک مفاهیم هوش مصنوعی بر مدیریت دسترسی به هویت (IAM) و انجام اقدامات پیشگیرانه، کسب و کارها می توانند جلوتر از منحنی هوش مصنوعی باقی بمانند و از دارایی های دیجیتال خود محافظت کنند. در اینجا سه اقدام اصلی وجود دارد که سازمان هایی که امنیت برنامه خود را برای دنیای پس از هوش مصنوعی آماده می کنند باید در استراتژی های امنیتی خود در نظر بگیرند:
ما قبلاً نمونههایی از مهندسی معکوس سایتهای مجهز به هوش مصنوعی برای دریافت محاسبات هوش مصنوعی رایگان را میبینیم.
در مقابل مهندسی معکوس دفاع کنید
هر برنامهای که قابلیتهای هوش مصنوعی را در سمت مشتری آشکار میکند، در معرض خطر حملات ربات پیچیدهای است که به دنبال «اسکیم کردن» یا هرزنامهنویسی آن نقاط پایانی API هستند – و ما در حال حاضر نمونههایی از مهندسی معکوس سایتهای مجهز به هوش مصنوعی برای دریافت محاسبات هوش مصنوعی رایگان را میبینیم.
مثالی از GPT4Free را در نظر بگیرید، یک پروژه GitHub که به مهندسی معکوس سایتها و Piggyback در منابع GPT اختصاص دارد. این بیش از 15000 ستاره در تنها چند روز در یک نمونه عمومی آشکار از مهندسی معکوس جمع آوری کرد.
برای جلوگیری از مهندسی معکوس، سازمان ها باید روی ابزارهای پیشرفته تقلب و کاهش ربات سرمایه گذاری کنند. روشهای استاندارد ضد ربات مانند CAPTCHA، محدود کردن نرخ و JA3 (شکلی از انگشت نگاری TLS) میتوانند برای شکست دادن رباتهای معمولی ارزشمند باشند، اما این روشهای استاندارد به راحتی با مشکلات پیچیدهتر ربات مانند مواردی که با نقاط پایانی هوش مصنوعی مواجه هستند، شکست میخورند. محافظت در برابر مهندسی معکوس به ابزارهای پیچیده تری مانند CAPTCHAهای سفارشی یا جاوا اسکریپت مقاوم در برابر دستکاری و ابزارهای انگشت نگاری دستگاه نیاز دارد.