آمازون با Bedrock وارد مسابقه هوش مصنوعی مولد می شود

آمازون کلاه خود را به حلقه هوش مصنوعی مولد می اندازد. اما به جای اینکه مدل های هوش مصنوعی را به تنهایی بسازد، اشخاص ثالث را برای میزبانی مدل ها در AWS استخدام می کند.

AWS امروز از Amazon Bedrock پرده برداری کرد که راهی برای ساخت اپلیکیشن های مولد مبتنی بر هوش مصنوعی از طریق مدل های از پیش آموزش دیده استارت آپ هایی از جمله AI21 Labs، Anthropic و Stability AI ارائه می دهد. Bedrock که در یک «پیش‌نمایش محدود» موجود است، دسترسی به Titan FM (مدل‌های پایه) را نیز ارائه می‌کند، خانواده‌ای از مدل‌هایی که در داخل توسط AWS آموزش دیده‌اند.

واسی فیلومین، معاون هوش مصنوعی مولد در AWS در یک مصاحبه تلفنی به TechCrunch گفت: «به‌کارگیری یادگیری ماشینی در دنیای واقعی – حل مشکلات واقعی کسب‌وکار در مقیاس – بهترین کاری است که ما انجام می‌دهیم. ما فکر می‌کنیم که هر اپلیکیشنی که وجود دارد را می‌توان با هوش مصنوعی مولد دوباره تصور کرد.

آغاز به کار Bedrock تا حدودی توسط AWS که اخیراً با استارت‌آپ‌های هوش مصنوعی مولد در چند ماه گذشته به امضا رسیده است، علاوه بر سرمایه‌گذاری رو به رشد آن در فناوری مورد نیاز برای ساخت برنامه‌های هوش مصنوعی مولد، تلگراف شده است.

نوامبر گذشته، هوش مصنوعی پایداری AWS را به عنوان ارائه‌دهنده ابری ترجیحی خود انتخاب کرد و در ماه مارس، Hugging Face و AWS برای آوردن مدل‌های تولید متن قبلی به پلتفرم AWS همکاری کردند. اخیراً، AWS یک شتاب دهنده هوش مصنوعی مولد برای استارت آپ ها راه اندازی کرد و گفت که با انویدیا برای ایجاد زیرساخت «نسل بعدی» برای آموزش مدل های هوش مصنوعی همکاری خواهد کرد.

بستر و مدل های سفارشی

بر اساس برآورد گراند ویو ریسرچ، Bedrock قدرتمندترین بازی آمازون تاکنون برای بازار مولد هوش مصنوعی است که می تواند تا سال 2030 نزدیک به 110 میلیارد دلار ارزش داشته باشد.

با Bedrock، مشتریان AWS می‌توانند از طریق API از مدل‌های AI از ارائه‌دهندگان مختلف، از جمله AWS استفاده کنند. جزئیات کمی مبهم هستند – آمازون قیمت رسمی را اعلام نکرده است. اما شرکت انجام داد تاکید می‌کند که Bedrock هدف مشتریان بزرگی است که برنامه‌های هوش مصنوعی در مقیاس سازمانی بسازند، و آن را از برخی از خدمات میزبانی مدل هوش مصنوعی مانند Replicate (به علاوه رقبای فعلی Google Cloud و Azure) متمایز می‌کند.

یکی فرض می‌کند که فروشندگان مدل‌های هوش مصنوعی مولد با دسترسی AWS یا اشتراک درآمد بالقوه برای پیوستن به Bedrock تشویق شده‌اند. با این حال، آمازون شرایط مدل مجوز یا قراردادهای میزبانی را فاش نکرد.

مدل‌های شخص ثالث میزبانی شده در Bedrock شامل خانواده Jurassic-2 آزمایشگاه AI21 است که چند زبانه هستند و می‌توانند متنی به زبان‌های اسپانیایی، فرانسوی، آلمانی، پرتغالی، ایتالیایی و هلندی تولید کنند. کلود، مدل آنتروپیک در بستر، می تواند طیف وسیعی از وظایف مکالمه و پردازش متن را انجام دهد. در همین حال، مجموعه مدل‌های Stability AI از متن به تصویر میزبان Bedrock، از جمله Stable Diffusion، می‌تواند تصاویر، هنر، آرم‌ها و طرح‌های گرافیکی تولید کند.

بستر AWS

اعتبار تصویر: آمازون

در مورد پیشنهادات سفارشی آمازون، خانواده Titan FM در حال حاضر شامل دو مدل است که احتمالاً در آینده بیشتر خواهد شد: یک مدل تولید متن و یک مدل جاسازی. مدل تولید متن، شبیه به GPT-4 OpenAI (اما نه لزوماً از نظر عملکرد یکسان)، می‌تواند وظایفی مانند نوشتن پست‌ها و ایمیل‌های وبلاگ، خلاصه کردن اسناد و استخراج اطلاعات از پایگاه‌های داده را انجام دهد. مدل جاسازی، ورودی‌های متنی مانند کلمات و عبارات را به نمایش‌های عددی، معروف به embedding، ترجمه می‌کند که حاوی معنای معنایی متن است. فیلومین ادعا می کند که شبیه به یکی از مدل هایی است که جستجو در Amazon.com را تقویت می کند.

مشتریان AWS می‌توانند هر مدل Bedrock را با اشاره به چند نمونه برچسب‌گذاری شده در Amazon S3، برنامه ذخیره‌سازی ابری آمازون، هر مدل Bedrock را سفارشی کنند – به اندازه 20 عدد کافی است. آمازون می‌گوید هیچ اطلاعات مشتری برای آموزش مدل‌های اساسی استفاده نمی‌شود.

فیلومین گفت: «در AWS… ما نقشی کلیدی در دموکراتیک کردن یادگیری ماشین و در دسترس قرار دادن آن برای هر کسی که می‌خواهد از آن استفاده کند، ایفا کرده‌ایم. Amazon Bedrock ساده‌ترین راه برای ساخت و مقیاس‌بندی برنامه‌های هوش مصنوعی مولد با مدل‌های پایه است.

البته، با توجه به سؤالات حقوقی بی پاسخ پیرامون هوش مصنوعی مولد، می توان به این فکر کرد که دقیقاً چند مشتری گاز می گیرند.

مایکروسافت با مجموعه مدل‌های هوش مصنوعی مولد خود، Azure OpenAI Service، که مدل‌های OpenAI را با ویژگی‌های اضافی برای مشتریان سازمانی بسته‌بندی می‌کند، شاهد موفقیت بوده است. مایکروسافت در یک پست وبلاگی اعلام کرد تا ماه مارس، بیش از 1000 مشتری از سرویس OpenAI Azure استفاده می کردند.

اما چندین پرونده قضایی در مورد فناوری هوش مصنوعی مولد از شرکت‌هایی مانند OpenAI و Stability AI وجود دارد که توسط شاکیانی مطرح شده است که ادعا می‌کنند داده‌های دارای حق چاپ، عمدتاً آثار هنری، بدون اجازه برای آموزش مدل‌های مولد استفاده شده است. (مدل‌های هوش مصنوعی مولد با «آموزش» روی نمونه‌های تصاویر و متن، که معمولاً به‌طور بی‌توجهی از وب خراشیده می‌شوند، خلق هنر، کد و موارد دیگر را «یاد می‌گیرند».) مورد دیگری که در دادگاه راه‌اندازی می‌کند، به دنبال این است که مشخص کند آیا مدل‌های تولیدکننده کد که انجام می‌دهند یا خیر. در واقع می‌توان آن را تجاری‌سازی کرد، و یک شهردار استرالیایی تهدید کرده است که علیه OpenAI به دلیل نادرستی‌هایی که مدل مولد آن ChatGPT منتشر کرده است، شکایتی را برای افترا مطرح می‌کند.

فیلومین رک و پوست کنده اعتماد به نفس زیادی ایجاد نکرد و از گفتن اینکه خانواده Titan FM آمازون دقیقاً بر روی کدام داده ها آموزش دیده اند خودداری کرد. در عوض، او تاکید کرد که مدل‌های Titan برای شناسایی و حذف محتوای «مضر» در داده‌هایی که مشتریان AWS برای سفارشی‌سازی ارائه می‌کنند، رد ورودی محتوای «نامناسب» کاربران و فیلتر کردن خروجی‌های حاوی سخنان مشوق نفرت‌انگیز، ناسزا و خشونت ساخته شده‌اند.

البته، همانطور که توسط ChatGPT نشان داده شده است، حتی بهترین سیستم های فیلتر را نیز می توان دور زد. به اصطلاح حملات تزریق سریع علیه ChatGPT و مدل‌های مشابه برای نوشتن بدافزار، شناسایی سوء استفاده‌ها در کد منبع باز و تولید محتوای شنیع جنسی، نژادپرستانه و اطلاعات نادرست مورد استفاده قرار گرفته‌اند. (مدل‌های هوش مصنوعی مولد تمایل دارند سوگیری‌ها را در داده‌های آموزشی تقویت کنند، یا – اگر داده‌های آموزشی مرتبط تمام شود – به سادگی موارد را درست می‌کنند.)

اما فیلومین این نگرانی ها را کنار گذاشت.

او گفت: «ما متعهد به استفاده مسئولانه از این فناوری‌ها هستیم. “ما در حال نظارت بر چشم انداز نظارتی خارج از کشور هستیم… ما وکلا زیادی داریم که به ما کمک می کنند تا ببینیم از چه داده هایی می توانیم استفاده کنیم و از چه اطلاعاتی نمی توانیم استفاده کنیم.”

به کنار تلاش های فیلومین برای اطمینان، برندها ممکن است نخواهند در مقابل همه چیزهایی که ممکن است اشتباه پیش برود، دست و پا بزنند. (در صورت شکایت، کاملاً مشخص نیست که آیا مشتریان AWS، خود AWS یا خالق مدل متخلف مسئول خواهند بود یا خیر.) اما مشتریان فردی ممکن است – به خصوص اگر هزینه ای برای این امتیاز وجود نداشته باشد.

CodeWhisperer، Trainium و Inferentia2 در GA راه اندازی شدند

در مورد این موضوع و همزمان با فشارهای مولد بزرگ هوش مصنوعی امروز، آمازون CodeWhisperer، سرویس تولید کد مبتنی بر هوش مصنوعی خود را بدون هیچ گونه محدودیتی برای توسعه‌دهندگان رایگان ساخت.

این حرکت نشان می‌دهد که CodeWhisperer جذبی را که آمازون امیدوار بود ندیده است. رقیب اصلی آن، GitHub’s Copilot، تا ژانویه بیش از یک میلیون کاربر داشت که هزاران نفر از آنها مشتریان سازمانی هستند. CodeWhisperer مطمئناً زمینی برای جبران دارد – که با راه اندازی همزمان CodeWhisperer Professional Tier قصد دارد در سمت شرکت انجام دهد. CodeWhisperer Professional Tier یک ورود به سیستم را با ادغام AWS Identity و Access Management و همچنین محدودیت های بالاتر در اسکن برای آسیب پذیری های امنیتی اضافه می کند.

CodeWhisperer در اواخر ژوئن به عنوان بخشی از AWS IDE Toolkit و افزونه های AWS Toolkit IDE به عنوان پاسخی به Copilot فوق الذکر راه اندازی شد. CodeWhisperer که بر روی میلیاردها خط کد منبع باز در دسترس عموم و پایگاه کد خود آمازون و همچنین اسناد و کدهای موجود در انجمن های عمومی آموزش دیده است، می تواند تمام توابع را در زبان هایی مانند جاوا، جاوا اسکریپت و پایتون تنها بر اساس یک نظر یا چند ضربه کلید به صورت خودکار تکمیل کند.

Amazon CodeWhisperer

اعتبار تصویر: آمازون

CodeWhisperer اکنون از چندین زبان برنامه نویسی اضافی پشتیبانی می کند – به ویژه Go، Rust، PHP، Ruby، Kotlin، C، C++، Shell scripting، SQL و Scala – و مانند قبل، مجوز مرتبط با توابعی را که نشان می دهد شباهت دارند برجسته می کند و به صورت اختیاری فیلتر می کند. به قطعه های موجود موجود در داده های آموزشی آن.

برجسته تلاشی برای جلوگیری از چالش های قانونی است که GitHub با Copilot با آن مواجه است. زمان نشان خواهد داد که آیا موفقیت آمیز است یا خیر.

فیلومین گفت: «توسعه‌دهندگان می‌توانند با این ابزارها بسیار کارآمدتر شوند. به‌روز بودن در مورد همه چیز برای توسعه‌دهندگان دشوار است… ابزارهایی مانند این به آن‌ها کمک می‌کنند که نگران آن نباشند.»

در منطقه ای که کمتر بحث برانگیز است، آمازون امروز اعلام کرد که اینطور است راه‌اندازی نمونه‌های Elastic Cloud Compute (EC2) Inf2 در دسترس عموم، با تراشه‌های AWS Inferentia2 این شرکت، که سال گذشته در کنفرانس re:Invent آمازون پیش‌نمایش شدند. نمونه‌های Inf2 برای سرعت بخشیدن به زمان‌های اجرای هوش مصنوعی طراحی شده‌اند، و خروجی ظاهراً بهتر و تأخیر کمتری برای بهبود عملکرد کلی قیمت استنتاج ارائه می‌کنند.

علاوه بر این، نمونه های آمازون EC2 Trn1n توسط AWS آمازون اعلام کرد Trainium، تراشه طراحی شده سفارشی آمازون برای آموزش هوش مصنوعی نیز از امروز به طور کلی در دسترس مشتریان است. آمازون می گوید که آنها حداکثر 1600 گیگابیت بر ثانیه پهنای باند شبکه را ارائه می دهند و به گونه ای طراحی شده اند که تا 20 درصد عملکرد بالاتری نسبت به Trn1 برای مدل های بزرگ و شبکه فشرده ارائه دهند.

هر دو Inf2 و Trn1n با پیشنهادات رقیب گوگل و مایکروسافت مانند تراشه های TPU گوگل برای آموزش هوش مصنوعی رقابت می کنند.

فیلومین با اطمینان گفت: «AWS مؤثرترین زیرساخت ابری را برای هوش مصنوعی مولد ارائه می‌کند». یکی از نیازهای مشتریان، هزینه‌های مناسب برای برخورد با این مدل‌ها است… این یکی از دلایلی است که بسیاری از مشتریان این مدل‌ها را تولید نکرده‌اند.»

سخنان جنگجویانه آنها – طبق گزارش ها، رشد هوش مصنوعی مولد Azure را به زانو درآورد. آیا آمازون نیز به همین سرنوشت دچار خواهد شد؟ این باید مشخص شود.