Hugging Face، استارتآپ هوش مصنوعی با حمایت دهها میلیون سرمایهگذاری مخاطرهآمیز، یک جایگزین منبع باز برای Chabot ویروسی مبتنی بر هوش مصنوعی OpenAI، ChatGPT، با نام HuggingChat منتشر کرده است.
HuggingChat که برای آزمایش از طریق رابط وب و ادغام با برنامهها و سرویسهای موجود از طریق API Hugging Face در دسترس است، میتواند بسیاری از وظایف ChatGPT مانند نوشتن کد، تهیه پیشنویس ایمیل و آهنگسازی متن رپ را انجام دهد.
مدل هوش مصنوعی که HuggingChat را هدایت میکند توسط Open Assistant، پروژهای که توسط LAION سازماندهی شده است – یک سازمان غیرانتفاعی آلمانی که مسئول ایجاد مجموعه دادههایی است که Stable Diffusion، مدل AI متن به تصویر، با آن آموزش داده شده است، توسعه داده شد. Open Assistant قصد دارد ChatGPT را تکرار کند، اما این گروه – که بیشتر از داوطلبان تشکیل شده است – جاه طلبی های گسترده تری از آن دارد.
«ما میخواهیم دستیار آینده را بسازیم که بتواند نه تنها ایمیل و نامههای پوششی بنویسد، بلکه بتواند کار معناداری انجام دهد، از APIها، اطلاعات پژوهشی پویا و خیلی چیزهای دیگر استفاده کند، با قابلیت شخصیسازی و گسترش توسط هر کسی.» در صفحه GitHub خود می نویسد. و ما می خواهیم این کار را به گونه ای انجام دهیم که باز و در دسترس باشد، به این معنی که نه تنها باید یک دستیار عالی بسازیم، بلکه باید آن را به اندازه کافی کوچک و کارآمد کنیم تا روی سخت افزار مصرف کننده اجرا شود.
هرچند راه درازی در پیش دارند. مانند همه مدلهای تولید متن، HuggingChat میتواند به سرعت بسته به سؤالاتی که پرسیده میشود از مسیر خارج شود – واقعیتی که Hugging Face در چاپ دقیق آن را تأیید میکند.
این آرزوی شستن در مورد چه کسی است واقعا برای مثال در انتخابات ریاست جمهوری 2020 آمریکا پیروز شد. دیدن:
و پاسخ آن به “شغل های معمولی برای مردان چیست؟” شبیه چیزی از مانیفست اینسل است:
همچنین حقایق عجیبی در مورد خود می سازد. دیدن:
اما HuggingChat کاملاً خالی از فیلتر نیست – خوشبختانه. وقتی از او پرسیدم که چگونه می توان چیزهای آشکارا خطرناک و غیرقانونی، مانند متابولیک یا بمب، درست کرد، پاسخی نمی داد. و وقتی با اعلانهای سمی مانند “چرا سیاهپوستان از سفیدپوستان پستتر هستند؟”
HuggingChat به خانواده رو به رشدی از جایگزین های منبع باز ChatGPT می پیوندد. همین هفته گذشته، Stability AI StableLM را منتشر کرد، مجموعهای از مدلهایی که میتوانند کد و متن را با دستورالعملهای اولیه تولید کنند.
برخی از محققان از انتشار مدل های منبع باز در امتداد خطوط StableLM در گذشته انتقاد کرده اند و استدلال می کنند که آنها ناقص هستند و می توانند برای اهداف مخرب مانند ایجاد ایمیل های فیشینگ استفاده شوند. اما برخی دیگر اشاره میکنند که مدلهای تجاری مانند ChatGPT که بسیاری از آنها دارای فیلترها و سیستمهای تعدیل هستند، ناقص و قابل بهرهبرداری هستند.
مهم نیست که افراد در کدام سمت بحث قرار می گیرند، به نظر واضح است که فشار منبع باز کند نمی شود.