تنظیمکنندههای چینی قوانین محدودکنندهای را در مورد مدلهای هوش مصنوعی مانند ChatGPT که در این کشور ساخته میشوند، پیشنهاد کردهاند، که نیازمند شناسایی کاربر، بررسیهای امنیتی، و ممنوعیت «هر گونه محتوایی است که قدرت دولت را زیر سوال میبرد، از سرنگونی نظام سوسیالیستی حمایت میکند، باعث تجزیه کشور میشود یا وحدت ملی را تضعیف میکند. “
این قوانین به دنبال شرکتهای فناوری چینی است که نسخههای خود را از مدلهای زبان بزرگ، سیستمهای هوش مصنوعی همهکاره که میتوانند به زبان طبیعی مکالمه کنند و تعداد شگفتانگیزی از وظایف را انجام دهند، عرضه میکنند. در حالی که استقبال از مدلهای Sensetime، Baidu و Alibaba در ماه گذشته نشان میدهد که آنها تا حدودی از مدلهایی مانند GPT-4 عقب هستند، واضح است که صنعت آنجا به همان اندازه به توسعه این قابلیتها اختصاص دارد.
متأسفانه، مدت کوتاهی پس از معرفی مدل Tongyi Qianwen علی بابا، یکی از تنظیمکنندههای فناوری کشور، اداره فضای سایبری چین، محدودیتهایی را پیشنهاد کرد که ممکن است نوآوریهای مرتبط و جاهطلبیهای صنعت هوش مصنوعی چین را در کنار آنها خفه کند.
پیش نویس قوانین به زبان انگلیسی در دسترس نیستند (من نقل قول بالا را از ترجمه فایننشال تایمز که در Ars Technica منتشر شده است برداشتم)، اما می توانید در وب سایت تنظیم کننده اینجا مشاهده کنید. بخش اول ماده 4، هوش مصنوعی مولد را که قدرت و اقتدار دولت را زیر سوال میبرد یا وحدت ملی را زیر سوال میبرد، به همراه دستهبندیهای مختلف دیگر از ممنوعیتها مانند تبعیض قومی، تروریسم و غیره ممنوع میکند.
این نوع بند اخلاقی فراگیر در چین رایج است، اما اتفاقاً نوعی محدودیت است که هوش مصنوعی مولد به طور منحصر به فردی قادر به رعایت آن نیست. به نظر میرسد حتی دقیقترین و با دقت آموزشدیدهترین و تنظیمشدهترین LLM میتواند فریب بخورد تا همه چیزهای ناپسند را بیان کند. اینکه آیا سانسورچیان چینی تصمیم بگیرند که این مطابق با قانون است یا خیر، کم و بیش کاملاً به آنها بستگی دارد، چیزی که چشم انداز اختصاص منابع جدی به چنین پروژه ای را تا حدودی دشوار می کند.
البته بخش اعظم صنعت چین زیر یک خنجر معلق وجود دارد، و اگرچه تنظیمکنندههای چین دمدمی مزاج هستند، اما آنقدر احمق نیستند که ثمرات سالها حمایت دولت از تحقیق و توسعه در کشور را دور بریزند. این احتمال وجود دارد که برخلاف سایر قوانین محدودکننده محتوا در آنجا، این بیشتر به عنوان یک برگ انجیر و بهانه آهنین برای اعمال نفوذ دولت عمل کند – نه یک ممنوعیت کامل.
در هر صورت، این الزامات دیگری است که ممکن است توسعه هوش مصنوعی را در آنجا کند کند.
قوانین پیشنویس CAC، از جمله موارد دیگر، مستلزم آن است که ارائهدهندگان مسئولیت و مسئولیت دادههای آموزشی مدلها، از جمله اندازهگیریهای دشوار مانند اصالت، عینیت، و تنوع را بپذیرند. کاربران خدمات باید به عنوان افراد واقعی تأیید شوند. اطلاعات شخصی و شهرت باید محترم شمرده شود در غیر این صورت ممکن است تنظیم کننده ها ارائه دهنده را مسئول بدانند. محتوای تولید شده باید به این صورت برچسب گذاری شود. و بسیاری محدودیت های دیگر
مطمئناً برخی از این الزامات را میتوان محتاطانه یا حتی برای یک صنعت مسئول هوش مصنوعی تلقی کرد، اما حقیقت این است که بسیاری از آنها بسیار دشوار و شاید غیرممکن هستند که توسط شرکتها و تلاشهای تحقیق و توسعه امروزی اجرا شوند. OpenAI موفقیت خود را تا حدودی به این دلیل به دست آورده است که تقریباً در یک خلاء نظارتی کامل کار می کند. اگر قانون ایجاب میکرد که شرکت، مثلاً، از صاحبان حقوق متن و رسانهای که برای آموزش مدلهایش استفاده میکرد، مجوز بگیرد، احتمالاً همچنان منتظر ساخت GPT-2 بود.
اگر یک استارتآپ هوش مصنوعی یا حتی یک شرکت تاسیسشده به دلیل ترس از نقض گسترده این قوانین نتواند با اطمینان در چین فعالیت کند، ممکن است تصمیم بگیرند که منابع خود را بهتر در جای دیگری خرج کنند. هر چقدر این صنعت سریع حرکت می کند، بازیابی چنین عقبگردی ممکن است بسیار دشوار باشد.
فایننشال تایمز به نقل از مدیر اجرایی علی بابا، دانیل ژانگ، گفت: “10 تا 20 سال بعد، وقتی به گذشته نگاه کنیم، متوجه خواهیم شد که همه در یک خط شروع بوده ایم.” این تقریباً به طور قطع درست است، و از یک منظر مشابه، ما به خوبی میتوانیم ببینیم که چگونه مقررات نوآوری را خنثی میکند – یا شاید چگونه از یک انحصار راکد جلوگیری میکند، یا از مردم در برابر سرقت دسته جمعی به خوبی سازمانیافته دادههایشان محافظت میکند.
پیش نویس قوانین برای اظهار نظر (بدیهی است توسط احزاب در چین) برای ماه آینده باز است، پس از آن ممکن است تجدید نظر شود یا نشود، و قرار است در اواخر سال جاری اجرایی شود.