خوب این سریع بود ناظر رقابت بریتانیا از بررسی اولیه «مدلهای پایه هوش مصنوعی» مانند مدلهای زبان بزرگ (LLM) که زیربنای ChatGPT OpenAI و Bing جدید مایکروسافت هستند، خبر داده است. مدلهای هوش مصنوعی مولد که پلتفرمهای هنری هوش مصنوعی مانند DALL-E یا Midjourney را تقویت میکنند نیز احتمالاً در محدوده قرار خواهند گرفت.
سازمان رقابت و بازار (CMA) گفت که بررسی آن به ملاحظات رقابت و حمایت از مصرفکننده در توسعه و استفاده از مدلهای بنیادی هوش مصنوعی میپردازد – با هدف درک اینکه چگونه مدلهای بنیادی در حال توسعه هستند و ارزیابی از شرایط و اصولی که بهترین راهنمای توسعه مدل های پایه و استفاده از آنها در آینده خواهد بود.
پیشنهاد میکند این بررسی در «اوایل سپتامبر» منتشر شود، با مهلت ۲ ژوئن برای ذینفعان علاقهمند برای ارسال پاسخها برای اطلاع از کار.
مدلهای بنیادی، که شامل مدلهای زبانی بزرگ و هوش مصنوعی مولد (AI) است که در پنج سال گذشته پدیدار شدهاند، این پتانسیل را دارند که بسیاری از کارهای مردم و کسبوکارها را تغییر دهند. برای اطمینان از اینکه نوآوری در هوش مصنوعی به نحوی ادامه پیدا کند که به نفع مصرف کنندگان، مشاغل و اقتصاد بریتانیا باشد، دولت از قانونگذاران، از جمله [CMA]به این فکر کنید که چگونه می توان از توسعه و استقرار خلاقانه هوش مصنوعی در برابر پنج اصل کلی حمایت کرد: ایمنی، امنیت و استحکام. شفافیت و توضیح مناسب؛ انصاف مسئولیت پذیری و حاکمیت؛ و قابل اعتراض و جبران خسارت،” CMA در بیانیه مطبوعاتی نوشت.
مرکز تحقیقات انسان محور مرکز هوش مصنوعی دانشگاه استنفورد در سال 2021 اصطلاح “مدل های بنیادی” را برای اشاره به سیستم های هوش مصنوعی که بر آموزش یک مدل بر روی حجم عظیمی از داده ها و تطبیق آن با آن متمرکز است، ابداع کرد. بسیاری از برنامه های کاربردی
«توسعه هوش مصنوعی به تعدادی از مسائل مهم از جمله ایمنی، امنیت، کپی رایت، حریم خصوصی و حقوق بشر و همچنین روشهای کار بازارها اشاره میکند. بسیاری از این مسائل توسط دولت یا سایر تنظیمکنندهها در نظر گرفته میشوند، بنابراین این بررسی اولیه بر روی سؤالاتی تمرکز میکند که CMA بهترین موقعیت برای رسیدگی به آن است – پیامدهای احتمالی توسعه مدلهای بنیاد هوش مصنوعی برای رقابت و حمایت از مصرفکننده چیست؟ CMA اضافه کرد.
سارا کاردل، مدیرعامل آن نیز در بیانیهای گفت:
هوش مصنوعی در چند ماه گذشته به آگاهی عمومی نفوذ کرده است، اما مدتی است که در رادار ما بوده است. این یک فناوری است که با سرعت در حال توسعه است و این پتانسیل را دارد که نحوه رقابت کسب و کارها را تغییر دهد و همچنین رشد اقتصادی قابل توجهی را به همراه داشته باشد.
بسیار مهم است که مزایای بالقوه این فناوری دگرگونکننده به آسانی برای کسبوکارها و مصرفکنندگان بریتانیا قابل دسترسی باشد، در حالی که مردم از مسائلی مانند اطلاعات نادرست یا گمراهکننده محافظت میشوند. هدف ما کمک به این فناوری جدید است که به سرعت در حال گسترش است به گونهای که بازارهای باز و رقابتی و حمایت مؤثر از مصرفکننده را تضمین کند.
به طور خاص، تنظیم کننده رقابت بریتانیا گفت که بررسی اولیه مدل های پایه هوش مصنوعی:
- بررسی کنید که چگونه بازارهای رقابتی برای مدل های پایه و استفاده از آنها می تواند تکامل یابد
- بررسی کنید که این سناریوها چه فرصت ها و خطراتی را برای رقابت و حمایت از مصرف کننده به همراه خواهند داشت
- همزمان با توسعه مدل های پایه هوش مصنوعی، اصول راهنما را برای حمایت از رقابت و حمایت از مصرف کنندگان تولید کنید
در حالی که ممکن است برای تنظیم کننده ضد انحصار زودتر دیده شود که چنین فناوری در حال ظهور سریعی را بررسی کند، CMA بر اساس دستورالعمل دولت عمل می کند.
مقاله سفید هوش مصنوعی که در ماه مارس منتشر شد نشان داد که وزرا ترجیح می دهند از تعیین قوانین سفارشی (یا نهادهای نظارتی) برای کنترل استفاده از هوش مصنوعی در این مرحله اجتناب کنند. با این حال وزیران گفتند که تنظیمکنندههای موجود بریتانیا – از جمله CMA که مستقیماً با نام بررسی شد – انتظار میرود دستورالعملهایی را برای تشویق استفاده ایمن، منصفانه و حسابدار از هوش مصنوعی صادر کنند.
CMA میگوید بررسی اولیه مدلهای پایه هوش مصنوعی مطابق با دستورالعملهای کاغذ سفید است، جایی که دولت در مورد تنظیمکنندههای موجود صحبت میکند که «تحلیل دقیق ریسک» را انجام میدهند تا در موقعیتی قرار بگیرند که اجرای بالقوه را انجام دهند، یعنی در مورد خطرناک، کاربردهای غیرمنصفانه و غیرقابل پاسخگویی هوش مصنوعی با استفاده از قدرت های موجود.
این تنظیم کننده همچنین به ماموریت اصلی خود – حمایت از بازارهای باز و رقابتی – به عنوان دلیل دیگری برای نگاهی به هوش مصنوعی مولد اشاره می کند.
شایان ذکر است، ناظر رقابتها قرار است در سالهای آینده اختیارات بیشتری برای تنظیم فناوری بزرگ دریافت کند، بر اساس برنامههایی که در ماه گذشته توسط دولت نخستوزیر ریشی سوناک حذف شد، زمانی که وزرا اعلام کردند که با تلاشهای طولانی به جلو خواهد رفت. اما با تأخیر فراوان) اصلاحات قبلی با هدف قدرت بازار غول های دیجیتال.
انتظار می رود که واحد بازارهای دیجیتال CMA، که از سال 2021 به شکل سایه راه اندازی شده و در حال اجرا است، (در نهایت) در سال های آینده اختیارات قانونی را برای اعمال قوانین فعال “طرفدار رقابت” که برای پلتفرم هایی که به نظر می رسد طراحی شده اند، به دست آورد. دارای “وضعیت بازار استراتژیک” (SMS) هستند. بنابراین ما میتوانیم حدس بزنیم که ارائهدهندگان مدلهای پایه قدرتمند هوش مصنوعی ممکن است دارای پیامک باشند – به این معنی که آنها میتوانند انتظار داشته باشند که با قوانین سفارشی در مورد نحوه عملکردشان در مقابل رقبا و مصرفکنندگان در بازار بریتانیا مواجه شوند.
ناظر حفاظت از داده های بریتانیا، ICO، نیز به هوش مصنوعی مولد توجه دارد. این یکی دیگر از نهادهای نظارتی موجود است که دولت بر اساس طرح خود برای راهنمایی های خاص برای هدایت توسعه فناوری از طریق اعمال قوانین موجود، وظیفه دارد به هوش مصنوعی توجه ویژه ای داشته باشد.
در یک پست وبلاگی ماه گذشته، استفان آلموند، مدیر اجرایی ریسک نظارتی ICO، نکاتی را برای توسعه دهندگان هوش مصنوعی مولد در مورد رعایت قوانین حفاظت از داده های بریتانیا ارائه کرد. او پیشنهاد کرد: «سازمانهایی که در حال توسعه یا استفاده از هوش مصنوعی مولد هستند، باید از همان ابتدا تعهدات حفاظت از دادههای خود را در نظر بگیرند و با طراحی و رویکرد پیشفرض، حفاظت از دادهها را در نظر بگیرند.» “این اختیاری نیست – اگر داده های شخصی را پردازش می کنید، این قانون است.”
در همین حال، بر فراز کانال انگلیس در اتحادیه اروپا، قانونگذاران در حال تصمیم گیری در مورد مجموعه ای ثابت از قوانین هستند که احتمالاً برای هوش مصنوعی مولد اعمال می شود.
مذاکرات برای متن نهایی برای دفترچه قوانین هوش مصنوعی اتحادیه اروپا ادامه دارد – اما در حال حاضر تمرکز بر نحوه تنظیم مدلهای اساسی از طریق اصلاحات در چارچوب مبتنی بر ریسک برای تنظیم استفاده از هوش مصنوعی است که بلوک در پیشنویس آن بیش از دو سال پیش منتشر شد.
باید دید که قانونگذاران مشترک اتحادیه اروپا در مورد آنچه که گاهی از آن به عنوان هوش مصنوعی عمومی نیز یاد می شود، به کجا می رسند. اما، همانطور که اخیراً گزارش دادیم، نمایندگان مجلس بر رویکردی لایهای برای مقابله با مسائل ایمنی با مدلهای اساسی فشار میآورند. پیچیدگی مسئولیت ها در زنجیره تامین هوش مصنوعی؛ و برای رسیدگی به نگرانی های محتوای خاص (مانند حق چاپ) که با هوش مصنوعی مولد مرتبط است.
به آن اضافه کنید، البته قانون حفاظت از داده اتحادیه اروپا در حال حاضر برای هوش مصنوعی اعمال می شود. و بررسیهای متمرکز بر حریم خصوصی مدلهایی مانند ChatGPT در بلوک در حال انجام است – از جمله در ایتالیا که مداخلهای توسط ناظر محلی منجر به آن شد که OpenAI در ماه گذشته مجموعهای از افشای حریم خصوصی و کنترلها را به سرعت انجام دهد.
هیئت حفاظت از داده های اروپا نیز اخیراً یک کارگروه برای حمایت از هماهنگی بین مقامات مختلف حفاظت از داده ها در مورد بررسی های مربوط به ربات چت هوش مصنوعی تشکیل داده است. دیگرانی که ChatGPT را بررسی می کنند شامل ناظر حریم خصوصی اسپانیا است.