رهبران OpenAI یک نهاد نظارتی بین‌المللی برای هوش مصنوعی پیشنهاد می‌کنند

هوش مصنوعی به اندازه کافی سریع در حال توسعه است و خطراتی که ممکن است ایجاد کند به اندازه کافی روشن است که رهبری OpenAI معتقد است که جهان به یک نهاد نظارتی بین المللی مشابه قدرت هسته ای حاکم نیاز دارد – و سریع. اما نه خیلی سریع.

در پستی در وبلاگ این شرکت، سام آلتمن، بنیانگذار OpenAI، رئیس جمهور گرگ براکمن، و دانشمند ارشد ایلیا سوتسکور توضیح می‌دهند که سرعت نوآوری در هوش مصنوعی آنقدر سریع است که نمی‌توانیم انتظار داشته باشیم مقامات موجود به اندازه کافی این فناوری را مهار کنند.

در حالی که در اینجا کیفیت خاصی از دست زدن به پشت خود وجود دارد، برای هر ناظر بی طرفی واضح است که این فناوری، به وضوح در عامل مکالمه پرطرفدار OpenAI ChatGPT، یک تهدید منحصر به فرد و همچنین دارایی ارزشمندی را نشان می دهد.

این پست، معمولاً نسبت به جزئیات و تعهدات بسیار سبک است، با این وجود اذعان می کند که هوش مصنوعی قرار نیست خود را مدیریت کند:

ما به درجاتی از هماهنگی بین تلاش‌های توسعه پیشرو نیاز داریم تا اطمینان حاصل کنیم که توسعه ابرهوشی به گونه‌ای اتفاق می‌افتد که به ما امکان می‌دهد هم ایمنی را حفظ کنیم و هم به ادغام روان این سیستم‌ها با جامعه کمک کنیم.

ما به احتمال زیاد در نهایت به چیزی شبیه یک نیاز خواهیم داشت [International Atomic Energy Agency] برای تلاش های ابراطلاعاتی؛ هر تلاشی که بالاتر از حد آستانه توانایی خاص (یا منابعی مانند محاسبه) باشد، باید تابع یک مقام بین‌المللی باشد که می‌تواند سیستم‌ها را بازرسی کند، نیاز به ممیزی داشته باشد، مطابقت با استانداردهای ایمنی را آزمایش کند، محدودیت‌هایی برای درجات استقرار و سطوح امنیت و غیره ایجاد کند.

آژانس بین‌المللی انرژی اتمی نهاد رسمی سازمان ملل برای همکاری بین‌المللی در مورد مسائل انرژی هسته‌ای است، هرچند که البته مانند سایر سازمان‌های این چنینی می‌تواند به شدت بخواهد. یک نهاد حاکم بر هوش مصنوعی که بر اساس این مدل ساخته شده است، ممکن است نتواند وارد شود و کلید یک بازیگر بد را باز کند، اما می تواند استانداردها و توافقات بین المللی را ایجاد و پیگیری کند، که حداقل یک نقطه شروع است.

در پست OpenAI اشاره می شود که ردیابی توان محاسباتی و مصرف انرژی اختصاص داده شده به تحقیقات هوش مصنوعی یکی از معدود اقدامات عینی است که می تواند و احتمالاً باید گزارش و ردیابی شود. اگرچه ممکن است سخت باشد که بگوییم هوش مصنوعی باید یا نباید برای این یا آن استفاده شود، ممکن است مفید باشد که بگوییم منابع اختصاص داده شده به آن، مانند سایر صنایع، باید نظارت و حسابرسی شوند. (شرکت‌های کوچک‌تر می‌توانند معاف شوند تا شاخه‌های سبز نوآوری را خفه نکنند، این شرکت پیشنهاد کرد.)

محقق و منتقد برجسته هوش مصنوعی تیمنیت گبرو همین امروز در مصاحبه ای با گاردین گفت: «مگر اینکه فشار خارجی برای انجام کاری متفاوت وجود داشته باشد، شرکت ها فقط خود تنظیم نمی شوند. ما به مقررات نیاز داریم و به چیزی بهتر از صرفاً انگیزه سود نیاز داریم.»

OpenAI به وضوح مورد دوم را پذیرفته است، به تعجب بسیاری از کسانی که امیدوار بودند به نام خود عمل کند، اما حداقل به عنوان رهبر بازار همچنین خواستار اقدام واقعی در سمت حاکمیت است – فراتر از شنیدن آخرین اخبار، جایی که سناتورها در صف قرار می گیرند. برای ایراد سخنرانی های انتخاباتی مجدد که به علامت سوال ختم می شود.

در حالی که این پیشنهاد به معنای “شاید ما باید، دوست داشته باشیم، کاری انجام دهیم” است، حداقل شروع کننده گفتگو در صنعت است و نشان دهنده حمایت بزرگترین برند و ارائه دهنده هوش مصنوعی در جهان برای انجام آن کار است. نظارت عمومی به شدت مورد نیاز است، اما “ما هنوز نمی دانیم چگونه چنین مکانیزمی را طراحی کنیم.”

و اگرچه رهبران شرکت می گویند که از ترمز زدن حمایت می کنند، اما هنوز هیچ برنامه ای برای انجام این کار وجود ندارد، هم به این دلیل که نمی خواهند پتانسیل عظیم “برای بهبود جوامع ما” را رها کنند (بدون اشاره به نتایج نهایی) و زیرا این خطر وجود دارد که بازیگران بد پای خود را کاملاً روی گاز بگذارند.