سیاست فناوری ایالات متحده باید همگام با نوآوری هوش مصنوعی باشد

از آنجایی که نوآوری در هوش مصنوعی (AI) از چرخه های خبری پیشی می گیرد و توجه عمومی را به خود جلب می کند، چارچوبی برای توسعه و استفاده مسئولانه و اخلاقی از آن به طور فزاینده ای حیاتی شده است تا اطمینان حاصل شود که این موج فناوری بی سابقه به پتانسیل کامل خود به عنوان کمکی مثبت به پیشرفت اقتصادی و اجتماعی می رسد. .

اتحادیه اروپا قبلاً برای وضع قوانینی پیرامون هوش مصنوعی مسئول کار کرده است. من تقریباً دو سال پیش نظرات خود را در مورد آن ابتکارات به اشتراک گذاشتم. سپس، قانون هوش مصنوعی، همانطور که شناخته شده است، “رویکردی عینی و سنجیده به نوآوری و ملاحظات اجتماعی” بود. امروز، رهبران کسب‌وکارهای فناوری و دولت ایالات متحده گرد هم می‌آیند تا یک چشم‌انداز واحد برای هوش مصنوعی مسئول ترسیم کنند.

قدرت هوش مصنوعی مولد

انتشار ChatGPT توسط OpenAI در سال گذشته تخیل نوآوران فناوری، رهبران کسب و کار و عموم مردم را به خود جلب کرد و علاقه و درک مصرف کنندگان از قابلیت های هوش مصنوعی مولد افزایش یافت. با این حال، با تبدیل شدن هوش مصنوعی به جریان اصلی، از جمله به عنوان یک موضوع سیاسی، و تمایل انسان ها به آزمایش و آزمایش سیستم ها، توانایی اطلاعات نادرست، تأثیر بر حریم خصوصی و خطر امنیت سایبری و رفتارهای متقلبانه این خطر را دارد که به سرعت تبدیل به یک فکر بعدی شود.

در تلاش اولیه برای رسیدگی به این چالش‌های بالقوه و اطمینان از نوآوری هوش مصنوعی مسئولانه که از حقوق و ایمنی آمریکایی‌ها محافظت می‌کند، کاخ سفید اقدامات جدیدی را برای ترویج هوش مصنوعی مسئولانه اعلام کرده است.

در یک برگه اطلاعاتی که هفته گذشته توسط کاخ سفید منتشر شد، دولت بایدن هریس سه اقدام را برای “ترویج نوآوری مسئولانه آمریکایی در هوش مصنوعی (AI) و حفاظت از حقوق و ایمنی مردم تشریح کرد. این شامل:

  • سرمایه‌گذاری‌های جدید برای تقویت تحقیق و توسعه هوش مصنوعی آمریکایی.
  • ارزیابی عمومی سیستم های هوش مصنوعی مولد موجود
  • سیاست‌هایی برای حصول اطمینان از اینکه دولت ایالات متحده در کاهش خطرات هوش مصنوعی و استفاده از فرصت‌های هوش مصنوعی پیشرو است.

سرمایه گذاری های جدید

با توجه به سرمایه‌گذاری‌های جدید، بودجه 140 میلیون دلاری بنیاد ملی علوم برای راه‌اندازی هفت موسسه تحقیقاتی ملی هوش مصنوعی در مقایسه با آنچه توسط شرکت‌های خصوصی جمع‌آوری شده است، کمرنگ است.

اگرچه از نظر جهت درست است، سرمایه‌گذاری دولت ایالات متحده در هوش مصنوعی به طور کلی در مقایسه با سرمایه‌گذاری‌های دولتی سایر کشورها، یعنی چین که سرمایه‌گذاری‌های خود را در سال 2017 آغاز کرد، بسیار کوچک است. فرصتی فوری برای تقویت تأثیر سرمایه‌گذاری از طریق مشارکت‌های دانشگاهی برای توسعه نیروی کار و تحقیق وجود دارد. دولت باید مراکز هوش مصنوعی را در کنار مؤسسات دانشگاهی و شرکتی که در خط مقدم تحقیق و توسعه هوش مصنوعی قرار دارند، تأمین مالی کند، نوآوری را هدایت کند و فرصت‌های جدیدی را برای کسب‌وکارها با قدرت هوش مصنوعی ایجاد کند.

همکاری بین مراکز هوش مصنوعی و موسسات آکادمیک برتر، مانند کالج شوارتزمن MIT و موسسه هوش مصنوعی تجربی Northeastern، به پر کردن شکاف بین تئوری و کاربرد عملی با گرد هم آوردن کارشناسان دانشگاهی، صنعتی و دولتی برای همکاری در تحقیقات پیشرفته کمک می‌کند. پروژه های توسعه ای که کاربردهای واقعی دارند. با مشارکت با شرکت های بزرگ، این مراکز می توانند به شرکت ها کمک کنند تا هوش مصنوعی را در عملیات خود ادغام کنند، کارایی، صرفه جویی در هزینه و نتایج بهتر مصرف کننده را بهبود بخشند.

علاوه بر این، این مراکز به آموزش نسل بعدی کارشناسان هوش مصنوعی با فراهم کردن دسترسی دانش‌آموزان به فناوری پیشرفته، تجربه عملی در پروژه‌های دنیای واقعی و راهنمایی رهبران صنعت کمک می‌کنند. با اتخاذ رویکردی پیشگیرانه و مشارکتی برای هوش مصنوعی، دولت ایالات متحده می تواند به شکل دادن به آینده ای کمک کند که در آن هوش مصنوعی به جای جایگزینی، کار انسان را بهبود بخشد. در نتیجه همه افراد جامعه می توانند از فرصت های ایجاد شده توسط این فناوری قدرتمند بهره مند شوند.

ارزیابی های عمومی

ارزیابی مدل برای اطمینان از اینکه مدل‌های هوش مصنوعی دقیق، قابل اعتماد و بدون تعصب هستند و برای استقرار موفقیت‌آمیز در برنامه‌های کاربردی دنیای واقعی ضروری هستند، حیاتی است. برای مثال، یک مورد استفاده از برنامه‌ریزی شهری را تصور کنید که در آن هوش مصنوعی مولد در شهرهای دارای خط قرمز با جمعیت‌های فقیر که از لحاظ تاریخی نشان داده نشده‌اند، آموزش داده می‌شود. متأسفانه، این فقط به موارد مشابه منجر می شود. همین امر در مورد سوگیری در وام دهی نیز صدق می کند، زیرا موسسات مالی بیشتری از الگوریتم های هوش مصنوعی برای تصمیم گیری در مورد وام استفاده می کنند.

اگر این الگوریتم‌ها بر روی داده‌های تبعیض‌آمیز علیه گروه‌های جمعیتی خاص آموزش داده شوند، ممکن است به طور غیرمنصفانه وام به آن گروه‌ها را رد کنند که منجر به نابرابری‌های اقتصادی و اجتماعی شود. اگرچه اینها تنها چند نمونه از سوگیری در هوش مصنوعی هستند، اما این باید بدون توجه به سرعت توسعه و بکارگیری فناوری‌ها و تکنیک‌های جدید هوش مصنوعی در ذهن باقی بماند.

برای مبارزه با تعصب در هوش مصنوعی، دولت فرصت جدیدی را برای ارزیابی مدل در دهکده هوش مصنوعی DEFCON 31 اعلام کرده است، انجمنی برای محققان، پزشکان و علاقه مندان تا گرد هم آیند و آخرین پیشرفت ها در هوش مصنوعی و یادگیری ماشین را بررسی کنند. ارزیابی مدل یک ابتکار مشترک با برخی از بازیگران کلیدی در فضا، از جمله Anthropic، Google، Hugging Face، Microsoft، Nvidia، OpenAI و Stability AI است که از پلتفرم ارائه شده توسط Scale AI بهره می‌برد.

علاوه بر این، نحوه هماهنگی مدل‌ها با اصول و شیوه‌های مشخص شده در طرح کلی دولت بایدن هریس برای منشور حقوق هوش مصنوعی و چارچوب مدیریت ریسک هوش مصنوعی مؤسسه ملی استانداردها و فناوری (NIST) را اندازه‌گیری می‌کند. این یک پیشرفت مثبت است که به موجب آن دولت مستقیماً با شرکت‌ها درگیر است و از تخصص رهبران فنی در این فضا که به آزمایشگاه‌های هوش مصنوعی شرکتی تبدیل شده‌اند، سرمایه‌گذاری می‌کند.

سیاست های دولت

با توجه به سومین اقدام در رابطه با سیاست‌ها برای حصول اطمینان از اینکه دولت ایالات متحده به عنوان نمونه در کاهش خطرات هوش مصنوعی و استفاده از فرصت‌های هوش مصنوعی پیشرو است، دفتر مدیریت و بودجه قرار است دستورالعمل‌های سیاستی در مورد استفاده از سیستم‌های هوش مصنوعی توسط دولت ایالات متحده را برای اظهار نظر عمومی تهیه کند. . باز هم، هیچ جدول زمانی یا جزئیاتی برای این سیاست‌ها ارائه نشده است، اما انتظار می‌رود فرمان اجرایی در مورد عدالت نژادی که در اوایل سال جاری صادر شد، در خط مقدم باشد.

این فرمان اجرایی شامل مقرراتی است که به سازمان‌های دولتی دستور می‌دهد تا از هوش مصنوعی و سیستم‌های خودکار به‌گونه‌ای استفاده کنند که عدالت را افزایش دهد. برای اینکه این سیاست‌ها تأثیر معناداری داشته باشند، باید مشوق‌ها و پیامدهایی داشته باشند. آنها نمی توانند صرفاً راهنمایی اختیاری باشند. به عنوان مثال، استانداردهای NIST برای امنیت، الزامات موثر برای استقرار توسط اکثر ارگان های دولتی هستند. عدم رعایت آنها، حداقل، برای افراد درگیر بسیار شرم آور و زمینه ای برای اقدامات پرسنل در برخی از بخش های دولت است. سیاست های دولتی هوش مصنوعی، به عنوان بخشی از NIST یا موارد دیگر، باید قابل مقایسه باشند تا موثر باشند.

علاوه بر این، هزینه پایبندی به چنین مقرراتی نباید مانعی برای نوآوری مبتنی بر استارتاپ باشد. به عنوان مثال، در چارچوبی که هزینه های مربوط به انطباق مقررات با اندازه کسب و کار در مقیاس باشد، چه چیزی می توان به دست آورد؟ در نهایت، از آنجایی که دولت به خریدار قابل توجه پلتفرم‌ها و ابزارهای هوش مصنوعی تبدیل می‌شود، بسیار مهم است که سیاست‌های آن به اصل راهنمای ساخت چنین ابزارهایی تبدیل شوند. پایبندی به این راهنما را یک الزام واقعی یا حتی مؤثر برای خرید قرار دهید (به عنوان مثال، استاندارد امنیتی FedRamp)، و این سیاست ها می توانند سوزن را حرکت دهند.

همانطور که سیستم‌های هوش مصنوعی مولد قدرتمندتر و گسترده‌تر می‌شوند، برای همه ذینفعان – از جمله بنیان‌گذاران، اپراتورها، سرمایه‌گذاران، فن‌آوران، مصرف‌کنندگان و تنظیم‌کننده‌ها – ضروری است که در پیگیری و تعامل با این فناوری‌ها متفکر و عمدی باشند. در حالی که هوش مصنوعی و هوش مصنوعی مولد به طور گسترده‌تری پتانسیل ایجاد انقلاب در صنایع و ایجاد فرصت‌های جدید را دارند، چالش‌های مهمی را نیز به‌ویژه در مورد مسائل مربوط به تعصب، حفظ حریم خصوصی و ملاحظات اخلاقی ایجاد می‌کنند.

بنابراین، همه ذینفعان باید شفافیت، مسئولیت پذیری و همکاری را در اولویت قرار دهند تا اطمینان حاصل شود که هوش مصنوعی به طور مسئولانه و سودمند توسعه یافته و استفاده می شود. این به معنای سرمایه گذاری در تحقیق و توسعه هوش مصنوعی اخلاقی، تعامل با دیدگاه ها و جوامع مختلف، و ایجاد دستورالعمل ها و مقررات روشن برای توسعه و به کارگیری این فناوری ها است.