از آنجایی که نوآوری در هوش مصنوعی (AI) از چرخه های خبری پیشی می گیرد و توجه عمومی را به خود جلب می کند، چارچوبی برای توسعه و استفاده مسئولانه و اخلاقی از آن به طور فزاینده ای حیاتی شده است تا اطمینان حاصل شود که این موج فناوری بی سابقه به پتانسیل کامل خود به عنوان کمکی مثبت به پیشرفت اقتصادی و اجتماعی می رسد. .
اتحادیه اروپا قبلاً برای وضع قوانینی پیرامون هوش مصنوعی مسئول کار کرده است. من تقریباً دو سال پیش نظرات خود را در مورد آن ابتکارات به اشتراک گذاشتم. سپس، قانون هوش مصنوعی، همانطور که شناخته شده است، “رویکردی عینی و سنجیده به نوآوری و ملاحظات اجتماعی” بود. امروز، رهبران کسبوکارهای فناوری و دولت ایالات متحده گرد هم میآیند تا یک چشمانداز واحد برای هوش مصنوعی مسئول ترسیم کنند.
قدرت هوش مصنوعی مولد
انتشار ChatGPT توسط OpenAI در سال گذشته تخیل نوآوران فناوری، رهبران کسب و کار و عموم مردم را به خود جلب کرد و علاقه و درک مصرف کنندگان از قابلیت های هوش مصنوعی مولد افزایش یافت. با این حال، با تبدیل شدن هوش مصنوعی به جریان اصلی، از جمله به عنوان یک موضوع سیاسی، و تمایل انسان ها به آزمایش و آزمایش سیستم ها، توانایی اطلاعات نادرست، تأثیر بر حریم خصوصی و خطر امنیت سایبری و رفتارهای متقلبانه این خطر را دارد که به سرعت تبدیل به یک فکر بعدی شود.
در تلاش اولیه برای رسیدگی به این چالشهای بالقوه و اطمینان از نوآوری هوش مصنوعی مسئولانه که از حقوق و ایمنی آمریکاییها محافظت میکند، کاخ سفید اقدامات جدیدی را برای ترویج هوش مصنوعی مسئولانه اعلام کرده است.
در یک برگه اطلاعاتی که هفته گذشته توسط کاخ سفید منتشر شد، دولت بایدن هریس سه اقدام را برای “ترویج نوآوری مسئولانه آمریکایی در هوش مصنوعی (AI) و حفاظت از حقوق و ایمنی مردم تشریح کرد. این شامل:
- سرمایهگذاریهای جدید برای تقویت تحقیق و توسعه هوش مصنوعی آمریکایی.
- ارزیابی عمومی سیستم های هوش مصنوعی مولد موجود
- سیاستهایی برای حصول اطمینان از اینکه دولت ایالات متحده در کاهش خطرات هوش مصنوعی و استفاده از فرصتهای هوش مصنوعی پیشرو است.
سرمایه گذاری های جدید
با توجه به سرمایهگذاریهای جدید، بودجه 140 میلیون دلاری بنیاد ملی علوم برای راهاندازی هفت موسسه تحقیقاتی ملی هوش مصنوعی در مقایسه با آنچه توسط شرکتهای خصوصی جمعآوری شده است، کمرنگ است.
اگرچه از نظر جهت درست است، سرمایهگذاری دولت ایالات متحده در هوش مصنوعی به طور کلی در مقایسه با سرمایهگذاریهای دولتی سایر کشورها، یعنی چین که سرمایهگذاریهای خود را در سال 2017 آغاز کرد، بسیار کوچک است. فرصتی فوری برای تقویت تأثیر سرمایهگذاری از طریق مشارکتهای دانشگاهی برای توسعه نیروی کار و تحقیق وجود دارد. دولت باید مراکز هوش مصنوعی را در کنار مؤسسات دانشگاهی و شرکتی که در خط مقدم تحقیق و توسعه هوش مصنوعی قرار دارند، تأمین مالی کند، نوآوری را هدایت کند و فرصتهای جدیدی را برای کسبوکارها با قدرت هوش مصنوعی ایجاد کند.
همکاری بین مراکز هوش مصنوعی و موسسات آکادمیک برتر، مانند کالج شوارتزمن MIT و موسسه هوش مصنوعی تجربی Northeastern، به پر کردن شکاف بین تئوری و کاربرد عملی با گرد هم آوردن کارشناسان دانشگاهی، صنعتی و دولتی برای همکاری در تحقیقات پیشرفته کمک میکند. پروژه های توسعه ای که کاربردهای واقعی دارند. با مشارکت با شرکت های بزرگ، این مراکز می توانند به شرکت ها کمک کنند تا هوش مصنوعی را در عملیات خود ادغام کنند، کارایی، صرفه جویی در هزینه و نتایج بهتر مصرف کننده را بهبود بخشند.
علاوه بر این، این مراکز به آموزش نسل بعدی کارشناسان هوش مصنوعی با فراهم کردن دسترسی دانشآموزان به فناوری پیشرفته، تجربه عملی در پروژههای دنیای واقعی و راهنمایی رهبران صنعت کمک میکنند. با اتخاذ رویکردی پیشگیرانه و مشارکتی برای هوش مصنوعی، دولت ایالات متحده می تواند به شکل دادن به آینده ای کمک کند که در آن هوش مصنوعی به جای جایگزینی، کار انسان را بهبود بخشد. در نتیجه همه افراد جامعه می توانند از فرصت های ایجاد شده توسط این فناوری قدرتمند بهره مند شوند.
ارزیابی های عمومی
ارزیابی مدل برای اطمینان از اینکه مدلهای هوش مصنوعی دقیق، قابل اعتماد و بدون تعصب هستند و برای استقرار موفقیتآمیز در برنامههای کاربردی دنیای واقعی ضروری هستند، حیاتی است. برای مثال، یک مورد استفاده از برنامهریزی شهری را تصور کنید که در آن هوش مصنوعی مولد در شهرهای دارای خط قرمز با جمعیتهای فقیر که از لحاظ تاریخی نشان داده نشدهاند، آموزش داده میشود. متأسفانه، این فقط به موارد مشابه منجر می شود. همین امر در مورد سوگیری در وام دهی نیز صدق می کند، زیرا موسسات مالی بیشتری از الگوریتم های هوش مصنوعی برای تصمیم گیری در مورد وام استفاده می کنند.
اگر این الگوریتمها بر روی دادههای تبعیضآمیز علیه گروههای جمعیتی خاص آموزش داده شوند، ممکن است به طور غیرمنصفانه وام به آن گروهها را رد کنند که منجر به نابرابریهای اقتصادی و اجتماعی شود. اگرچه اینها تنها چند نمونه از سوگیری در هوش مصنوعی هستند، اما این باید بدون توجه به سرعت توسعه و بکارگیری فناوریها و تکنیکهای جدید هوش مصنوعی در ذهن باقی بماند.
برای مبارزه با تعصب در هوش مصنوعی، دولت فرصت جدیدی را برای ارزیابی مدل در دهکده هوش مصنوعی DEFCON 31 اعلام کرده است، انجمنی برای محققان، پزشکان و علاقه مندان تا گرد هم آیند و آخرین پیشرفت ها در هوش مصنوعی و یادگیری ماشین را بررسی کنند. ارزیابی مدل یک ابتکار مشترک با برخی از بازیگران کلیدی در فضا، از جمله Anthropic، Google، Hugging Face، Microsoft، Nvidia، OpenAI و Stability AI است که از پلتفرم ارائه شده توسط Scale AI بهره میبرد.
علاوه بر این، نحوه هماهنگی مدلها با اصول و شیوههای مشخص شده در طرح کلی دولت بایدن هریس برای منشور حقوق هوش مصنوعی و چارچوب مدیریت ریسک هوش مصنوعی مؤسسه ملی استانداردها و فناوری (NIST) را اندازهگیری میکند. این یک پیشرفت مثبت است که به موجب آن دولت مستقیماً با شرکتها درگیر است و از تخصص رهبران فنی در این فضا که به آزمایشگاههای هوش مصنوعی شرکتی تبدیل شدهاند، سرمایهگذاری میکند.
سیاست های دولت
با توجه به سومین اقدام در رابطه با سیاستها برای حصول اطمینان از اینکه دولت ایالات متحده به عنوان نمونه در کاهش خطرات هوش مصنوعی و استفاده از فرصتهای هوش مصنوعی پیشرو است، دفتر مدیریت و بودجه قرار است دستورالعملهای سیاستی در مورد استفاده از سیستمهای هوش مصنوعی توسط دولت ایالات متحده را برای اظهار نظر عمومی تهیه کند. . باز هم، هیچ جدول زمانی یا جزئیاتی برای این سیاستها ارائه نشده است، اما انتظار میرود فرمان اجرایی در مورد عدالت نژادی که در اوایل سال جاری صادر شد، در خط مقدم باشد.
این فرمان اجرایی شامل مقرراتی است که به سازمانهای دولتی دستور میدهد تا از هوش مصنوعی و سیستمهای خودکار بهگونهای استفاده کنند که عدالت را افزایش دهد. برای اینکه این سیاستها تأثیر معناداری داشته باشند، باید مشوقها و پیامدهایی داشته باشند. آنها نمی توانند صرفاً راهنمایی اختیاری باشند. به عنوان مثال، استانداردهای NIST برای امنیت، الزامات موثر برای استقرار توسط اکثر ارگان های دولتی هستند. عدم رعایت آنها، حداقل، برای افراد درگیر بسیار شرم آور و زمینه ای برای اقدامات پرسنل در برخی از بخش های دولت است. سیاست های دولتی هوش مصنوعی، به عنوان بخشی از NIST یا موارد دیگر، باید قابل مقایسه باشند تا موثر باشند.
علاوه بر این، هزینه پایبندی به چنین مقرراتی نباید مانعی برای نوآوری مبتنی بر استارتاپ باشد. به عنوان مثال، در چارچوبی که هزینه های مربوط به انطباق مقررات با اندازه کسب و کار در مقیاس باشد، چه چیزی می توان به دست آورد؟ در نهایت، از آنجایی که دولت به خریدار قابل توجه پلتفرمها و ابزارهای هوش مصنوعی تبدیل میشود، بسیار مهم است که سیاستهای آن به اصل راهنمای ساخت چنین ابزارهایی تبدیل شوند. پایبندی به این راهنما را یک الزام واقعی یا حتی مؤثر برای خرید قرار دهید (به عنوان مثال، استاندارد امنیتی FedRamp)، و این سیاست ها می توانند سوزن را حرکت دهند.
همانطور که سیستمهای هوش مصنوعی مولد قدرتمندتر و گستردهتر میشوند، برای همه ذینفعان – از جمله بنیانگذاران، اپراتورها، سرمایهگذاران، فنآوران، مصرفکنندگان و تنظیمکنندهها – ضروری است که در پیگیری و تعامل با این فناوریها متفکر و عمدی باشند. در حالی که هوش مصنوعی و هوش مصنوعی مولد به طور گستردهتری پتانسیل ایجاد انقلاب در صنایع و ایجاد فرصتهای جدید را دارند، چالشهای مهمی را نیز بهویژه در مورد مسائل مربوط به تعصب، حفظ حریم خصوصی و ملاحظات اخلاقی ایجاد میکنند.
بنابراین، همه ذینفعان باید شفافیت، مسئولیت پذیری و همکاری را در اولویت قرار دهند تا اطمینان حاصل شود که هوش مصنوعی به طور مسئولانه و سودمند توسعه یافته و استفاده می شود. این به معنای سرمایه گذاری در تحقیق و توسعه هوش مصنوعی اخلاقی، تعامل با دیدگاه ها و جوامع مختلف، و ایجاد دستورالعمل ها و مقررات روشن برای توسعه و به کارگیری این فناوری ها است.