عدالت رویه ای می تواند مشکل اعتماد/مشروعیت هوش مصنوعی مولد را برطرف کند

ورود بسیار تبلیغ شده هوش مصنوعی مولد، بحث آشنا در مورد اعتماد و ایمنی را دوباره برانگیخته است: آیا می توان به مدیران فناوری اعتماد کرد تا بهترین منافع جامعه را در قلب خود حفظ کنند؟

از آنجایی که داده‌های آموزشی آن توسط انسان‌ها ایجاد می‌شود، هوش مصنوعی ذاتاً مستعد تعصب است و بنابراین تابع روش‌های ناقص و عاطفی ما برای دیدن جهان است. ما به خوبی از خطرات، از تقویت تبعیض و نابرابری های نژادی گرفته تا ترویج قطبی شدن آگاهی داریم.

مدیر عامل OpenAI سام آلتمن “صبر و حسن نیت” ما را درخواست کرد همانطور که آنها برای “درست کردن” کار می کنند.

برای دهه‌ها، ما با صبر و حوصله ایمان خود را به مدیران فنی در خطر انداخته‌ایم: آن‌ها آن را ایجاد کردند، بنابراین وقتی گفتند می‌توانند آن را برطرف کنند، به آنها باور کردیم. اعتماد به شرکت‌های فناوری همچنان رو به کاهش است، و با توجه به فشارسنج اعتماد Edelman 2023، 65 درصد نگرانی‌ها در سراسر جهان باعث می‌شود که تشخیص داده شود آنچه مردم می‌بینند یا می‌شنوند واقعی هستند یا خیر.

زمان آن فرا رسیده است که سیلیکون ولی رویکرد متفاوتی را برای جلب اعتماد ما در پیش بگیرد – رویکردی که در سیستم حقوقی کشور ثابت شده است.

رویکرد عدالت رویه ای به اعتماد و مشروعیت

بر اساس روانشناسی اجتماعی، عدالت رویه ای مبتنی بر تحقیقاتی است که نشان می دهد مردم معتقدند مؤسسات و بازیگران زمانی قابل اعتمادتر و مشروع هستند که به آنها گوش داده شود و تصمیم گیری بی طرفانه، بی طرفانه و شفاف را تجربه کنند.

چهار جزء کلیدی عدالت رویه ای عبارتند از:

  • بی طرفی: تصمیمات بی طرفانه هستند و با استدلال شفاف هدایت می شوند.
  • احترام: با همه با احترام و وقار رفتار می شود.
  • صدا: هر کس این فرصت را دارد که طرف داستان خود را بگوید.
  • قابل اعتماد بودن: تصمیم گیرندگان انگیزه های قابل اعتمادی را در مورد کسانی که تحت تأثیر تصمیماتشان قرار می گیرند، منتقل می کنند.

با استفاده از این چارچوب، پلیس اعتماد و همکاری را در جوامع خود بهبود بخشیده است و برخی از شرکت های رسانه های اجتماعی شروع به استفاده از این ایده ها برای شکل دادن به رویکردهای حاکمیتی و اعتدال کرده اند.

در اینجا چند ایده برای اینکه چگونه شرکت های هوش مصنوعی می توانند این چارچوب را برای ایجاد اعتماد و مشروعیت تطبیق دهند، آورده شده است.

تیم مناسبی برای پاسخگویی به سوالات درست بسازید

همانطور که پروفسور UCLA Safiya Noble استدلال می کند، سوالات مربوط به سوگیری الگوریتمی را نمی توان به تنهایی توسط مهندسان حل کرد، زیرا آنها مسائل اجتماعی سیستمی هستند که نیازمند دیدگاه های انسان گرایانه – خارج از هر شرکتی – برای اطمینان از گفتگوی اجتماعی، اجماع و در نهایت مقررات هستند – هر دو خودشان. و دولتی.

در «خطای سیستم: جایی که فناوری بزرگ اشتباه شد و چگونه می‌توانیم راه‌اندازی مجدد کنیم»، سه استاد دانشگاه استنفورد به طور انتقادی درباره کاستی‌های آموزش علوم کامپیوتر و فرهنگ مهندسی به دلیل وسواس آن با بهینه‌سازی بحث می‌کنند و اغلب ارزش‌های اصلی یک جامعه دموکراتیک را کنار می‌زنند.

در یک پست وبلاگی، Open AI می‌گوید که برای ورودی‌های اجتماعی ارزش قائل است: «از آنجایی که جنبه مثبت AGI بسیار عالی است، ما باور نداریم که ممکن است یا مطلوب جامعه باشد که توسعه خود را برای همیشه متوقف کند. درعوض، جامعه و توسعه دهندگان AGI باید چگونگی درست کردن آن را بیابند.”

با این حال، صفحه استخدام شرکت و موسس توییت های سام آلتمن نشان می دهد که این شرکت تعداد زیادی از مهندسان یادگیری ماشین و دانشمندان کامپیوتر را استخدام می کند زیرا “ChatGPT یک نقشه راه بلندپروازانه دارد و مهندسی در تنگنا قرار دارد.”

آیا این دانشمندان و مهندسان کامپیوتر مجهز به تصمیماتی هستند که همانطور که OpenAI گفته است «به احتیاط بسیار بیشتری نسبت به آنچه جامعه معمولاً در مورد فناوری‌های جدید اعمال می‌کند نیاز دارد»؟

شرکت‌های فناوری باید تیم‌های چند رشته‌ای را استخدام کنند که شامل دانشمندان علوم اجتماعی است که تأثیرات انسانی و اجتماعی فناوری را درک می‌کنند. با دیدگاه‌های مختلف در مورد نحوه آموزش برنامه‌های هوش مصنوعی و پیاده‌سازی پارامترهای ایمنی، شرکت‌ها می‌توانند استدلال شفافی را برای تصمیمات خود بیان کنند. این به نوبه خود می تواند درک عمومی از این فناوری را به عنوان بی طرف و قابل اعتماد تقویت کند.

دیدگاه‌های خارجی را در بر بگیرد

یکی دیگر از عناصر عدالت رویه ای، دادن فرصت به مردم برای مشارکت در فرآیند تصمیم گیری است. در یک پست وبلاگ اخیر در مورد نحوه برخورد شرکت OpenAI با سوگیری، این شرکت گفت که به دنبال “ورودی خارجی در مورد فناوری ما” است که به تمرین اخیر تیم قرمز اشاره می کند، فرآیندی برای ارزیابی ریسک از طریق رویکرد خصمانه.

در حالی که تیم قرمز یک فرآیند مهم برای ارزیابی ریسک است، باید ورودی های خارجی را نیز شامل شود. در تمرین تیمی قرمز OpenAI، 82 نفر از 103 شرکت کننده کارمند بودند. از 23 شرکت‌کننده باقی مانده، اکثریت دانشمندان علوم کامپیوتر از دانشگاه‌های عمدتا غربی بودند. برای به دست آوردن دیدگاه های متنوع، شرکت ها باید فراتر از کارمندان، رشته ها و جغرافیای خود نگاه کنند.

آن‌ها همچنین می‌توانند با ارائه کنترل‌های بیشتر بر نحوه عملکرد هوش مصنوعی، بازخورد مستقیم بیشتری را به محصولات هوش مصنوعی فعال کنند. آنها همچنین ممکن است فرصت هایی را برای اظهار نظر عمومی در مورد سیاست های جدید یا تغییرات محصول در نظر بگیرند.

شفافیت را تضمین کنید

شرکت‌ها باید اطمینان حاصل کنند که همه قوانین و فرآیندهای ایمنی مرتبط شفاف هستند و انگیزه‌های قابل اعتمادی را در مورد نحوه تصمیم‌گیری منتقل می‌کنند. برای مثال، مهم است که اطلاعاتی در مورد نحوه آموزش برنامه‌ها، از کجا داده‌ها، نقش انسان در فرآیند آموزش و چه لایه‌های ایمنی برای به حداقل رساندن سوء استفاده به مردم ارائه شود.

اجازه دادن به محققان برای ممیزی و درک مدل های هوش مصنوعی کلید ایجاد اعتماد است.

آلتمن در مصاحبه اخیر با ABC News به درستی متوجه شد: «به نظر من جامعه زمان محدودی دارد تا بفهمد که چگونه به آن واکنش نشان دهد، چگونه آن را تنظیم کند، چگونه آن را مدیریت کند.»

از طریق رویکرد عدالت رویه‌ای، به جای عدم شفافیت و بی‌اعتمادی رویکرد پیشینیان فناوری، شرکت‌هایی که پلتفرم‌های هوش مصنوعی می‌سازند می‌توانند جامعه را در این فرآیند مشارکت دهند و اعتماد و مشروعیت را کسب کنند – نه مطالبه کنند.