در دنیای هوش مصنوعی بسیاری هستند که نگران پیامدهای آن هستند. یکی از این افراد ناورینا سینگ ، مدیر محصول سابق کوالکام ، سپس مایکروسافت است که به طور مستقیم در مایکروسافت مشاهده کرد که چگونه یک ربات توییتری در سال 2016 به عنوان آزمایش “درک مکالمه” توسعه داده شد ، به نقل از The Verge ، “به در کمتر از یک روز یک احمق نژادپرست باشید. “
اشتباه مایکروسافت تنها یکی از نمونه های طولانی نمونه های هوش مصنوعی است که اشتباه شده است. در سال 2019 ، الگوریتمی که توسط شرکت خدمات بهداشتی Optum برای پیش بینی اینکه چه بیمارانی از مراقبت های پزشکی اضافی بهره مند می شوند فروخته شد ، محققان دریافتند که نیازهای بدترین بیماران سیاه پوست را بد قضاوت کرده است. بارها مشخص شده است که سیستم های هوش مصنوعی با نمره اعتباری جنسیتی هستند.
در حالی که بسیاری از شرکت های بزرگتر تیم هایی را برای مقابله با مشکلات اخلاقی ناشی از حجم عظیمی از داده هایی که جمع آوری می کنند و سپس برای آموزش مدلهای یادگیری ماشین خود استفاده می کنند ، گردآوری کرده اند ، پیشرفت در این زمینه به سختی یکنواخت بوده است. در این میان ، شرکت های کوچکتر مجهز به هوش مصنوعی که توان خرید تیم های شخصی را ندارند ، عمدتا از آن حمایت می کنند.
شرکت Singh را وارد کنید ، Credo AI ، یک لباس SaaS که امروزه 5.5 میلیون دلار از بودجه خود را از Decibel ، Village Global و AI Fund جمع آوری کرده است.
همانطور که او توضیح می دهد وعده شرکت بسیار ساده است ، حتی در حالی که این مجموعه را مدیریت می کند. سینگ و تیم فعلی او شامل 15 کارمند ، چارچوبی برای ایجاد خطرات ایجاد کرده اند که شرکت ها می توانند از آنها برای استقرار سیستم های هوش مصنوعی خود با اطمینان بیشتر استفاده کنند. این بدان معنا نیست که فناوری نوپا انقلابی است (درک ما این است) بلکه Credo به مواردی که اغلب عدم پاسخگویی در سازمان ها است ، با ارائه یک کنترل پنل با ابزارهایی برای مدیریت خطرات استفاده از هوش مصنوعی در غیر این صورت پرداخته است. به
او می گوید: “آنچه بسیاری از شرکت ها واقعاً متوجه نشده اند این است که زبان مشترک و همسویی در مورد ظاهر خوب” در مدیریت هوش مصنوعی وجود ندارد ، بنابراین سازمان ها واقعاً به دنبال کمک در این استانداردسازی هستند. “
سینگ خاطرنشان می کند که نرم افزار Credo برای همه ارائه نمی شود. سازمانهای مختلف تأثیرات متفاوتی را از مدلهای خود مشاهده می کنند ، و حتی در اصطلاح عمود بر صنعت ، شرکتهای فردی اغلب اهداف متفاوتی دارند. سینگ می گوید: “عدالت در بخشهای مختلف تعریف نمی شود.” “انصاف برای کلاهبرداری به چه معناست؟ انصاف پذیره نویسی اعتبار چیست؟ »
سینگ می گوید ، به جای اینکه منتظر پاسخ باشید ، Credo AI با شرکت ها کار می کند تا ارزشهای خود را تنظیم کند ، سپس ابزارهایی را برای مدیریت مناسب از جمله اضافه کردن معیارهای اضافی و سهامداران مختلف به آنها ارائه می دهد. سینگ می گوید: “ما می خواهیم تیم علم داده شما را قادر سازد تا با تیم انطباق شما همکاری کند ، مدیر اجرایی شما با شخص دارای درآمد ماشین شما ، مدیر محصول شما با مدیر ریسک شما همکاری کند.”
Credo AI می خواهد به شرکت ها کمک کند از آن لحظات دست نخورده-یا بدتر-جلوگیری کنند.
مطمئناً ، این یک فرصت بزرگ بازار است. طبق داده های منتشر شده در اوایل سال جاری توسط International Data Corporation (IDC) ، درآمد جهانی بازار هوش مصنوعی ، شامل نرم افزار ، سخت افزار و خدمات ، 16.4 درصد نسبت به سال در سال 2021 به 327.5 میلیارد دلار افزایش می یابد. به گفته IDC ، تا سال 2024 ، بازار از مرز 500 میلیارد دلار عبور می کند.
با توجه به این که شرکت ها هزینه بیشتری برای هوش مصنوعی صرف می کنند ، احتمالاً به کمک بیشتری نیاز دارند تا مطمئن شوند که آنطور که انتظار دارند عمل می کند و آسیبی نمی رساند. در واقع ، اگر سینگ راه خود را داشته باشد ، کار با Credo AI روزی به عنوان یک مهر خواهد بود که شرکت ها برای تبلیغ تمرکز خود بر هوش مصنوعی اخلاقی از آن استفاده می کنند.
سینگ می گوید: “اگر ما کار خود را به درستی انجام دهیم ، من می خواهم هر کسی که از هوش مصنوعی خوبی برخوردار است با Credo AI مرتبط باشد. این قطعاً آرزوی ماست. “