میلیاردها دلار به هوش مصنوعی سرازیر می شوند. با این حال، مدلهای هوش مصنوعی در حال حاضر تحت تأثیر تعصب قرار گرفتهاند، همانطور که تبعیض وام مسکن نسبت به صاحبان خانههای بالقوه سیاهپوست نشان میدهد.
منطقی است که بپرسیم اخلاق چه نقشی در ساخت این فناوری ایفا میکند و شاید مهمتر از آن، سرمایهگذاران با عجله برای تامین مالی آن در کجا قرار میگیرند.
یکی از بنیانگذاران اخیراً به TechCrunch+ گفته است که وقتی نوآوری بسیار سریع است، فکر کردن به اخلاق سخت است: مردم سیستمهایی میسازند، سپس آنها را میشکنند و سپس ویرایش میکنند. بنابراین برخی از مسئولیتها بر عهده سرمایهگذاران است تا مطمئن شوند این فناوریهای جدید توسط بنیانگذاران با رعایت اصول اخلاقی ساخته میشوند.
برای مشاهده اینکه آیا این اتفاق میافتد یا خیر، TechCrunch+ با چهار سرمایهگذار فعال در این فضا صحبت کرد که چگونه در مورد اخلاق در هوش مصنوعی فکر میکنند و چگونه میتوان بنیانگذاران را تشویق کرد که بیشتر درباره سوگیریها و انجام کار درست فکر کنند.
ما در حال گسترش لنز خود هستیم و به دنبال سرمایهگذاران بیشتری برای شرکت در نظرسنجیهای TechCrunch هستیم، جایی که از متخصصان برتر در مورد چالشهای صنعتشان نظرسنجی میکنیم.
اگر سرمایه گذار هستید و می خواهید در نظرسنجی های آینده شرکت کنید، این فرم را پر کنید.
برخی از سرمایهگذاران میگویند که با انجام بررسیهای لازم بر روی اصول اخلاقی بنیانگذار برای کمک به تعیین اینکه آیا آنها به تصمیمگیری که شرکت میتواند حمایت کند یا خیر، با این موضوع مقابله میکنند.
الکسیس آلستون، مدیر شرکت Lightship Capital گفت: «همدلی بنیانگذار برای ما یک پرچم سبز بزرگ است. چنین افرادی درک می کنند که در حالی که ما به دنبال بازدهی بازار هستیم، همچنین به دنبال این هستیم که سرمایه گذاری هایمان تأثیر منفی بر جهان نداشته باشد.
سایر سرمایه گذاران فکر می کنند که پرسیدن سؤالات سخت می تواند به جدا کردن گندم از کاه کمک کند. دیپ نیشار، مدیر عامل جنرال کاتالیست، گفت: “هر فناوری پیامدهای ناخواسته ای را به همراه دارد، خواه تعصب، کاهش اختیارات انسانی، نقض حریم خصوصی یا چیز دیگری باشد.” فرآیند سرمایهگذاری ما بر شناسایی چنین پیامدهای ناخواسته، بحث در مورد آنها با تیمهای موسس، و ارزیابی اینکه آیا تدابیر حفاظتی برای کاهش آنها وجود دارد یا خواهد بود، متمرکز است.
سیاستهای دولت هوش مصنوعی را نیز هدف قرار میدهد: اتحادیه اروپا قوانین یادگیری ماشینی را تصویب کرده است و ایالات متحده طرحهایی را برای یک کارگروه هوش مصنوعی ارائه کرده است تا شروع به بررسی خطرات مرتبط با هوش مصنوعی کند. این علاوه بر منشور حقوق هوش مصنوعی است که سال گذشته معرفی شد. و با توجه به اینکه بسیاری از شرکتهای برتر VC پول به تلاشهای هوش مصنوعی در چین تزریق میکنند، مهم است که بپرسیم چگونه اخلاق جهانی در هوش مصنوعی میتواند در سراسر مرزها نیز اجرا شود.
برای اطلاع از نحوه نزدیک شدن سرمایهگذاران به بررسی دقیق، پرچمهای سبزی که به دنبال آن هستند و انتظاراتشان از مقررات در هوش مصنوعی به ادامه مطلب مراجعه کنید.
صحبت کردیم با:
الکسیس آلستون، مدیر، Lightship Capital
وقتی در یک شرکت هوش مصنوعی سرمایهگذاری میکنید، چقدر دقت میکنید که مدل هوش مصنوعی آن چگونه تعصب دارد یا با آن برخورد میکند؟
برای ما، مهم است که بدانیم مدل دقیقاً چه دادههایی را دریافت میکند، دادهها از کجا میآیند و چگونه آنها را تمیز میکنند. ما کمی دقت فنی را با پزشک عمومی متمرکز بر هوش مصنوعی انجام می دهیم تا مطمئن شویم که می توان مدل های ما را برای کاهش یا حذف تعصب آموزش داد.
همه ما به یاد داریم که نمیتوانستیم شیرهای آب را بهطور خودکار برای شستن دستهای تیرهترمان روشن کنیم، و زمانهایی که جستجوی تصویر گوگل «بهطور تصادفی» پوست سیاهپوست را با نخستیها یکی میکرد. من هر کاری که در توانم باشد انجام خواهم داد تا مطمئن شوم چنین مدل هایی را در کارنامه خود نخواهیم داشت.
تصویب قوانین یادگیری ماشینی مشابه با اتحادیه اروپا چه تاثیری بر سرعت نوآوری این کشور در این بخش خواهد داشت؟
با توجه به فقدان دانش فنی و پیچیدگی در دولت ما، من به توانایی ایالات متحده برای تصویب قوانین عملی و دقیق در مورد یادگیری ماشین اعتقاد کمی دارم. وقتی صحبت از قانونگذاری بهموقع و حضور کارشناسان فنی در گروههای عملیاتی برای اطلاعرسانی به قانونگذاران میشود، دم درازی داریم.
من در واقع نمی بینم که قوانین تغییرات عمده ای در سرعت توسعه ML ایجاد کند، با توجه به اینکه قوانین ما معمولاً چگونه ساختار یافته اند. به طور مشابهی که یک دهه پیش برای قانون گذاری در مورد داروهای طراحی شده در ایالات متحده به پایان رسید، این قانون هرگز نتوانست ادامه یابد.