چهار سرمایه‌گذار توضیح می‌دهند که چرا اخلاق هوش مصنوعی نمی‌تواند یک فکر بعدی باشد

میلیاردها دلار به هوش مصنوعی سرازیر می شوند. با این حال، مدل‌های هوش مصنوعی در حال حاضر تحت تأثیر تعصب قرار گرفته‌اند، همانطور که تبعیض وام مسکن نسبت به صاحبان خانه‌های بالقوه سیاه‌پوست نشان می‌دهد.

منطقی است که بپرسیم اخلاق چه نقشی در ساخت این فناوری ایفا می‌کند و شاید مهم‌تر از آن، سرمایه‌گذاران با عجله برای تامین مالی آن در کجا قرار می‌گیرند.

یکی از بنیان‌گذاران اخیراً به TechCrunch+ گفته است که وقتی نوآوری بسیار سریع است، فکر کردن به اخلاق سخت است: مردم سیستم‌هایی می‌سازند، سپس آن‌ها را می‌شکنند و سپس ویرایش می‌کنند. بنابراین برخی از مسئولیت‌ها بر عهده سرمایه‌گذاران است تا مطمئن شوند این فناوری‌های جدید توسط بنیان‌گذاران با رعایت اصول اخلاقی ساخته می‌شوند.

برای مشاهده اینکه آیا این اتفاق می‌افتد یا خیر، TechCrunch+ با چهار سرمایه‌گذار فعال در این فضا صحبت کرد که چگونه در مورد اخلاق در هوش مصنوعی فکر می‌کنند و چگونه می‌توان بنیان‌گذاران را تشویق کرد که بیشتر درباره سوگیری‌ها و انجام کار درست فکر کنند.


ما در حال گسترش لنز خود هستیم و به دنبال سرمایه‌گذاران بیشتری برای شرکت در نظرسنجی‌های TechCrunch هستیم، جایی که از متخصصان برتر در مورد چالش‌های صنعتشان نظرسنجی می‌کنیم.

اگر سرمایه گذار هستید و می خواهید در نظرسنجی های آینده شرکت کنید، این فرم را پر کنید.


برخی از سرمایه‌گذاران می‌گویند که با انجام بررسی‌های لازم بر روی اصول اخلاقی بنیان‌گذار برای کمک به تعیین اینکه آیا آنها به تصمیم‌گیری که شرکت می‌تواند حمایت کند یا خیر، با این موضوع مقابله می‌کنند.

الکسیس آلستون، مدیر شرکت Lightship Capital گفت: «همدلی بنیانگذار برای ما یک پرچم سبز بزرگ است. چنین افرادی درک می کنند که در حالی که ما به دنبال بازدهی بازار هستیم، همچنین به دنبال این هستیم که سرمایه گذاری هایمان تأثیر منفی بر جهان نداشته باشد.

سایر سرمایه گذاران فکر می کنند که پرسیدن سؤالات سخت می تواند به جدا کردن گندم از کاه کمک کند. دیپ نیشار، مدیر عامل جنرال کاتالیست، گفت: “هر فناوری پیامدهای ناخواسته ای را به همراه دارد، خواه تعصب، کاهش اختیارات انسانی، نقض حریم خصوصی یا چیز دیگری باشد.” فرآیند سرمایه‌گذاری ما بر شناسایی چنین پیامدهای ناخواسته، بحث در مورد آنها با تیم‌های موسس، و ارزیابی اینکه آیا تدابیر حفاظتی برای کاهش آنها وجود دارد یا خواهد بود، متمرکز است.

سیاست‌های دولت هوش مصنوعی را نیز هدف قرار می‌دهد: اتحادیه اروپا قوانین یادگیری ماشینی را تصویب کرده است و ایالات متحده طرح‌هایی را برای یک کارگروه هوش مصنوعی ارائه کرده است تا شروع به بررسی خطرات مرتبط با هوش مصنوعی کند. این علاوه بر منشور حقوق هوش مصنوعی است که سال گذشته معرفی شد. و با توجه به اینکه بسیاری از شرکت‌های برتر VC پول به تلاش‌های هوش مصنوعی در چین تزریق می‌کنند، مهم است که بپرسیم چگونه اخلاق جهانی در هوش مصنوعی می‌تواند در سراسر مرزها نیز اجرا شود.

برای اطلاع از نحوه نزدیک شدن سرمایه‌گذاران به بررسی دقیق، پرچم‌های سبزی که به دنبال آن هستند و انتظاراتشان از مقررات در هوش مصنوعی به ادامه مطلب مراجعه کنید.

صحبت کردیم با:


الکسیس آلستون، مدیر، Lightship Capital

وقتی در یک شرکت هوش مصنوعی سرمایه‌گذاری می‌کنید، چقدر دقت می‌کنید که مدل هوش مصنوعی آن چگونه تعصب دارد یا با آن برخورد می‌کند؟

برای ما، مهم است که بدانیم مدل دقیقاً چه داده‌هایی را دریافت می‌کند، داده‌ها از کجا می‌آیند و چگونه آن‌ها را تمیز می‌کنند. ما کمی دقت فنی را با پزشک عمومی متمرکز بر هوش مصنوعی انجام می دهیم تا مطمئن شویم که می توان مدل های ما را برای کاهش یا حذف تعصب آموزش داد.

همه ما به یاد داریم که نمی‌توانستیم شیرهای آب را به‌طور خودکار برای شستن دست‌های تیره‌ترمان روشن کنیم، و زمان‌هایی که جستجوی تصویر گوگل «به‌طور تصادفی» پوست سیاه‌پوست را با نخستی‌ها یکی می‌کرد. من هر کاری که در توانم باشد انجام خواهم داد تا مطمئن شوم چنین مدل هایی را در کارنامه خود نخواهیم داشت.

تصویب قوانین یادگیری ماشینی مشابه با اتحادیه اروپا چه تاثیری بر سرعت نوآوری این کشور در این بخش خواهد داشت؟

با توجه به فقدان دانش فنی و پیچیدگی در دولت ما، من به توانایی ایالات متحده برای تصویب قوانین عملی و دقیق در مورد یادگیری ماشین اعتقاد کمی دارم. وقتی صحبت از قانون‌گذاری به‌موقع و حضور کارشناسان فنی در گروه‌های عملیاتی برای اطلاع‌رسانی به قانون‌گذاران می‌شود، دم درازی داریم.

من در واقع نمی بینم که قوانین تغییرات عمده ای در سرعت توسعه ML ایجاد کند، با توجه به اینکه قوانین ما معمولاً چگونه ساختار یافته اند. به طور مشابهی که یک دهه پیش برای قانون گذاری در مورد داروهای طراحی شده در ایالات متحده به پایان رسید، این قانون هرگز نتوانست ادامه یابد.