مارک وارنر از دانشکده می گوید استراتژی هوش مصنوعی انگلستان “بلندپروازانه” است اما برای تطبیق نیاز به بودجه دارد – TechCrunch

بریتانیا این هفته اولین استراتژی ملی هوش مصنوعی خود را منتشر کرد. همانطور که انتظار می رفت ، تعهد یک دهه ای دولت برای افزایش توانایی های هوش مصنوعی داخلی-با هدایت منابع و توجه به مهارت ها ، استعدادها ، قدرت محاسبه و دسترسی به داده ها-مورد استقبال گسترده اکوسیستم فناوری کشور قرار گرفت.

اما یک سوال وجود دارد که دولت در مورد تبدیل انگلستان به یک “ابرقدرت جهانی هوش مصنوعی” با توجه به عدم اعلام بودجه برای همراهی با انتشار ، چقدر جدی است.

با بررسی هزینه ها برای 27 اکتبر – که برنامه های هزینه عمومی را برای سه سال آینده مشخص می کند ، به زودی یک نکته بهتر ارائه می شود.

پیش از این ، TechCrunch با مارک وارنر ، مدیرعامل دانشکده استارتاپ AI انگلستان صحبت کرد و گفت که دولت باید در زمینه حمایت طولانی مدت برای توسعه قابلیت های بریتانیا و رقابت جهانی با سطح مناسب بودجه جدی عمل کند – در حالی که از “واقعی” استقبال می کند. جاه طلبی “او معتقد است که دولت نشان می دهد از هوش مصنوعی حمایت می کند.

استارتاپ وارنر ، که 42 میلیون دلار بودجه را در اوایل سال جاری متوقف کرد ، برنامه آموزشی داخلی خود را برای جذب دکترا در این شرکت و به دست آوردن دانشمندان آینده داده آغاز کرده است. در حالی که وارنر خود نیز عضو شورای هوش مصنوعی بریتانیا است ، یک گروه مشاوره ای تخصصی که به دولت مشاوره می دهد و در مورد این استراتژی مورد مشورت قرار گرفت.

او به TechCrunch گفت: “من فکر می کنم این یک استراتژی بسیار خوب است.” “یک جاه طلبی واقعی در آن وجود دارد که برای دولت نسبتاً نادر است و آنها برخی از مهمترین مواردی را که ما باید آنها را اصلاح کنیم ، تشخیص می دهند.

“مشکل – و این یک مشکل بزرگ است – این است که در حال حاضر هیچ شماره ای به آن ضمیمه نشده است.

“بنابراین در حالی که در اصل بسیاری از موارد عالی وجود دارد ، در عمل بسیار مهم است که در واقع با بودجه مورد نیاز خود تأمین شود – و تعهد دولت وسیع تر در اجرای با کیفیت بالا را دارد که انجام برخی از این کارها در حال انجام است مستلزم. “

وارنر درباره خطر محو شدن پتانسیل امیدوارکننده “استراتژی بسیار جدی” هشدار داد اگر با بودجه مناسب – به جرات می توان گفت ، “ضرب و شتم جهان” – مطابقت ندارد.

“این یک س forال برای بررسی هزینه ها است ، اما به نظر من بسیار آسان است که این کار را انجام داده باشم – این چیزی است که به نظر می رسد یک استراتژی بسیار جدی است – سپس … به دلیل یک تمایز جدی برای تأمین بودجه ، تبدیل به یک استراتژی بسیار کلی تر می شود. تعهدات ، واقعاً مایل به پیشروی در سمت اعدام و واقعاً انجام این امور نیست. “

وارنر در پاسخ به این س heال که تمایل دارد دولت چه سطحی از بودجه را برای تحقق بلندپروازی های بلند مدت خود پشت سر بگذارد ، گفت که انگلستان باید هدف بالایی داشته باشد – و این کار را در صحنه جهانی انجام دهد.

وی می گوید: “ما می توانیم به سراسر جهان نگاه کنیم و تعهداتی را که سایر کشورها در قبال استراتژی های هوش مصنوعی خود در نظر گرفته اند بین صد تا میلیون ها دلار محدود کنیم.” “و اگر ما در مورد رقابت پذیری در سطح جهانی – که استراتژی آن است ، و من فکر می کنم باید جدی باشیم – جدی هستیم ، در این صورت ما حداقل با تخصیص بودجه سایر کشورها صحبت می کنیم ، اگر نه بیش از آن.”

وی افزود: “در نهایت این موضوع به جایی می رسد که این رتبه در لیست اولویت های آنها قرار دارد و اگر آنها بخواهند یک استراتژی بلندپروازانه را ارائه دهند ، باید بسیار بالا باشد.”

دسترسی به استعداد

وارنر با بحث در مورد جزئیات وسیع آنچه استراتژی می گوید برای بریتانیا برای ارتقاء بازی هوش مصنوعی مورد نیاز است ، استعداد را به عنوان یک جزء کلیدی برجسته کرد.

“برای یک زمینه فنی مانند استعدادهای هوش مصنوعی یک معامله بزرگ است. رقابت جهانی برای این استعداد وجود دارد. و به نظر می رسد که دولت این کار را جدی می گیرد و امیدوارم اقدامات لازم را انجام دهد تا مطمئن شود که انگلستان از همه استعدادهای مورد نیاز برای این گونه موارد برخوردار است – از نظر مهارتها و آموزش افراد ، اما همچنین از نظر ویزا. “

“از دیدگاه ما این فوق العاده است که بتوانیم به برخی از افراد با استعداد از سراسر جهان دسترسی پیدا کنیم و بر روی مشکلات مهم کار کنیم و به همین سادگی می توان آن را برای آن افراد – یا برای سازمان ها ، خواه دانشگاه ها یا موسسات خیریه یا شرکت هایی مانند ما یا حتی ادارات دولتی برای شروع به کار گرفتن این افراد فقط یک گام بزرگ به جلو است. “

او ادامه داد: “خوب است که آنها محاسبات و داده ها را جدی می گیرند.” “بدیهی است که آنها دو منبع برای مجموعه ای از تکنیک های یادگیری ماشین هستند که به نوعی پایه هوش مصنوعی مدرن هستند. و این که دولت به این فکر کند که چگونه می توانیم آن را بیشتر در دسترس قرار دهیم ، یک امر عالی است. “

او همچنین گفت: “من فکر می کنم این واقعیت که آنها در مورد خطرات بلند مدت هوش مصنوعی فکر می کنند بدیع و اساساً مهم است.”

“سپس من فکر می کنم آنها نسبتاً صادق هستند که تصویب ما ضعیف تر از آن چیزی است که ما می خواهیم ، به عنوان یک کشور ، به عنوان مجموعه ای از مشاغل. و امیدوارم که آن را بشناسیم و به طور جدی در مورد چگونگی رفع آن فکر کنیم – بنابراین ، در مجموع ، از منظر استراتژی در واقع بسیار خوب است. “

این استراتژی همچنین در مورد ضرورت ایجاد “قوانین روشن ، اصول اخلاقی کاربردی و محیط نظارتی طرفدار نوآوری” برای هوش مصنوعی صحبت می کند. اما انگلستان در حال حاضر در این زمینه عقب افتاده است – با پیشنهاد اتحادیه اروپا در سال جاری برای تنظیم هوش مصنوعی.

وارنر در مورد نظرات خود درباره مقررات هوش مصنوعی از قوانین مربوط به حوزه حمایت کرد.

قوانین خاص حوزه هوش مصنوعی

“ما فکر می کنیم این یک اشتباه بزرگ است که در سطح هوش مصنوعی تنظیم شود. زیرا این چیزی شبیه به تنظیم فولاد است که در آن نمی دانید این فولاد در تیرآهن یا چاقو یا تفنگ استفاده می شود. ”

“یا شما نوع قانونی را که ما در مورد کمربندها داریم انتخاب می کنید و در مورد افرادی که از فولاد برای ساخت اسلحه استفاده می کنند بسیار سست می شود یا شما نوع قانونی را که ما در مورد اسلحه داریم انتخاب می کنیم و ساختن تیرها تقریباً غیرممکن می شود. به

“بنابراین در حالی که بسیار مهم است که ما هوش مصنوعی را به طور مulateثر تنظیم کنیم که تقریباً به طور خاص به شیوه خاص انجام می شود.”

وی مثال هایی از هوش مصنوعی را که در زمینه های بهداشتی ، مانند تشخیص استفاده می شود ، به عنوان حوزه ای که طبیعتاً نیازمند مقررات دقیق تری است ، ذکر کرد-در حالی که مورد استفاده مانند تجارت الکترونیک احتمالاً نیازی به چنین محافظی ندارد.

وی افزود: “من فکر می کنم دولت این را در استراتژی تشخیص داده است.” “این در مورد اطمینان از این است که مقررات واقعاً متفکرانه با حوزه هماهنگ شده است. و این فقط برای من بسیار منطقی به نظر می رسد.

“ما فکر می کنیم بسیار مهم است که هوش مصنوعی به خوبی و ایمن و به نفع جامعه انجام شود.”

چارچوب مبتنی بر ریسک پیشنهادی اتحادیه اروپا برای تنظیم برنامه های کاربردی هوش مصنوعی بر حوزه ها و موارد استفاده خاصی تمرکز دارد-که به عنوان ریسک بالاتر یا پایین طبقه بندی می شوند ، و الزامات قانونی بر این اساس متفاوت است. ولی وارنر گفت که هنوز پیشنهاد اتحادیه اروپا را با جزئیات کافی مطالعه نکرده است تا در مورد رویکرد آنها نظر داشته باشد.

TechCrunch همچنین نظرات خود را در مورد تلاش همزمان دولت بریتانیا برای “اصلاح” چارچوب حفاظت از داده های فعلی – که شامل مشاوره در مورد تغییراتی است که می تواند حفاظت از اطلاعات مردم را تضعیف کند – از مدیرعامل دانشکده درخواست کرد.

منتقدان طرح اصلاحات معتقدند که این طرح با استانداردهای حفظ حریم خصوصی رقابت می کند.

وارنر می گوید: “نظر من این است که کاملاً حیاتی است که استفاده از هوش مصنوعی هم قانونی باشد و هم مشروع.” همانطور که گفته شد ، اگر مردم بدانند با داده هایشان چه کار می شود ، از آنچه در حال رخ دادن است کاملاً راحت خواهند بود. “

مشروعیت داده ها

فعالیت های هوش مصنوعی دانشکده قبل از اینکه نسخه بریتانیا از مقررات عمومی حفاظت از داده های اتحادیه اروپا (GDPR) به قانون ملی منتقل شود وجود داشت (اگرچه با نام دیگری) – اگرچه رژیم قبلی کاملاً مشابه بود. بنابراین به نظر نمی رسد قوانین موجود به چشم اندازهای آن به عنوان یک تجارت با ارزش بالا و در حال رشد هوش مصنوعی انگلستان لطمه وارد کرده باشد.

با توجه به این ، آیا اشتیاق دولت برای کاهش سطح حفاظت از داده ها که شهروندان بریتانیایی از آن برخوردارند – با این ادعا که انجام این کار به نوعی برای نوآوری مفید خواهد بود – در واقع برای مشاغل هوش مصنوعی که برای شکوفایی اعتماد کاربران احتیاج دارند ، بسیار مضر خواهد بود؟ (به علاوه ، البته ، اگر مشاغل هوش مصنوعی انگلستان می خواهند در اتحادیه اروپا تجارت کنند ، باید از GDPR پیروی کنند.)

وارنر استدلال کرد: “GDPR کامل نیست.” “اگر با کسی صحبت می کنید که من فکر می کنم این امر به طور گسترده شناخته شده است – بنابراین من فکر نمی کنم که به عنوان انتخاب بین یکی یا دیگری ، من فکر می کنم ما می توانیم بهتر از هر دو عمل کنیم و فکر می کنم این همان چیزی است که ما باید آن را هدف قرار دهیم.

“من فکر می کنم راه های زیادی وجود دارد که ما می توانیم – به مرور زمان – در تنظیم این موارد بهتر عمل کنیم. به طوری که ما در مورد استفاده از این فناوری ها بهترین مشروعیت خود را برای مشروعیت حفظ می کنیم ، که بدیهی است برای شرکت هایی مانند ما که می خواهند تجارت خود را به گونه ای انجام دهند که در جامعه به طور گسترده پذیرفته شده و حتی تشویق می شود ، بسیار مهم است.

“اساساً من فکر نمی کنم ما باید سازش کنیم ، اما من فکر نمی کنم این انتخابی بین پیروی از GDPR یا عدم رعایت آن باشد. پیچیده تر از آن است. “

همچنین شایان ذکر است که در سال های اخیر تعدادی از رسوایی های مهم مربوط به داده ها از انگلستان منتشر شده است.

به عنوان مثال ، دانشکده-در ظاهر پیش از تغییر نام خود به عنوان ASI Data Science-در بحث جنجالی از داده ها برای هدف قرار دادن تبلیغات در رای دهندگان در جریان رای گیری برگزیت بریتانیا نقش داشت.

اگرچه از آن زمان گفته است که دیگر هرگز کار سیاسی انجام نمی دهد.

مبارزات سیاسی

تغییر نام تجاری ASI Data Science به دنبال افشاگری در مورد فعالیت های داده کاوی شرکت داده های در حال حاضر منقرض و ننگین ، Cambridge Analytica-که در سال 2018 به رسوایی جهانی منجر شد و منجر شد که نمایندگان پارلمان در سراسر جهان سوالات ناخوشایندی در مورد نقش داده ها و مدل سازی پیش بینی برای تحت تاثیر قرار دادن رای دهندگان

کمیسیونر اطلاعات بریتانیا حتی خواستار “توقف اخلاقی” در استفاده از داده ها و ابزارهای هوش مصنوعی برای اهداف سیاسی اضافی شد و هشدار داد که اعتماد به دموکراسی با استفاده از تکنیک های کلان داده ها با هدف قرار دادن نامشخص رای دهندگان با پیام های سیاسی سفارشی ، تضعیف می شود.

در جریان همه پرسی برگزیت ، وارنر با مشاور ویژه سابق دولت بریتانیا ، دومینیک کامینگز ، که مدیر کمپین رأی گیری بود همکاری کرد. و کامینگز به طور گسترده نوشته است که دانشمندان داده نقش مهمی در پیروزی برکسیت داشته اند – به عنوان مثال ، در یک پست وبلاگ در سال 2016 در مورد نحوه استفاده از علم داده و هوش مصنوعی در همه پرسی نوشت:

یکی از ایده های اصلی ما این بود که کمپین باید کارهایی را در زمینه داده انجام دهد که قبلاً انجام نشده است. این شامل الف) ادغام داده ها از رسانه های اجتماعی ، تبلیغات آنلاین ، وب سایت ها ، برنامه ها ، ارسال نظر مستقیم ، نامه های مستقیم ، نظرسنجی ها ، جمع آوری کمک های مالی آنلاین ، بازخورد فعالان و برخی موارد جدید است که ما سعی کردیم مانند یک روش جدید برای انجام نظرسنجی … و ب) داشتن متخصصان در فیزیک و یادگیری ماشین ، داده های مناسب را به روشی که تنها می توانند انجام دهند – یعنی بسیار فراتر از مهارت های معمولی که در مبارزات سیاسی به کار می روند. ما اولین کمپینی در انگلستان بودیم که تقریباً تمام پول خود را صرف ارتباطات دیجیتالی کردیم و سپس بخشی از آن توسط افرادی کنترل شد که کار عادی آنها موضوعاتی مانند اطلاعات کوانتومی (همراه با ورودی سیاسی پل استفنسون و هنری دی زوته و متخصصان دیجیتال AIQ) بود. به ما تنها در صورتی می توانستیم این کار را به درستی انجام دهیم که از نرم افزار بررسی مناسب استفاده کنیم. ما آن را تا حدی در خانه و بخشی نیز با استفاده از یک مهندس خارجی که ماه ها در دفتر خود نشسته بودیم ، ساختیم.

با توجه به این قسمت بدنام در تاریخ شرکت او ، از وارنر پرسیدیم آیا از قوانین هوش مصنوعی که نحوه استفاده از این فناوری را برای مبارزات سیاسی محدود می کند ، حمایت می کند؟

دولت بریتانیا چنین پیشنهادی را ارائه نداده است ، اما به دنبال تغییر قوانین انتخابات است – مانند برچسب افشای تبلیغات سیاسی آنلاین.

پاسخ وارنر در این باره چنین بود: “دانشکده به عنوان یک سازمان دیگر علاقه ای به سیاست ندارد – این چیزی نیست که ما به آن فکر می کنیم.”

وی با تاکید بر اینکه آیا از محدودیت های هوش مصنوعی در حوزه مبارزات سیاسی حمایت خواهد کرد یا خیر ، افزود: “از منظر دانشکده ، ما دیگر سیاست انجام نمی دهیم. من فکر می کنم این به دولت بستگی دارد که آنها فکر می کنند در آن منطقه بهتر است. “