افشاگر فیس بوک فرانسیس هاوگن در مجلس سنا شهادت می دهد – TechCrunch

بعد از فاش کردنش هویت هویت یکشنبه شب ، فرانسیس هاوگن – افشاگری که اسناد جنجالی فیس بوک را به وال استریت ژورنال افشا کرد – روز سه شنبه در کمیته تجارت ، علم و حمل و نقل سنا شهادت داد.

شهادت هاوگن پس از استماع هفته گذشته ، هنگامی که آنتیگون دیویس ، رئیس ایمنی فیس بوک در مورد تاثیر منفی این شرکت بر کودکان و نوجوانان مورد بازجویی قرار گرفت ، ارائه شد. دیویس به خط فیس بوک پایبند بود و سناتورها را ناامید کرد زیرا وی به طور مستقیم به سوالات پاسخ نداد. اما هاوگن ، مدیر پروژه سابق اطلاعات نادرست مدنی در فیس بوک ، با اطلاعات بیشتری پیش بینی می شد.

هاوگن یک متخصص الگوریتم است و به عنوان مدیر پروژه در شرکت هایی مانند Google ، Pinterest و Yelp خدمت کرده است. وی در فیس بوک به مسائل مربوط به دموکراسی ، اطلاعات غلط و ضد جاسوسی پرداخت.

هاوگن در سخنرانی افتتاحیه خود گفت: “با کار بر روی چهار نوع مختلف از شبکه های اجتماعی ، می فهمم که این مشکلات چقدر پیچیده و ظریف هستند.” “با این حال ، انتخابهایی که در داخل فیس بوک انجام می شود فاجعه بار است – برای فرزندان ما ، برای امنیت عمومی ما ، برای حفظ حریم خصوصی و برای دموکراسی ما – و به همین دلیل است که ما باید از فیس بوک درخواست ایجاد تغییرات کنیم.”

الگوریتم

در طول جلسه استماع ، هاوگن تصریح کرد که فکر می کند الگوریتم فعلی فیس بوک ، که به پست هایی که باعث ایجاد ارتباطات معنادار اجتماعی (MSI) می شوند ، پاداش می دهد ، خطرناک است. این الگوریتم خوراک خبری که در سال 2018 ارائه شد ، تعاملات (مانند نظرات و لایک) افرادی را که فیس بوک فکر می کند با آنها نزدیک تر هستید ، مانند دوستان و خانواده ، در اولویت قرار می دهد.

اما همانطور که اسناد فاش شده توسط هاوگن نشان می دهد ، دانشمندان داده ها نگرانی هایی را ایجاد کرده اند که این سیستم “عوارض جانبی ناسالم بر بخش های مهمی از محتوای عمومی مانند سیاست و اخبار” ایجاد کرده است.

فیس بوک همچنین از رتبه بندی مبتنی بر تعامل استفاده می کند ، که در آن هوش مصنوعی محتوایی را که فکر می کند برای کاربران منحصر به فرد جالب خواهد بود ، نمایش می دهد. این بدان معناست که محتواهایی که واکنش های قوی تری را از سوی کاربران ایجاد می کند در اولویت قرار گرفته و اطلاعات غلط ، سمیت و محتوای خشونت آمیز را افزایش می دهد. هاوگن گفت که فکر می کند رتبه بندی زمانی به کاهش این تأثیرات منفی کمک می کند.

“من بیشتر دوران حرفه ای خود را روی سیستم هایی مانند رتبه بندی مبتنی بر مشارکت گذرانده ام. وقتی من به شما می آیم و این چیزها را می گویم ، اساساً ده سال کار خودم را لعنت می کنم. “

سناتورهای کمیته به شهادت کارمند سابق فیس بوک و افشاگر فرانسیس هاوگن (C) در جلسه استماع کمیته تجارت ، علم و حمل و نقل سنا در Capitol Hill ، 5 اکتبر 2021 ، در واشنگتن دی سی ، گوش می دهند.

سناتورهای کمیته به شهادت کارمند سابق فیس بوک و افشاگر فرانسیس هاوگن (C) در جلسه استماع کمیته تجارت ، علم و حمل و نقل سنا در Capitol Hill ، 5 اکتبر 2021 ، در واشنگتن دی سی ، گوش می دهند. (عکس توسط DREW ANGERER/POOL/AFP از طریق Getty Images)

همانطور که هاوگن یکشنبه شب به “60 دقیقه” گفت ، او بخشی از کمیته یکپارچگی مدنی بود که فیس بوک پس از انتخابات 2020 منحل کرد. فیس بوک برای جلوگیری از اطلاعات غلط پیش از انتخابات ریاست جمهوری 2020 آمریکا ، ضمانت هایی را اعمال کرد. پس از انتخابات ، این پادمان ها را خاموش کرد. اما پس از حملات به کنگره آمریکا در 6 ژانویه ، فیس بوک آنها را دوباره فعال کرد.

“فیس بوک پیش فرض های امنیتی را در آستانه انتخابات تغییر داد زیرا آنها می دانستند که آنها خطرناک هستند. چون آنها می خواستند این رشد را پس از انتخابات بازگردانند ، به حالت اولیه خود بازگشتند. “من فکر می کنم این بسیار مشکل ساز است.”

هاوگن گفت که فیس بوک بر یک انتخاب غلط تأکید می کند – این که آنها یا می توانند از الگوریتم های فرار خود استفاده کنند و رشد سریع خود را ادامه دهند ، یا می توانند ایمنی و کاهش کاربران را در اولویت قرار دهند. اما او فکر می کند که اتخاذ تدابیر ایمنی بیشتر ، مانند نظارت دانشگاهیان ، محققان و سازمان های دولتی ، در واقع می تواند به نتیجه نهایی فیس بوک کمک کند.

“چیزی که من درخواست می کنم یک حرکت است [away] از ism-short-ism ، چیزی که امروزه فیس بوک تحت آن اداره می شود. هاوگن گفت ، این توسط معیارها و نه افراد هدایت می شود. با نظارت مناسب و برخی از این محدودیت ها ، این احتمال وجود دارد که فیس بوک در واقع پنج یا ده سال پیش از این بتواند یک شرکت سودآورتر باشد ، زیرا این شرکت به همان اندازه سمی نبوده و بسیاری از افراد آن را ترک نکرده اند. “

ایجاد نظارت دولتی

وقتی هاوگن به عنوان “آزمایش فکری” از او پرسید اگر در جای مدیرعامل مارک زاکربرگ بود ، چه می کرد ، او گفت که سیاست هایی در مورد به اشتراک گذاری اطلاعات با نهادهای نظارتی از جمله کنگره وضع می کند. او با دانشگاهیان همکاری می کند تا مطمئن شود که آنها اطلاعات مورد نیاز برای انجام تحقیقات در مورد این پلت فرم را دارند. و او بلافاصله “مداخلات نرم” ای را که برای حفظ تمامیت انتخابات 2020 مشخص شده بود ، اجرا می کند. او پیشنهاد کرد که کاربران باید قبل از به اشتراک گذاری پیوند ، روی آنها کلیک کنند ، زیرا شرکت های دیگر مانند توییتر این اقدامات را برای کاهش اطلاعات غلط یافته اند.

هاوگن همچنین افزود که فکر می کند فیس بوک با ساختار فعلی خود نمی تواند از انتشار اطلاعات غلط واکسن جلوگیری کند ، زیرا این شرکت بیش از حد به سیستم های هوش مصنوعی وابسته است که خود فیس بوک می گوید هرگز بیش از 10 تا 20 درصد محتوا را جذب نخواهد کرد.

بعداً ، هاوگن به کمیته گفت که “اصلاح بخش 230” ، بخشی از قانون نجابت ارتباطات ایالات متحده را “قویاً تشویق می کند” که بسترهای رسانه های اجتماعی را از مسئولیت آنچه کاربران آنها ارسال می کنند معاف می کند. هاوگن معتقد است که بخش 230 باید تصمیمات مربوط به الگوریتم ها را معاف کند و این امر باعث می شود که شرکت ها در صورت آسیب رساندن الگوریتم های خود با پیامدهای قانونی روبرو شوند.

“محتوای تولید شده توسط کاربر چیزی است که شرکت ها کنترل کمتری بر آن دارند. اما آنها 100٪ بر الگوریتم های خود کنترل دارند. ” فیسبوک نباید در انتخاب هایی که برای اولویت دادن به رشد ، ویروسی بودن و واکنش پذیری نسبت به امنیت عمومی انجام می دهد ، مجوز رایگان دریافت کند. “

سناتور جان هیکنلوپر (D-CO) س askedال کرد که اگر الگوریتم ایمنی را ارتقا دهد ، چگونه بر خط پایانی فیس بوک تأثیر می گذارد. هاوگن گفت که این تأثیر خواهد داشت ، زیرا وقتی کاربران محتوای جذاب تری را می بینند (حتی اگر بیشتر از جذابیت خشم آور باشد) ، زمان بیشتری را در این پلتفرم می گذرانند و دلار تبلیغاتی بیشتری را برای فیس بوک به همراه می آورند. اما او فکر می کند که این پلتفرم اگر از مراحل گفته شده برای بهبود ایمنی کاربران پیروی کند ، همچنان سودآور خواهد بود.

امنیت بین المللی

همانطور که در یکی از داستانهای فیس بوک وال استریت ژورنال گزارش شده است ، کارکنان فیس بوک موارد استفاده از این پلتفرم را برای جنایات خشونت آمیز در خارج از کشور مشخص کرده اند ، اما طبق اسنادی که هاگن فاش کرده است ، پاسخ شرکت ناکافی است.

به عنوان مثال ، کارکنان نگرانی هایی را در مورد استفاده گروه های مسلح در اتیوپی از این بستر برای هماهنگی حملات خشونت آمیز علیه اقلیت های قومی مطرح کردند. از آنجا که شیوه های تعدیل فیس بوک بسیار به هوش مصنوعی وابسته است ، این بدان معناست که هوش مصنوعی آن باید بتواند به هر زبان و گویشی که ماهانه 2.9 میلیارد کاربر فعال آن صحبت می کنند ، عمل کند. به گفته WSJ ، سیستم های هوش مصنوعی فیس بوک اکثر زبانهای صحبت شده در سایت را پوشش نمی دهد. هاوگن گفت اگرچه تنها 9 درصد از کاربران فیس بوک به زبان انگلیسی صحبت می کنند ، اما 87 درصد از هزینه های اطلاعات غلط این پلتفرم به انگلیسی زبانان اختصاص می یابد.

هاوگن می گوید: “به نظر می رسد فیس بوک بیشتر روی کاربرانی سرمایه گذاری می کند که بیشترین درآمد را دارند ، هرچند ممکن است خطر بر اساس سودآوری به طور مساوی توزیع نشود.” وی اضافه کرد که فکر می کند کمبود ثابت پرسنل فیس بوک در زمینه مبارزه با جاسوسی ، عملیات اطلاعاتی و تیم های ضدتروریسم یک تهدید امنیت ملی است که وی در مورد آن با دیگر بخش های کنگره در ارتباط است.

آینده فیس بوک

اعضای کمیته سنا اعلام کردند که انگیزه آنها برای اقدام علیه فیس بوک است ، که این نیز در میان یک دعوی ضد تراست است.

هاوگن گفت: “من در واقع با فروپاشی فیس بوک مخالف هستم.” “اگر فیس بوک و اینستاگرام را از هم جدا کنید ، به احتمال زیاد بیشترین تبلیغات به اینستاگرام می رود و فیس بوک همچنان اینگونه خواهد بود فرانکنشتاین این زندگی در سراسر جهان را به خطر می اندازد ، در حال حاضر هیچ پولی برای تأمین آن وجود نخواهد داشت. “

اما منتقدان استدلال می کنند که قطع شدن شش ساعته دیروز فیس بوک-که ارتباطی با جلسه امروز ندارد-نشان می دهد که یک شرکت دارای کنترل زیادی است ، به ویژه هنگامی که سیستم عامل هایی مانند WhatsApp برای ارتباطات خارج از کشور بسیار ضروری هستند.

در همین حال ، قانونگذاران در حال تدوین قانونی برای ارتقاء ایمنی در بسترهای رسانه های اجتماعی برای خردسالان هستند. هفته گذشته ، سناتور اد مارکی (D-MA) اعلام کرد که با سناتور ریچارد بلومنتال (D-CT) قانون موسوم به قانون KIDS (طراحی و ایمنی اینترنت کودکان) را مجدداً وضع می کند ، که به دنبال ایجاد حفاظت های جدید برای کاربران آنلاین تحت 16. امروز ، سناتور جان تون (R-SD) یک لایحه دو حزبی ارائه کرد که او با سه عضو دیگر کمیته در سال 2019 به نام قانون شفافیت حباب فیلتر ارائه کرد. این قانون با ارائه گزینه ای به کاربران برای مشاهده محتوایی که توسط الگوریتم مخفی تنظیم نشده است ، شفافیت را افزایش می دهد.

سناتور بلومنتال حتی به هاوگن پیشنهاد داد تا در مورد نگرانی هایش مبنی بر اینکه فیس بوک تهدیدی برای امنیت ملی است ، به جلسه دیگری برسد. اگرچه فیس بوک بالاتر است علیه صحبت کرد هاوگن در جریان محاکمه ، به نظر می رسید که سیاستگذاران از شهادت وی متاثر شده اند.