همانطور که هوش مصنوعی مشاغل را حذف می کند، راهی برای حفظ وضعیت مالی مردم (این UBI نیست)

در سیلیکون ولی، برخی از باهوش‌ترین ذهن‌ها بر این باورند که درآمد پایه جهانی (UBI) که پرداخت‌های نقدی نامحدود به مردم را تضمین می‌کند به آنها کمک می‌کند تا بقای خود را حفظ کنند و پیشرفت کنند، زیرا فناوری‌های پیشرفته مشاغل بیشتری را که ما می‌شناسیم حذف می‌کند، از یقه سفیدها و نقش‌های خلاق – وکلا، روزنامه‌نگاران، هنرمندان، مهندسان نرم‌افزار – به مشاغل کارگری. این ایده به اندازه کافی مورد توجه قرار گرفته است که ده ها برنامه درآمد تضمینی از سال 2020 در شهرهای ایالات متحده آغاز شده است.

با این حال، حتی سم آلتمن، مدیر عامل OpenAI و یکی از برجسته‌ترین حامیان UBI، معتقد نیست که این یک راه‌حل کامل است. همانطور که او در طی یک نشست در اوایل سال جاری گفت: «فکر می‌کنم این بخش کوچکی از راه‌حل است. به نظر من عالیه من فکر می کنم به عنوان [advanced artificial intelligence] هرچه بیشتر در اقتصاد مشارکت می کند، ما باید ثروت و منابع را بسیار بیشتر از آنچه که داریم توزیع کنیم و این به مرور زمان مهم خواهد بود. اما فکر نمی‌کنم این مشکل را حل کند. فکر نمی‌کنم این به مردم معنا بدهد، فکر نمی‌کنم به این معنا باشد که مردم به‌طور کامل از تلاش برای خلق و انجام کارهای جدید و هر چیز دیگری دست می‌کشند. بنابراین من آن را یک فناوری توانمند می دانم، اما نه یک برنامه برای جامعه.»

سوالی که مطرح می شود این است که در آن صورت طرحی برای جامعه ممکن است چگونه به نظر برسد، و جارون لانیر، دانشمند کامپیوتر، بنیانگذار حوزه واقعیت مجازی، در نیویورکر این هفته می نویسد که «شأن داده» می تواند یک راه حل باشد، اگر نه. را پاسخ.

در اینجا فرض اصلی این است: در حال حاضر، ما بیشتر داده های خود را در ازای خدمات رایگان به صورت رایگان می دهیم. لانیر استدلال می‌کند که مهم‌تر از هر زمان دیگری این است که این کار را متوقف کنیم، که «چیزهای دیجیتالی» که به آن‌ها تکیه می‌کنیم – شبکه‌های اجتماعی تا حدی و همچنین مدل‌های فزاینده هوش مصنوعی مانند GPT-4 OpenAI – در عوض «با انسان‌ها در ارتباط باشند». که در وهله اول به آنها چیزهای زیادی می دهند تا بخورند.

ایده این است که مردم «برای چیزی که خلق می‌کنند، پول دریافت کنند، حتی زمانی که فیلتر شده و از طریق مدل‌های بزرگ ترکیب می‌شود».

این مفهوم کاملاً جدید نیست، زیرا لانیر برای اولین بار مفهوم شأن داده را در مقاله بررسی کسب و کار هاروارد در سال 2018 با عنوان “نقشه ای برای یک جامعه دیجیتال بهتر” معرفی کرد. همانطور که او در آن زمان با همکار نویسنده و اقتصاددان گلن ویل نوشت:[R]اخبار غیرعادی از بخش فناوری حاکی از موجی از کم‌کاری ناشی از هوش مصنوعی (AI) و اتوماسیون است» و «آینده‌ای که در آن مردم به‌طور فزاینده‌ای به‌عنوان بی‌ارزش و فاقد عاملیت اقتصادی رفتار می‌شوند».

اما آنها مشاهده کردند که “لفاظی” طرفداران درآمد پایه جهانی “تنها برای دو نتیجه جا باقی می گذارد” و آنها افراطی هستند. یا علیرغم پیشرفت‌های فناوری، فقر انبوه وجود خواهد داشت، یا باید ثروت زیادی از طریق یک صندوق ثروت اجتماعی تحت کنترل مرکزی و ملی قرار گیرد تا درآمد پایه جهانی برای شهروندان فراهم شود.»

اما این دو نوشتند که هم «قدرت بیش از حد متمرکز است و هم ارزش تولیدکنندگان داده را تضعیف یا نادیده می گیرد».

البته، تخصیص میزان اعتبار مناسب به افراد برای مشارکت‌های بی‌شمارشان در هر چیزی که در جهان وجود دارد، یک چالش کوچک نیست (حتی همانطور که می‌توان تصور کرد استارت‌آپ‌های حسابرسی هوش مصنوعی قول رسیدگی به این موضوع را می‌دهند). لانیر اذعان می‌کند که حتی محققان ارزش داده نمی‌توانند در مورد نحوه تفکیک همه چیزهایی که مدل‌های هوش مصنوعی جذب کرده‌اند یا اینکه چقدر باید حسابداری دقیق انجام شود، به توافق برسند.

اما او فکر می کند – شاید خوش بینانه – که می تواند به تدریج انجام شود. این سیستم لزوماً میلیاردها نفری را که به مدل‌های بزرگ کمک کرده‌اند را در بر نمی‌گیرد – مثلاً کسانی که به مهارت شبیه‌سازی‌شده یک مدل در گرامر اضافه کرده‌اند. [It] ممکن است فقط به تعداد کمی از مشارکت کنندگان ویژه ای که در یک موقعیت خاص ظاهر می شوند توجه داشته باشد. با این حال، با گذشت زمان، «ممکن است افراد بیشتری را شامل شوند، زیرا سازمان‌های حقوق میانی – اتحادیه‌ها، اصناف، گروه‌های حرفه‌ای و غیره- شروع به ایفای نقش می‌کنند».

لانیر می‌گوید، البته چالش فوری‌تر، ماهیت جعبه سیاه ابزارهای هوش مصنوعی فعلی است که معتقد است «سیستم‌ها باید شفاف‌تر شوند. ما باید بهتر بگوییم که در درون آنها چه می گذرد و چرا.”

در حالی که OpenAI حداقل برخی از داده های آموزشی خود را در سال های گذشته منتشر کرده بود، از آن زمان کیمونو را به طور کامل بسته است. در واقع، گرگ براکمن ماه گذشته در مورد GPT-4، آخرین و قدرتمندترین مدل زبان بزرگ تا به امروز، به TechCrunch گفت که داده‌های آموزشی آن از «انواع منابع داده دارای مجوز، ایجاد شده و در دسترس عموم است، که ممکن است شامل شخصی در دسترس عموم باشد. اطلاعات، اما او از ارائه چیز دقیق تر خودداری کرد.

همانطور که OpenAI در زمان انتشار GPT-4 بیان کرد، فاش کردن بیش از حد موارد منفی بسیار زیادی دارد. با توجه به چشم‌انداز رقابتی و پیامدهای ایمنی مدل‌های مقیاس بزرگ مانند GPT-4، این گزارش حاوی جزئیات بیشتری در مورد معماری (از جمله اندازه مدل)، سخت‌افزار، محاسبات آموزشی، ساخت مجموعه داده، روش آموزش یا موارد مشابه نیست.

همین امر در مورد هر مدل زبان بزرگ در حال حاضر صادق است. به عنوان مثال، چت ربات Bard گوگل بر اساس مدل زبان LaMDA است که بر روی مجموعه داده‌های مبتنی بر محتوای اینترنتی به نام Infiniset آموزش داده شده است، که اطلاعات کمی در مورد آن وجود دارد، اگرچه یک سال پیش، تیم تحقیقاتی گوگل نوشت که 2.97 میلیارد سند و 1.12 را در خود جای داده است. میلیارد دیالوگ با 13.39 میلیارد گفتار.

OpenAI – که فناوری آن به طور خاص مانند آتش در حال گسترش است – به دلیل بیزاری از شفافیت بیشتر در حال حاضر در تیررس قانونگذاران قرار گرفته است. مقامات ایتالیایی استفاده از ChatGPT را مسدود کرده‌اند و تنظیم‌کننده‌های داده فرانسوی، آلمانی، ایرلندی و کانادایی نیز در حال بررسی نحوه جمع‌آوری و استفاده از داده‌ها هستند.

اما همانطور که مارگارت میچل، محقق هوش مصنوعی و دانشمند ارشد اخلاق در استارت‌آپ Hugging Face، که قبلاً یکی از رهبران اخلاق هوش مصنوعی گوگل بود، به Technology Review می‌گوید، در این مرحله ممکن است تقریباً غیرممکن باشد که داده‌های افراد را شناسایی کرده و آن‌ها را از آن حذف کنیم. مدل ها.

همانطور که توسط این رسانه توضیح داده شده است: “او می گوید: “شرکت می توانست از همان ابتدا با ایجاد رکوردهای قوی اطلاعات خود را از یک سردرد بزرگ نجات دهد. درعوض، در صنعت هوش مصنوعی، ساخت مجموعه‌های داده برای مدل‌های هوش مصنوعی با خراش دادن بی‌مشخصه وب و سپس برون‌سپاری کار حذف داده‌های تکراری یا نامربوط، فیلتر کردن موارد ناخواسته، و رفع اشتباهات تایپی رایج است. این روش‌ها و حجم عظیم مجموعه داده‌ها به این معناست که شرکت‌های فناوری تمایل دارند درک بسیار محدودی از آنچه برای آموزش مدل‌هایشان انجام شده است داشته باشند.

این یک چالش آشکار برای پیشنهاد لانیر است، که آلتمن را در مقاله خود در نیویورکر یک “همکار و دوست” می نامد.

این که آیا آن را غیرممکن می کند یا نه، چیزی است که فقط زمان مشخص خواهد کرد.

مسلماً این که بخواهیم مردم را بر کارشان مالکیت بدهیم، شایستگی دارد. اینکه OpenAI و دیگران حق داشتند کل اینترنت را برای تغذیه الگوریتم‌های آن خراش دهند یا نه، در قلب پرونده‌های متعدد و گسترده نقض حق نسخه‌برداری علیه آنها قرار دارد.

لانیر در مقاله جذاب خود در نیویورکر پیشنهاد می‌کند که به اصطلاح کرامت داده‌ها نیز می‌تواند در طول زمان به حفظ سلامت عقل انسان کمک کند.

در حالی که درآمد پایه جهانی «به این معناست که همه افراد را در معرض خطر قرار دهیم تا ایده هوش مصنوعی جعبه سیاه حفظ شود»، پایان دادن به «ماهیت جعبه سیاه مدل‌های فعلی هوش مصنوعی ما» محاسبه مشارکت افراد را آسان‌تر می‌کند و آنها را بیشتر می‌کند. به احتمال زیاد به مشارکت ادامه خواهد داد.

لانیر اضافه می‌کند که نکته مهم این است که می‌تواند به «تاسیس یک کلاس خلاق جدید به جای یک کلاس وابسته جدید» کمک کند.