در سیلیکون ولی، برخی از باهوشترین ذهنها بر این باورند که درآمد پایه جهانی (UBI) که پرداختهای نقدی نامحدود به مردم را تضمین میکند به آنها کمک میکند تا بقای خود را حفظ کنند و پیشرفت کنند، زیرا فناوریهای پیشرفته مشاغل بیشتری را که ما میشناسیم حذف میکند، از یقه سفیدها و نقشهای خلاق – وکلا، روزنامهنگاران، هنرمندان، مهندسان نرمافزار – به مشاغل کارگری. این ایده به اندازه کافی مورد توجه قرار گرفته است که ده ها برنامه درآمد تضمینی از سال 2020 در شهرهای ایالات متحده آغاز شده است.
با این حال، حتی سم آلتمن، مدیر عامل OpenAI و یکی از برجستهترین حامیان UBI، معتقد نیست که این یک راهحل کامل است. همانطور که او در طی یک نشست در اوایل سال جاری گفت: «فکر میکنم این بخش کوچکی از راهحل است. به نظر من عالیه من فکر می کنم به عنوان [advanced artificial intelligence] هرچه بیشتر در اقتصاد مشارکت می کند، ما باید ثروت و منابع را بسیار بیشتر از آنچه که داریم توزیع کنیم و این به مرور زمان مهم خواهد بود. اما فکر نمیکنم این مشکل را حل کند. فکر نمیکنم این به مردم معنا بدهد، فکر نمیکنم به این معنا باشد که مردم بهطور کامل از تلاش برای خلق و انجام کارهای جدید و هر چیز دیگری دست میکشند. بنابراین من آن را یک فناوری توانمند می دانم، اما نه یک برنامه برای جامعه.»
سوالی که مطرح می شود این است که در آن صورت طرحی برای جامعه ممکن است چگونه به نظر برسد، و جارون لانیر، دانشمند کامپیوتر، بنیانگذار حوزه واقعیت مجازی، در نیویورکر این هفته می نویسد که «شأن داده» می تواند یک راه حل باشد، اگر نه. را پاسخ.
در اینجا فرض اصلی این است: در حال حاضر، ما بیشتر داده های خود را در ازای خدمات رایگان به صورت رایگان می دهیم. لانیر استدلال میکند که مهمتر از هر زمان دیگری این است که این کار را متوقف کنیم، که «چیزهای دیجیتالی» که به آنها تکیه میکنیم – شبکههای اجتماعی تا حدی و همچنین مدلهای فزاینده هوش مصنوعی مانند GPT-4 OpenAI – در عوض «با انسانها در ارتباط باشند». که در وهله اول به آنها چیزهای زیادی می دهند تا بخورند.
ایده این است که مردم «برای چیزی که خلق میکنند، پول دریافت کنند، حتی زمانی که فیلتر شده و از طریق مدلهای بزرگ ترکیب میشود».
این مفهوم کاملاً جدید نیست، زیرا لانیر برای اولین بار مفهوم شأن داده را در مقاله بررسی کسب و کار هاروارد در سال 2018 با عنوان “نقشه ای برای یک جامعه دیجیتال بهتر” معرفی کرد. همانطور که او در آن زمان با همکار نویسنده و اقتصاددان گلن ویل نوشت:[R]اخبار غیرعادی از بخش فناوری حاکی از موجی از کمکاری ناشی از هوش مصنوعی (AI) و اتوماسیون است» و «آیندهای که در آن مردم بهطور فزایندهای بهعنوان بیارزش و فاقد عاملیت اقتصادی رفتار میشوند».
اما آنها مشاهده کردند که “لفاظی” طرفداران درآمد پایه جهانی “تنها برای دو نتیجه جا باقی می گذارد” و آنها افراطی هستند. یا علیرغم پیشرفتهای فناوری، فقر انبوه وجود خواهد داشت، یا باید ثروت زیادی از طریق یک صندوق ثروت اجتماعی تحت کنترل مرکزی و ملی قرار گیرد تا درآمد پایه جهانی برای شهروندان فراهم شود.»
اما این دو نوشتند که هم «قدرت بیش از حد متمرکز است و هم ارزش تولیدکنندگان داده را تضعیف یا نادیده می گیرد».
البته، تخصیص میزان اعتبار مناسب به افراد برای مشارکتهای بیشمارشان در هر چیزی که در جهان وجود دارد، یک چالش کوچک نیست (حتی همانطور که میتوان تصور کرد استارتآپهای حسابرسی هوش مصنوعی قول رسیدگی به این موضوع را میدهند). لانیر اذعان میکند که حتی محققان ارزش داده نمیتوانند در مورد نحوه تفکیک همه چیزهایی که مدلهای هوش مصنوعی جذب کردهاند یا اینکه چقدر باید حسابداری دقیق انجام شود، به توافق برسند.
اما او فکر می کند – شاید خوش بینانه – که می تواند به تدریج انجام شود. این سیستم لزوماً میلیاردها نفری را که به مدلهای بزرگ کمک کردهاند را در بر نمیگیرد – مثلاً کسانی که به مهارت شبیهسازیشده یک مدل در گرامر اضافه کردهاند. [It] ممکن است فقط به تعداد کمی از مشارکت کنندگان ویژه ای که در یک موقعیت خاص ظاهر می شوند توجه داشته باشد. با این حال، با گذشت زمان، «ممکن است افراد بیشتری را شامل شوند، زیرا سازمانهای حقوق میانی – اتحادیهها، اصناف، گروههای حرفهای و غیره- شروع به ایفای نقش میکنند».
لانیر میگوید، البته چالش فوریتر، ماهیت جعبه سیاه ابزارهای هوش مصنوعی فعلی است که معتقد است «سیستمها باید شفافتر شوند. ما باید بهتر بگوییم که در درون آنها چه می گذرد و چرا.”
در حالی که OpenAI حداقل برخی از داده های آموزشی خود را در سال های گذشته منتشر کرده بود، از آن زمان کیمونو را به طور کامل بسته است. در واقع، گرگ براکمن ماه گذشته در مورد GPT-4، آخرین و قدرتمندترین مدل زبان بزرگ تا به امروز، به TechCrunch گفت که دادههای آموزشی آن از «انواع منابع داده دارای مجوز، ایجاد شده و در دسترس عموم است، که ممکن است شامل شخصی در دسترس عموم باشد. اطلاعات، اما او از ارائه چیز دقیق تر خودداری کرد.
همانطور که OpenAI در زمان انتشار GPT-4 بیان کرد، فاش کردن بیش از حد موارد منفی بسیار زیادی دارد. با توجه به چشمانداز رقابتی و پیامدهای ایمنی مدلهای مقیاس بزرگ مانند GPT-4، این گزارش حاوی جزئیات بیشتری در مورد معماری (از جمله اندازه مدل)، سختافزار، محاسبات آموزشی، ساخت مجموعه داده، روش آموزش یا موارد مشابه نیست.
همین امر در مورد هر مدل زبان بزرگ در حال حاضر صادق است. به عنوان مثال، چت ربات Bard گوگل بر اساس مدل زبان LaMDA است که بر روی مجموعه دادههای مبتنی بر محتوای اینترنتی به نام Infiniset آموزش داده شده است، که اطلاعات کمی در مورد آن وجود دارد، اگرچه یک سال پیش، تیم تحقیقاتی گوگل نوشت که 2.97 میلیارد سند و 1.12 را در خود جای داده است. میلیارد دیالوگ با 13.39 میلیارد گفتار.
OpenAI – که فناوری آن به طور خاص مانند آتش در حال گسترش است – به دلیل بیزاری از شفافیت بیشتر در حال حاضر در تیررس قانونگذاران قرار گرفته است. مقامات ایتالیایی استفاده از ChatGPT را مسدود کردهاند و تنظیمکنندههای داده فرانسوی، آلمانی، ایرلندی و کانادایی نیز در حال بررسی نحوه جمعآوری و استفاده از دادهها هستند.
اما همانطور که مارگارت میچل، محقق هوش مصنوعی و دانشمند ارشد اخلاق در استارتآپ Hugging Face، که قبلاً یکی از رهبران اخلاق هوش مصنوعی گوگل بود، به Technology Review میگوید، در این مرحله ممکن است تقریباً غیرممکن باشد که دادههای افراد را شناسایی کرده و آنها را از آن حذف کنیم. مدل ها.
همانطور که توسط این رسانه توضیح داده شده است: “او می گوید: “شرکت می توانست از همان ابتدا با ایجاد رکوردهای قوی اطلاعات خود را از یک سردرد بزرگ نجات دهد. درعوض، در صنعت هوش مصنوعی، ساخت مجموعههای داده برای مدلهای هوش مصنوعی با خراش دادن بیمشخصه وب و سپس برونسپاری کار حذف دادههای تکراری یا نامربوط، فیلتر کردن موارد ناخواسته، و رفع اشتباهات تایپی رایج است. این روشها و حجم عظیم مجموعه دادهها به این معناست که شرکتهای فناوری تمایل دارند درک بسیار محدودی از آنچه برای آموزش مدلهایشان انجام شده است داشته باشند.
این یک چالش آشکار برای پیشنهاد لانیر است، که آلتمن را در مقاله خود در نیویورکر یک “همکار و دوست” می نامد.
این که آیا آن را غیرممکن می کند یا نه، چیزی است که فقط زمان مشخص خواهد کرد.
مسلماً این که بخواهیم مردم را بر کارشان مالکیت بدهیم، شایستگی دارد. اینکه OpenAI و دیگران حق داشتند کل اینترنت را برای تغذیه الگوریتمهای آن خراش دهند یا نه، در قلب پروندههای متعدد و گسترده نقض حق نسخهبرداری علیه آنها قرار دارد.
لانیر در مقاله جذاب خود در نیویورکر پیشنهاد میکند که به اصطلاح کرامت دادهها نیز میتواند در طول زمان به حفظ سلامت عقل انسان کمک کند.
در حالی که درآمد پایه جهانی «به این معناست که همه افراد را در معرض خطر قرار دهیم تا ایده هوش مصنوعی جعبه سیاه حفظ شود»، پایان دادن به «ماهیت جعبه سیاه مدلهای فعلی هوش مصنوعی ما» محاسبه مشارکت افراد را آسانتر میکند و آنها را بیشتر میکند. به احتمال زیاد به مشارکت ادامه خواهد داد.
لانیر اضافه میکند که نکته مهم این است که میتواند به «تاسیس یک کلاس خلاق جدید به جای یک کلاس وابسته جدید» کمک کند.