ناظر حفظ حریم خصوصی فرانسه، CNIL، یک برنامه عملیاتی برای هوش مصنوعی منتشر کرده است که تصویری از جایی که توجه خود را از جمله روی فناوریهای هوش مصنوعی مولد مانند ChatGPT در OpenAI در ماههای آینده و بعد از آن متمرکز خواهد کرد، ارائه میدهد.
یک سرویس اختصاصی هوش مصنوعی در CNIL راهاندازی شده است تا روی حوزه فناوری و ارائه توصیههایی برای «سیستمهای هوش مصنوعی سازگار با حریم خصوصی» کار کند.
هدف اصلی تنظیمکننده، هدایت توسعه هوش مصنوعی «که به دادههای شخصی احترام میگذارد» است، مانند توسعه ابزارهایی برای حسابرسی و کنترل سیستم های هوش مصنوعی برای “حفاظت از مردم”.
درک اینکه چگونه سیستمهای هوش مصنوعی بر افراد تأثیر میگذارند، یکی دیگر از تمرکزهای اصلی است، همراه با پشتیبانی از بازیگران نوآور در اکوسیستم هوش مصنوعی محلی که بهترین عملکرد CNIL را به کار میگیرند.
این سازمان مینویسد: «CNIL میخواهد قوانین شفافی را برای محافظت از دادههای شخصی شهروندان اروپایی وضع کند تا به توسعه سیستمهای هوش مصنوعی سازگار با حریم خصوصی کمک کند».
به سختی یک هفته می گذرد که یک دسته دیگر از تماس های پرمخاطب از طرف فناوران که از رگولاتورها خواسته اند تا با هوش مصنوعی مقابله کنند. و همین دیروز، در طول شهادت در سنای ایالات متحده، سام آلتمن، مدیر عامل OpenAI، از قانونگذاران خواست تا این فناوری را تنظیم کنند و رژیم مجوز و آزمایش را پیشنهاد کرد.
با این حال، تنظیمکنندههای حفاظت از دادهها در اروپا در حال حاضر بسیار پایینتر از این راه هستند – برای مثال، افرادی مانند Clearview AI در سراسر بلوک به دلیل سوء استفاده از دادههای افراد تحریم شدهاند. در حالی که ربات چت هوش مصنوعی، Replika، اخیراً در ایتالیا با اعمال اجرایی مواجه شده است.
ChatGPT OpenAI همچنین در پایان ماه مارس مورد مداخله عمومی DPA ایتالیا قرار گرفت که منجر به این شد که این شرکت با افشای اطلاعات و کنترلهای جدید برای کاربران عجله کند و به آنها اجازه دهد محدودیتهایی را در مورد نحوه استفاده از اطلاعات خود اعمال کنند.
در همان زمان، قانونگذاران اتحادیه اروپا در حال دستیابی به توافق بر روی چارچوب مبتنی بر ریسک برای تنظیم برنامه های کاربردی هوش مصنوعی هستند که این اتحادیه در آوریل 2021 پیشنهاد کرد.
این چارچوب، قانون هوش مصنوعی اتحادیه اروپا، میتواند تا پایان سال به تصویب برسد و مقررات برنامهریزی شده دلیل دیگری است که CNIL برای تهیه برنامه اقدام هوش مصنوعی خود برجسته میکند و میگوید این کار «همچنین آمادگی برای ورود به برنامه را ممکن میسازد. پیشنویس مقررات اروپایی هوش مصنوعی، که در حال حاضر در دست بحث است.
مقامات حفاظت از دادههای موجود (DPA) احتمالاً در اجرای قانون هوش مصنوعی نقشی ایفا میکنند، بنابراین تنظیمکنندهها درک و تخصص هوش مصنوعی را برای عملکرد مؤثر رژیم بسیار مهم خواهند بود. در حالی که موضوعات و جزئیاتی که DPAهای اتحادیه اروپا انتخاب میکنند، تمرکز خود را بر روی پارامترهای عملیاتی هوش مصنوعی در آینده متمرکز میکنند – قطعاً در اروپا و احتمالاً دورتر، با توجه به اینکه بلوک در قوانین دیجیتال چقدر جلوتر است.
خراش دادن داده ها در قاب
در زمینه هوش مصنوعی مولد، تنظیمکننده حریم خصوصی فرانسوی توجه ویژهای به روش برخی سازندگان مدلهای هوش مصنوعی در حذف دادهها از اینترنت برای ساخت مجموعههای داده برای آموزش سیستمهای هوش مصنوعی مانند مدلهای زبان بزرگ (LLM) دارد که میتواند برای مثال، طبیعی را تجزیه کند. زبان و به شیوه ای انسان گونه به ارتباطات پاسخ دهد.
این سازمان میگوید یک حوزه اولویتدار برای سرویس هوش مصنوعی آن «حفاظت از دادههای در دسترس عموم در وب در برابر استفاده از خراش دادن یا خراش دادن» خواهد بود. خراش دادن، داده ها برای طراحی ابزار».
این یک منطقه ناراحت کننده برای سازندگان LLMهایی مانند ChatGPT است که برای استفاده مجدد به عنوان علوفه آموزشی به جمع آوری بی سر و صدا مقادیر زیادی از داده های وب متکی هستند. کسانی که اطلاعات وب حاوی داده های شخصی را جمع آوری کرده اند با یک چالش قانونی خاص در اروپا روبرو هستند – جایی که مقررات عمومی حفاظت از داده ها (GDPR) که از ماه می 2018 اعمال می شود، آنها را ملزم به داشتن مبنای قانونی برای چنین پردازشی می کند.
تعدادی از مبانی قانونی تعیین شده در GDPR وجود دارد، اما گزینه های ممکن برای فناوری مانند ChatGPT محدود است.
از نظر DPA ایتالیا، فقط دو احتمال وجود دارد: رضایت یا منافع مشروع. و از آنجایی که OpenAI از تک تک کاربران وب اجازه آنها را قبل از دریافت داده های آنها نخواست، شرکت اکنون برای پردازش به ادعای منافع مشروع در ایتالیا تکیه می کند. ادعایی که توسط رگولاتور محلی تحت بررسی است، تضمین می کند. (یادآوری: جریمههای GDPR میتوانند تا 4 درصد از گردش مالی سالانه جهانی را علاوه بر هر دستور اصلاحی، افزایش دهند.)
مقررات سراسری اتحادیه اروپا شامل الزامات بیشتری برای نهادهایی است که داده های شخصی را پردازش می کنند – مانند اینکه پردازش باید منصفانه و شفاف باشد. بنابراین چالشهای قانونی بیشتری برای ابزارهایی مانند ChatGPT وجود دارد تا از نقض قانون جلوگیری شود.
و – به ویژه – در برنامه اقدام خود، CNIL فرانسه بر “عادلانه و شفافیت پردازش دادههای زیربنای عملیات [AI tools]به عنوان یک سؤال خاص مورد علاقه که میگوید سرویس هوش مصنوعی و واحد داخلی دیگر، آزمایشگاه نوآوری دیجیتال CNIL، برای بررسی دقیق در ماههای آینده اولویت خواهند داشت.
سایر حوزههای اولویت اعلامشده که پرچمهای CNIL برای محدوده هوش مصنوعی آن عبارتند از:
- حفاظت از داده های ارسال شده توسط کاربران هنگام استفاده از این ابزارها، از جمع آوری آنها (از طریق رابط) تا استفاده مجدد و پردازش احتمالی آنها از طریق الگوریتم های یادگیری ماشینی؛
- عواقب حقوق افراد در مورد دادههایشان، هم در رابطه با اطلاعات جمعآوریشده برای یادگیری مدلها و هم در مواردی که ممکن است توسط آن سیستمها ارائه شود، مانند محتوای ایجاد شده در مورد هوش مصنوعی مولد؛
- حفاظت در برابر تعصب و تبعیض که ممکن است رخ دهد؛
- چالش های امنیتی بی سابقه این ابزارها.
آلتمن دیروز با ارائه شهادت به کمیته سنای ایالات متحده، توسط قانونگذاران آمریکایی در مورد رویکرد شرکت برای محافظت از حریم خصوصی مورد سوال قرار گرفت و مدیر عامل OpenAI سعی کرد این موضوع را به صورت محدود به اطلاعاتی که به طور فعال توسط کاربران چت ربات هوش مصنوعی ارائه می شود اشاره کند. ، که ChatGPT به کاربران اجازه می دهد مشخص کنند که نمی خواهند از تاریخچه مکالمه آنها به عنوان داده آموزشی استفاده شود. (اما یک ویژگی که در ابتدا ارائه نکرد.)
آلتمن در پاسخ به این سوال که چه گامهای خاصی برای محافظت از حریم خصوصی برداشته شده است، به کمیته سنا گفت: «ما روی هیچ دادهای که به API خود ارسال میشود آموزش نمیدهیم. بنابراین اگر مشتری تجاری ما هستید و دادههایی را ارسال میکنید، ما اصلاً در مورد آن آموزش نمیدهیم… اگر از ChatGPT استفاده می کنید، می توانید از آموزش ما در مورد داده های خود انصراف دهید. همچنین می توانید سابقه مکالمه یا کل حساب خود را حذف کنید.
اما او در وهله اول در مورد داده های مورد استفاده برای آموزش مدل چیزی برای گفتن نداشت.
چارچوب محدود آلتمن از معنای حریم خصوصی، مسئله اساسی قانونی بودن داده های آموزشی را کنار گذاشت. اگر بخواهید آن را «گناه اصلی حریم خصوصی» هوش مصنوعی مولد بنامید. اما واضح است که حذف این موضوع برای OpenAI و امثال خراش دادههای آن سختتر میشود، زیرا قانونگذاران در اروپا به اجرای قوانین حریم خصوصی موجود منطقه در سیستمهای قدرتمند هوش مصنوعی ادامه میدهند.
در مورد OpenAI، همچنان در سرتاسر اروپا مشمول مجموعهای از رویکردهای اجرایی خواهد بود، زیرا پایگاه مستقر در منطقه ندارد – که مکانیسم یک مرحلهای GDPR اعمال نمیشود (همانطور که معمولاً برای فناوری بزرگ انجام میشود. ) بنابراین هر DPA در صورتی که معتقد باشد داده های کاربران محلی در حال پردازش است و حقوق آنها در خطر است، صلاحیت تنظیم مقررات را دارد. بنابراین، در حالی که ایتالیا در اوایل سال جاری با مداخله در ChatGPT که دستور توقف پردازش را به موازات شروع تحقیقات در مورد این ابزار تحمیل کرد، به سختی وارد عمل شد، ناظر فرانسه تنها در ماه آوریل، در پاسخ به شکایات، تحقیقات خود را اعلام کرد. (اسپانیا همچنین گفته است که در حال بررسی این فناوری است، بدون اینکه هنوز هیچ اقدام اضافی انجام شود.)
در تفاوت دیگری بین DPAهای اتحادیه اروپا، به نظر میرسد که CNIL نگران بررسی طیف وسیعتری از مسائل نسبت به فهرست اولیه ایتالیا است – از جمله در نظر گرفتن اینکه چگونه اصل محدودیت هدف GDPR باید در مدلهای زبان بزرگ مانند ChatGPT اعمال شود. که نشان میدهد اگر به این نتیجه برسد که GDPR نقض میشود، ممکن است مجموعه گستردهتری از تغییرات عملیاتی را سفارش دهد.
می نویسد: “CNIL به زودی راهنمای قوانین قابل اجرا برای اشتراک گذاری و استفاده مجدد از داده ها را به مشاوره ارائه خواهد کرد.” این کار شامل موضوع استفاده مجدد از دادههای قابل دسترسی آزاد در اینترنت است و اکنون برای یادگیری بسیاری از مدلهای هوش مصنوعی استفاده میشود. بنابراین، این راهنما برای برخی از پردازش دادههای لازم برای طراحی سیستمهای هوش مصنوعی، از جمله هوش مصنوعی مولد، مرتبط خواهد بود.
همچنین به کار خود در زمینه طراحی سیستم های هوش مصنوعی و ساخت پایگاه داده برای یادگیری ماشین ادامه خواهد داد. این موارد باعث انتشار چندین نشریه از تابستان 2023 می شود، پس از مشورتی که قبلاً با چندین بازیگر سازماندهی شده است، به منظور ارائه توصیه های ملموس، به ویژه در مورد طراحی سیستم های هوش مصنوعی مانند ChatGPT.
در اینجا بقیه موضوعاتی است که CNIL می گوید از طریق انتشارات آینده و راهنمایی های هوش مصنوعی که تولید می کند “به تدریج” به آنها پرداخته می شود:
- استفاده از سیستم تحقیقات علمی برای ایجاد و استفاده مجدد از پایگاه های آموزشی.
- استفاده از اصل هدف برای هوش مصنوعی با هدف عمومی و مدل های پایه مانند مدل های زبان بزرگ.
- توضیح تقسیم مسئولیتها بین نهادهایی که پایگاههای داده را تشکیل میدهند، آنهایی که مدلهایی را از آن دادهها ترسیم میکنند و آنهایی که از آن مدلها استفاده میکنند.
- قوانین و بهترین شیوه های قابل اجرا برای انتخاب داده ها برای آموزش، با در نظر گرفتن اصول دقت و به حداقل رساندن داده ها؛
- مدیریت حقوق افراد، به ویژه حقوق دسترسی، اصلاح و مخالفت؛
- قوانین قابل اجرا در مورد ماندگاری، به ویژه برای پایه های آموزشی و پیچیده ترین مدل های مورد استفاده؛
- در نهایت، با آگاهی از این که مسائل مطرح شده توسط سیستم های هوش مصنوعی به مفهوم آنها محدود نمی شود، CNIL نیز بازتاب های اخلاقی خود را دنبال می کند. [following a report it published back in 2017] در مورد استفاده و به اشتراک گذاری مدل های یادگیری ماشین، پیشگیری و تصحیح سوگیری ها و تبعیض ها، یا صدور گواهینامه سیستم های هوش مصنوعی.
در مورد ممیزی و کنترل سیستمهای هوش مصنوعی، تنظیمکننده فرانسوی تصریح میکند که اقدامات خود در سال جاری بر سه حوزه متمرکز خواهد بود: پیروی از موضع موجود در مورد استفاده از نظارت تصویری پیشرفته، که در سال 2022 منتشر کرد. استفاده از هوش مصنوعی برای مبارزه با تقلب (مانند کلاهبرداری بیمه اجتماعی)؛ و در مورد رسیدگی به شکایات
همچنین تأیید می کند که قبلاً شکایت هایی در مورد چارچوب قانونی برای آموزش و استفاده از هوش مصنوعی مولد دریافت کرده است – و می گوید که در حال کار بر روی شفاف سازی در آنجا است.
با اشاره به وجود یک کارگروه اختصاصی که اخیراً در حفاظت از داده های اروپا راه اندازی شده است، می افزاید: «CNIL، به ویژه، چندین شکایت علیه شرکت OpenAI دریافت کرده است که سرویس ChatGPT را مدیریت می کند، و یک رویه کنترلی را باز کرده است. هیئت مدیره سعی در هماهنگی نحوه رویکرد مقامات مختلف اروپایی به تنظیم چت ربات هوش مصنوعی داشته باشد (و آنچه را که به عنوان «تحلیل هماهنگ پردازش دادههای پیادهسازی شده توسط ابزار OpenAI» اعلام میکند، تولید کند).
در اخطار بیشتر برای سازندگان سیستمهای هوش مصنوعی که هرگز از افراد برای استفاده از دادههایشان اجازه نخواستهاند و ممکن است به بخشش در آینده امیدوار باشند، CNIL خاطرنشان میکند که توجه ویژهای به این دارد که آیا نهادهایی که دادههای شخصی را پردازش میکنند، برای توسعه، آموزش یا استفاده از آنها سیستم های هوش مصنوعی دارای:
- ارزیابی تأثیر حفاظت از داده ها را برای مستندسازی خطرات و اتخاذ تدابیری برای کاهش آنها انجام داد.
- اقدامات انجام شده برای اطلاع رسانی به مردم؛
- اقدامات برنامه ریزی شده برای اعمال حقوق افراد متناسب با این زمینه خاص.
پس، اوه، نگویید به شما هشدار داده نشده است!
در مورد پشتیبانی از بازیکنان خلاق هوش مصنوعی که میخواهند با قوانین (و ارزشهای اروپایی) مطابقت داشته باشند، CNIL چندین سال است که یک سندباکس نظارتی دارد و در حال اجرا است – و شرکتها و محققان هوش مصنوعی را تشویق میکند که روی توسعه سیستمهای هوش مصنوعی کار میکنند. خوب با قوانین حفاظت از داده های شخصی تماس بگیرید (از طریق [email protected]).