ناظر حریم خصوصی فرانسه در برنامه اقدام هوش مصنوعی به محافظت در برابر خراش داده ها توجه می کند

ناظر حفظ حریم خصوصی فرانسه، CNIL، یک برنامه عملیاتی برای هوش مصنوعی منتشر کرده است که تصویری از جایی که توجه خود را از جمله روی فناوری‌های هوش مصنوعی مولد مانند ChatGPT در OpenAI در ماه‌های آینده و بعد از آن متمرکز خواهد کرد، ارائه می‌دهد.

یک سرویس اختصاصی هوش مصنوعی در CNIL راه‌اندازی شده است تا روی حوزه فناوری و ارائه توصیه‌هایی برای «سیستم‌های هوش مصنوعی سازگار با حریم خصوصی» کار کند.

هدف اصلی تنظیم‌کننده، هدایت توسعه هوش مصنوعی «که به داده‌های شخصی احترام می‌گذارد» است، مانند توسعه ابزارهایی برای حسابرسی و کنترل سیستم های هوش مصنوعی برای “حفاظت از مردم”.

درک اینکه چگونه سیستم‌های هوش مصنوعی بر افراد تأثیر می‌گذارند، یکی دیگر از تمرکزهای اصلی است، همراه با پشتیبانی از بازیگران نوآور در اکوسیستم هوش مصنوعی محلی که بهترین عملکرد CNIL را به کار می‌گیرند.

این سازمان می‌نویسد: «CNIL می‌خواهد قوانین شفافی را برای محافظت از داده‌های شخصی شهروندان اروپایی وضع کند تا به توسعه سیستم‌های هوش مصنوعی سازگار با حریم خصوصی کمک کند».

به سختی یک هفته می گذرد که یک دسته دیگر از تماس های پرمخاطب از طرف فناوران که از رگولاتورها خواسته اند تا با هوش مصنوعی مقابله کنند. و همین دیروز، در طول شهادت در سنای ایالات متحده، سام آلتمن، مدیر عامل OpenAI، از قانونگذاران خواست تا این فناوری را تنظیم کنند و رژیم مجوز و آزمایش را پیشنهاد کرد.

با این حال، تنظیم‌کننده‌های حفاظت از داده‌ها در اروپا در حال حاضر بسیار پایین‌تر از این راه هستند – برای مثال، افرادی مانند Clearview AI در سراسر بلوک به دلیل سوء استفاده از داده‌های افراد تحریم شده‌اند. در حالی که ربات چت هوش مصنوعی، Replika، اخیراً در ایتالیا با اعمال اجرایی مواجه شده است.

ChatGPT OpenAI همچنین در پایان ماه مارس مورد مداخله عمومی DPA ایتالیا قرار گرفت که منجر به این شد که این شرکت با افشای اطلاعات و کنترل‌های جدید برای کاربران عجله کند و به آنها اجازه دهد محدودیت‌هایی را در مورد نحوه استفاده از اطلاعات خود اعمال کنند.

در همان زمان، قانونگذاران اتحادیه اروپا در حال دستیابی به توافق بر روی چارچوب مبتنی بر ریسک برای تنظیم برنامه های کاربردی هوش مصنوعی هستند که این اتحادیه در آوریل 2021 پیشنهاد کرد.

این چارچوب، قانون هوش مصنوعی اتحادیه اروپا، می‌تواند تا پایان سال به تصویب برسد و مقررات برنامه‌ریزی شده دلیل دیگری است که CNIL برای تهیه برنامه اقدام هوش مصنوعی خود برجسته می‌کند و می‌گوید این کار «همچنین آمادگی برای ورود به برنامه را ممکن می‌سازد. پیش‌نویس مقررات اروپایی هوش مصنوعی، که در حال حاضر در دست بحث است.

مقامات حفاظت از داده‌های موجود (DPA) احتمالاً در اجرای قانون هوش مصنوعی نقشی ایفا می‌کنند، بنابراین تنظیم‌کننده‌ها درک و تخصص هوش مصنوعی را برای عملکرد مؤثر رژیم بسیار مهم خواهند بود. در حالی که موضوعات و جزئیاتی که DPAهای اتحادیه اروپا انتخاب می‌کنند، تمرکز خود را بر روی پارامترهای عملیاتی هوش مصنوعی در آینده متمرکز می‌کنند – قطعاً در اروپا و احتمالاً دورتر، با توجه به اینکه بلوک در قوانین دیجیتال چقدر جلوتر است.

خراش دادن داده ها در قاب

در زمینه هوش مصنوعی مولد، تنظیم‌کننده حریم خصوصی فرانسوی توجه ویژه‌ای به روش برخی سازندگان مدل‌های هوش مصنوعی در حذف داده‌ها از اینترنت برای ساخت مجموعه‌های داده برای آموزش سیستم‌های هوش مصنوعی مانند مدل‌های زبان بزرگ (LLM) دارد که می‌تواند برای مثال، طبیعی را تجزیه کند. زبان و به شیوه ای انسان گونه به ارتباطات پاسخ دهد.

این سازمان می‌گوید یک حوزه اولویت‌دار برای سرویس هوش مصنوعی آن «حفاظت از داده‌های در دسترس عموم در وب در برابر استفاده از خراش دادن یا خراش دادن» خواهد بود. خراش دادن، داده ها برای طراحی ابزار».

این یک منطقه ناراحت کننده برای سازندگان LLMهایی مانند ChatGPT است که برای استفاده مجدد به عنوان علوفه آموزشی به جمع آوری بی سر و صدا مقادیر زیادی از داده های وب متکی هستند. کسانی که اطلاعات وب حاوی داده های شخصی را جمع آوری کرده اند با یک چالش قانونی خاص در اروپا روبرو هستند – جایی که مقررات عمومی حفاظت از داده ها (GDPR) که از ماه می 2018 اعمال می شود، آنها را ملزم به داشتن مبنای قانونی برای چنین پردازشی می کند.

تعدادی از مبانی قانونی تعیین شده در GDPR وجود دارد، اما گزینه های ممکن برای فناوری مانند ChatGPT محدود است.

از نظر DPA ایتالیا، فقط دو احتمال وجود دارد: رضایت یا منافع مشروع. و از آنجایی که OpenAI از تک تک کاربران وب اجازه آنها را قبل از دریافت داده های آنها نخواست، شرکت اکنون برای پردازش به ادعای منافع مشروع در ایتالیا تکیه می کند. ادعایی که توسط رگولاتور محلی تحت بررسی است، تضمین می کند. (یادآوری: جریمه‌های GDPR می‌توانند تا 4 درصد از گردش مالی سالانه جهانی را علاوه بر هر دستور اصلاحی، افزایش دهند.)

مقررات سراسری اتحادیه اروپا شامل الزامات بیشتری برای نهادهایی است که داده های شخصی را پردازش می کنند – مانند اینکه پردازش باید منصفانه و شفاف باشد. بنابراین چالش‌های قانونی بیشتری برای ابزارهایی مانند ChatGPT وجود دارد تا از نقض قانون جلوگیری شود.

و – به ویژه – در برنامه اقدام خود، CNIL فرانسه بر “عادلانه و شفافیت پردازش داده‌های زیربنای عملیات [AI tools]به عنوان یک سؤال خاص مورد علاقه که می‌گوید سرویس هوش مصنوعی و واحد داخلی دیگر، آزمایشگاه نوآوری دیجیتال CNIL، برای بررسی دقیق در ماه‌های آینده اولویت خواهند داشت.

سایر حوزه‌های اولویت اعلام‌شده که پرچم‌های CNIL برای محدوده هوش مصنوعی آن عبارتند از:

  • حفاظت از داده های ارسال شده توسط کاربران هنگام استفاده از این ابزارها، از جمع آوری آنها (از طریق رابط) تا استفاده مجدد و پردازش احتمالی آنها از طریق الگوریتم های یادگیری ماشینی؛
  • عواقب حقوق افراد در مورد داده‌هایشان، هم در رابطه با اطلاعات جمع‌آوری‌شده برای یادگیری مدل‌ها و هم در مواردی که ممکن است توسط آن سیستم‌ها ارائه شود، مانند محتوای ایجاد شده در مورد هوش مصنوعی مولد؛
  • حفاظت در برابر تعصب و تبعیض که ممکن است رخ دهد؛
  • چالش های امنیتی بی سابقه این ابزارها.

آلتمن دیروز با ارائه شهادت به کمیته سنای ایالات متحده، توسط قانونگذاران آمریکایی در مورد رویکرد شرکت برای محافظت از حریم خصوصی مورد سوال قرار گرفت و مدیر عامل OpenAI سعی کرد این موضوع را به صورت محدود به اطلاعاتی که به طور فعال توسط کاربران چت ربات هوش مصنوعی ارائه می شود اشاره کند. ، که ChatGPT به کاربران اجازه می دهد مشخص کنند که نمی خواهند از تاریخچه مکالمه آنها به عنوان داده آموزشی استفاده شود. (اما یک ویژگی که در ابتدا ارائه نکرد.)

آلتمن در پاسخ به این سوال که چه گام‌های خاصی برای محافظت از حریم خصوصی برداشته شده است، به کمیته سنا گفت: «ما روی هیچ داده‌ای که به API خود ارسال می‌شود آموزش نمی‌دهیم. بنابراین اگر مشتری تجاری ما هستید و داده‌هایی را ارسال می‌کنید، ما اصلاً در مورد آن آموزش نمی‌دهیم… اگر از ChatGPT استفاده می کنید، می توانید از آموزش ما در مورد داده های خود انصراف دهید. همچنین می توانید سابقه مکالمه یا کل حساب خود را حذف کنید.

اما او در وهله اول در مورد داده های مورد استفاده برای آموزش مدل چیزی برای گفتن نداشت.

چارچوب محدود آلتمن از معنای حریم خصوصی، مسئله اساسی قانونی بودن داده های آموزشی را کنار گذاشت. اگر بخواهید آن را «گناه اصلی حریم خصوصی» هوش مصنوعی مولد بنامید. اما واضح است که حذف این موضوع برای OpenAI و امثال خراش داده‌های آن سخت‌تر می‌شود، زیرا قانون‌گذاران در اروپا به اجرای قوانین حریم خصوصی موجود منطقه در سیستم‌های قدرتمند هوش مصنوعی ادامه می‌دهند.

در مورد OpenAI، همچنان در سرتاسر اروپا مشمول مجموعه‌ای از رویکردهای اجرایی خواهد بود، زیرا پایگاه مستقر در منطقه ندارد – که مکانیسم یک مرحله‌ای GDPR اعمال نمی‌شود (همانطور که معمولاً برای فناوری بزرگ انجام می‌شود. ) بنابراین هر DPA در صورتی که معتقد باشد داده های کاربران محلی در حال پردازش است و حقوق آنها در خطر است، صلاحیت تنظیم مقررات را دارد. بنابراین، در حالی که ایتالیا در اوایل سال جاری با مداخله در ChatGPT که دستور توقف پردازش را به موازات شروع تحقیقات در مورد این ابزار تحمیل کرد، به سختی وارد عمل شد، ناظر فرانسه تنها در ماه آوریل، در پاسخ به شکایات، تحقیقات خود را اعلام کرد. (اسپانیا همچنین گفته است که در حال بررسی این فناوری است، بدون اینکه هنوز هیچ اقدام اضافی انجام شود.)

در تفاوت دیگری بین DPAهای اتحادیه اروپا، به نظر می‌رسد که CNIL نگران بررسی طیف وسیع‌تری از مسائل نسبت به فهرست اولیه ایتالیا است – از جمله در نظر گرفتن اینکه چگونه اصل محدودیت هدف GDPR باید در مدل‌های زبان بزرگ مانند ChatGPT اعمال شود. که نشان می‌دهد اگر به این نتیجه برسد که GDPR نقض می‌شود، ممکن است مجموعه گسترده‌تری از تغییرات عملیاتی را سفارش دهد.

می نویسد: “CNIL به زودی راهنمای قوانین قابل اجرا برای اشتراک گذاری و استفاده مجدد از داده ها را به مشاوره ارائه خواهد کرد.” این کار شامل موضوع استفاده مجدد از داده‌های قابل دسترسی آزاد در اینترنت است و اکنون برای یادگیری بسیاری از مدل‌های هوش مصنوعی استفاده می‌شود. بنابراین، این راهنما برای برخی از پردازش داده‌های لازم برای طراحی سیستم‌های هوش مصنوعی، از جمله هوش مصنوعی مولد، مرتبط خواهد بود.

همچنین به کار خود در زمینه طراحی سیستم های هوش مصنوعی و ساخت پایگاه داده برای یادگیری ماشین ادامه خواهد داد. این موارد باعث انتشار چندین نشریه از تابستان 2023 می شود، پس از مشورتی که قبلاً با چندین بازیگر سازماندهی شده است، به منظور ارائه توصیه های ملموس، به ویژه در مورد طراحی سیستم های هوش مصنوعی مانند ChatGPT.

در اینجا بقیه موضوعاتی است که CNIL می گوید از طریق انتشارات آینده و راهنمایی های هوش مصنوعی که تولید می کند “به تدریج” به آنها پرداخته می شود:

  • استفاده از سیستم تحقیقات علمی برای ایجاد و استفاده مجدد از پایگاه های آموزشی.
  • استفاده از اصل هدف برای هوش مصنوعی با هدف عمومی و مدل های پایه مانند مدل های زبان بزرگ.
  • توضیح تقسیم مسئولیت‌ها بین نهادهایی که پایگاه‌های داده را تشکیل می‌دهند، آن‌هایی که مدل‌هایی را از آن داده‌ها ترسیم می‌کنند و آن‌هایی که از آن مدل‌ها استفاده می‌کنند.
  • قوانین و بهترین شیوه های قابل اجرا برای انتخاب داده ها برای آموزش، با در نظر گرفتن اصول دقت و به حداقل رساندن داده ها؛
  • مدیریت حقوق افراد، به ویژه حقوق دسترسی، اصلاح و مخالفت؛
  • قوانین قابل اجرا در مورد ماندگاری، به ویژه برای پایه های آموزشی و پیچیده ترین مدل های مورد استفاده؛
  • در نهایت، با آگاهی از این که مسائل مطرح شده توسط سیستم های هوش مصنوعی به مفهوم آنها محدود نمی شود، CNIL نیز بازتاب های اخلاقی خود را دنبال می کند. [following a report it published back in 2017] در مورد استفاده و به اشتراک گذاری مدل های یادگیری ماشین، پیشگیری و تصحیح سوگیری ها و تبعیض ها، یا صدور گواهینامه سیستم های هوش مصنوعی.

در مورد ممیزی و کنترل سیستم‌های هوش مصنوعی، تنظیم‌کننده فرانسوی تصریح می‌کند که اقدامات خود در سال جاری بر سه حوزه متمرکز خواهد بود: پیروی از موضع موجود در مورد استفاده از نظارت تصویری پیشرفته، که در سال 2022 منتشر کرد. استفاده از هوش مصنوعی برای مبارزه با تقلب (مانند کلاهبرداری بیمه اجتماعی)؛ و در مورد رسیدگی به شکایات

همچنین تأیید می کند که قبلاً شکایت هایی در مورد چارچوب قانونی برای آموزش و استفاده از هوش مصنوعی مولد دریافت کرده است – و می گوید که در حال کار بر روی شفاف سازی در آنجا است.

با اشاره به وجود یک کارگروه اختصاصی که اخیراً در حفاظت از داده های اروپا راه اندازی شده است، می افزاید: «CNIL، به ویژه، چندین شکایت علیه شرکت OpenAI دریافت کرده است که سرویس ChatGPT را مدیریت می کند، و یک رویه کنترلی را باز کرده است. هیئت مدیره سعی در هماهنگی نحوه رویکرد مقامات مختلف اروپایی به تنظیم چت ربات هوش مصنوعی داشته باشد (و آنچه را که به عنوان «تحلیل هماهنگ پردازش داده‌های پیاده‌سازی شده توسط ابزار OpenAI» اعلام می‌کند، تولید کند).

در اخطار بیشتر برای سازندگان سیستم‌های هوش مصنوعی که هرگز از افراد برای استفاده از داده‌هایشان اجازه نخواسته‌اند و ممکن است به بخشش در آینده امیدوار باشند، CNIL خاطرنشان می‌کند که توجه ویژه‌ای به این دارد که آیا نهادهایی که داده‌های شخصی را پردازش می‌کنند، برای توسعه، آموزش یا استفاده از آن‌ها سیستم های هوش مصنوعی دارای:

  • ارزیابی تأثیر حفاظت از داده ها را برای مستندسازی خطرات و اتخاذ تدابیری برای کاهش آنها انجام داد.
  • اقدامات انجام شده برای اطلاع رسانی به مردم؛
  • اقدامات برنامه ریزی شده برای اعمال حقوق افراد متناسب با این زمینه خاص.

پس، اوه، نگویید به شما هشدار داده نشده است!

در مورد پشتیبانی از بازیکنان خلاق هوش مصنوعی که می‌خواهند با قوانین (و ارزش‌های اروپایی) مطابقت داشته باشند، CNIL چندین سال است که یک سندباکس نظارتی دارد و در حال اجرا است – و شرکت‌ها و محققان هوش مصنوعی را تشویق می‌کند که روی توسعه سیستم‌های هوش مصنوعی کار می‌کنند. خوب با قوانین حفاظت از داده های شخصی تماس بگیرید (از طریق [email protected]).