چند روز پس از اینکه OpenAI مجموعهای از کنترلهای حریم خصوصی را برای چت ربات هوش مصنوعی مولد خود، ChatGPT اعلام کرد، این سرویس دوباره در اختیار کاربران ایتالیا قرار گرفت – در حال حاضر یک تعلیق نظارتی اولیه در یکی از 27 کشور عضو اتحادیه اروپا حل شده است. حتی زمانی که تحقیقات محلی در مورد انطباق آن با قوانین حفاظت از داده های منطقه ادامه دارد.
در زمان نگارش این مقاله، کاربران وب که از یک آدرس IP ایتالیایی به ChatGPT میگردند، دیگر با اعلانی مواجه نمیشوند که به آنها دستور میدهد سرویس «برای کاربران در ایتالیا غیرفعال است». در عوض با یادداشتی روبرو میشوند که میگوید OpenAI «خوشحال است که ارائه ChatGPT در ایتالیا را از سر بگیرد».
پاپ آپ در ادامه تصریح می کند که کاربران باید با رضایت والدین یا قیم برای استفاده از این سرویس، تایید کنند که 18+ یا 13 سال دارند – با کلیک بر روی دکمه ای که در آن نوشته شده است «من شرایط سنی OpenAI را برآورده می کنم».
متن این اطلاعیه همچنین توجه را به خط مشی رازداری OpenAI جلب می کند و به مقاله مرکز راهنمایی پیوند می دهد که در آن شرکت می گوید اطلاعاتی در مورد “چگونه ما ChatGPT را توسعه و آموزش می دهیم” ارائه می دهد.
تغییرات در نحوه ارائه ChatGPT OpenAI به کاربران در ایتالیا برای برآوردن مجموعه اولیه از شرایط تعیین شده توسط مرجع حفاظت از داده های محلی (DPA) به منظور از سرگیری خدمات با ریسک نظارتی مدیریت شده در نظر گرفته شده است.
خلاصه ای سریع از پیشینه در اینجا: اواخر ماه گذشته، گارانته ایتالیا دستور توقف موقت پردازش در ChatGPT را صادر کرد و گفت که نگران است این سرویس ها قوانین حفاظت از داده اتحادیه اروپا را نقض می کند. همچنین تحقیقاتی را در مورد نقض مشکوک مقررات عمومی حفاظت از داده ها (GDPR) آغاز کرد.
OpenAI به سرعت به مداخله با مسدود کردن جغرافیایی کاربران با آدرس IP ایتالیایی در آغاز این ماه پاسخ داد.
این حرکت، چند هفته بعد، با انتشار فهرستی از اقداماتی که گفته بود OpenAI باید اجرا کند تا تا پایان آوریل لغو شود – از جمله اضافه کردن سن برای جلوگیری از دسترسی خردسالان به این سرویس، دنبال شد. و اصلاح مبنای قانونی ادعا شده برای پردازش داده های کاربران محلی.
رگولاتور برای مداخله در ایتالیا و سایر نقاط اروپا با برخی انحرافات سیاسی مواجه شد. اگرچه این تنها مرجع حفاظت از دادهها نیست که نگرانیهایی را مطرح میکند – و در اوایل این ماه، تنظیمکنندههای بلوک موافقت کردند که یک کارگروه متمرکز بر ChatGPT را با هدف حمایت از تحقیقات و همکاری در مورد هرگونه اجرا راهاندازی کنند.
در یک بیانیه مطبوعاتی که امروز از سرگیری سرویس در ایتالیا منتشر شد، Garante گفت که OpenAI نامه ای را برای آن ارسال کرده است که در آن جزئیات اقدامات انجام شده در پاسخ به دستور قبلی را توضیح داده است و نوشته است: «OpenAI توضیح داد که اطلاعات را به کاربران اروپایی و غیرکاربران گسترش داده است. ، که چندین مکانیسم را اصلاح و شفاف کرده است و راه حل های قابل قبولی را به کار گرفته است تا کاربران و غیرکاربران بتوانند از حقوق خود استفاده کنند. بر اساس این بهبودها، OpenAI دسترسی به ChatGPT را برای کاربران ایتالیایی بازگرداند.
با گسترش جزئیات بیشتر مراحل برداشته شده توسط OpenAI، DPA می گوید OpenAI سیاست حفظ حریم خصوصی خود را گسترش داده و به کاربران و غیرکاربران اطلاعات بیشتری در مورد داده های شخصی که برای آموزش الگوریتم هایش پردازش می شود، ارائه می دهد، از جمله تصریح می کند که همه حق انصراف دارند. از چنین پردازشهایی – که نشان میدهد شرکت اکنون بر ادعای منافع مشروع به عنوان مبنای قانونی برای پردازش دادهها برای آموزش الگوریتمهای خود تکیه میکند (زیرا این مبنای مستلزم ارائه یک انصراف است).
علاوه بر این، Garante فاش میکند که OpenAI گامهایی برداشته است تا راهی برای اروپاییها فراهم کند تا از دادههایشان برای آموزش هوش مصنوعی استفاده نکنند (درخواستها را میتوان از طریق یک فرم آنلاین برای آن ارسال کرد) – و «مکانیسمهایی» را برای آنها فراهم کرد. تا داده های آنها حذف شود.
همچنین به رگولاتور گفته است که در حال حاضر نمیتواند نقص چتباتهایی را که اطلاعات نادرست درباره افراد نامگذاری شده را درست میکنند، برطرف کند. از این رو، «مکانیسمهایی را معرفی میکند که افراد دادهها را قادر میسازد تا اطلاعاتی را که نادرست تلقی میشوند پاک کنند».
کاربران اروپایی که مایل به انصراف از پردازش داده های شخصی خود برای آموزش هوش مصنوعی هستند نیز می توانند این کار را از طریق فرمی که OpenAI در دسترس قرار داده است انجام دهند که DPA می گوید “بنابراین چت ها و تاریخچه چت آنها را از داده های مورد استفاده برای آموزش فیلتر می کند. الگوریتم ها».
بنابراین مداخله DPA ایتالیا منجر به تغییرات قابل توجهی در سطح کنترلی که ChatGPT به اروپایی ها ارائه می دهد، شده است.
با این حال، هنوز مشخص نیست که آیا ترفندهایی که OpenAI برای پیادهسازی عجله کرده است (یا میتواند) به اندازهای پیش برود تا همه نگرانیهای GDPR را برطرف کند.
برای مثال، مشخص نیست که آیا دادههای شخصی ایتالیاییها که برای آموزش مدل GPT آن بهطور تاریخی استفاده میشد، یعنی زمانی که دادههای عمومی را از اینترنت حذف میکرد، با یک مبنای قانونی معتبر پردازش شده است یا در واقع، آیا دادههای مورد استفاده برای آموزش مدلها قبلاً حذف خواهد شد یا می توان در صورتی که کاربران درخواست کنند داده های خود اکنون حذف شوند.
سوال بزرگ این است که OpenAI در وهله اول چه مبنای قانونی داشت تا اطلاعات افراد را پردازش کند، در زمانی که این شرکت در مورد دادههایی که استفاده میکرد چندان شفاف نبود.
به نظر میرسد که شرکت آمریکایی امیدوار است با ارائه کنترلهای محدودی که اکنون بر روی دادههای شخصی جدید اعمال میشود، مخالفتهای مطرحشده در مورد آنچه را که درباره اطلاعات اروپاییها انجام میدهد، رفع کند، به این امید که این موضوع کل اطلاعات شخصی منطقهای را مبهم کند. پردازش آن به صورت تاریخی انجام شده است.
یکی از سخنگویان OpenAI در پاسخ به سوالی درباره تغییرات اعمال شده، این بیانیه خلاصه را به TechCrunch ایمیل کرد:
ChatGPT دوباره برای کاربران ما در ایتالیا در دسترس است. ما از بازگشت آنها خوشحالیم و به حفظ حریم خصوصی آنها متعهد هستیم. ما موضوعات مطرح شده توسط Garante را مورد توجه قرار داده یا شفاف سازی کرده ایم، از جمله:
ما از Garante به دلیل مشارکتی بودن قدردانی می کنیم و مشتاقانه منتظر بحث های سازنده مداوم هستیم.
در مقاله مرکز راهنمایی OpenAI اذعان میکند که دادههای شخصی را برای آموزش ChatGPT پردازش کرده است، در حالی که تلاش میکند ادعا کند که واقعاً قصد انجام این کار را نداشته است، اما چیزها فقط در اینترنت وجود داشته است – یا به قول خودش:حجم زیادی از داده ها در اینترنت به افراد مربوط می شود، بنابراین اطلاعات آموزشی ما اتفاقاً شامل اطلاعات شخصی نیز می شود. ما به طور فعال به دنبال اطلاعات شخصی برای آموزش مدل های خود نیستیم.
به نظر می رسد تلاش خوبی برای طفره رفتن از الزامات GDPR مبنی بر داشتن مبنای قانونی معتبر برای پردازش این داده های شخصی که اتفاقاً پیدا شده است.
OpenAI در بخش (به طور مثبت) با عنوان “چگونه توسعه ChatGPT با قوانین حفظ حریم خصوصی مطابقت دارد؟” دفاع خود را بیشتر گسترش می دهد. – که در آن نشان می دهد از داده های افراد به طور قانونی استفاده کرده است زیرا الف) قصد داشته است ربات چت خود مفید باشد. ب) چاره ای نداشت زیرا برای ساخت فناوری هوش مصنوعی به داده های زیادی نیاز بود. و ج) ادعا می کند که به معنای تأثیر منفی بر افراد نبوده است.
همچنین می نویسد: «به این دلایل، ما جمع آوری و استفاده از اطلاعات شخصی خود را که در اطلاعات آموزشی گنجانده شده است، بر اساس منافع مشروع طبق قوانین حفظ حریم خصوصی مانند GDPR قرار می دهیم. ارزیابی تأثیر حفاظت از دادهها برای کمک به اطمینان از جمعآوری و استفاده از این اطلاعات بهطور قانونی و مسئولانه.»
بنابراین، مجدداً، دفاع OpenAI از اتهام نقض قانون حفاظت از دادهها اساساً به این خلاصه میشود: “اما منظور ما افسر بدی نبود!”
توضیحدهنده آن همچنین برای تأکید بر این ادعا که از این دادهها برای ساختن نمایههایی درباره افراد استفاده نمیکند، متنی پررنگ ارائه میکند. با آنها تماس بگیرید یا برای آنها تبلیغ کنید. یا سعی کنید هر چیزی را به آنها بفروشید. هیچ کدام به این سوال که آیا فعالیت های پردازش داده آن GDPR را نقض کرده است یا خیر مرتبط نیست.
DPA ایتالیا به ما تأیید کرد که تحقیقاتش در مورد آن موضوع برجسته ادامه دارد.
Garante همچنین در بهروزرسانی خود خاطرنشان میکند که انتظار دارد OpenAI با درخواستهای اضافی که در دستور ۱۱ آوریل خود تعیین شده است، مطابقت داشته باشد – الزامی برای پیادهسازی سیستم تأیید سن (برای جلوگیری قویتر از دسترسی خردسالان به این سرویس) و برای اطلاع رسانی به ایتالیایی ها از نحوه پردازش داده های آنها و حق آنها برای انصراف از پردازش داده های شخصی خود برای آموزش الگوریتم های آن، یک کمپین اطلاعاتی محلی انجام دهد.
«SA ایتالیا [supervisory authority] گامهای رو به جلو توسط OpenAI برای تطبیق پیشرفتهای فناوری با احترام به حقوق افراد را تصدیق میکند و امیدوار است که این شرکت به تلاشهای خود برای پیروی از قوانین حفاظت از دادههای اروپا ادامه دهد.” در این رقص تنظیمی
بنابراین، همه ادعاهای مختلف OpenAI مبنی بر 100% درست بودن، باید به طور قوی مورد آزمایش قرار گیرند.