ایتالیا فهرست اولیه کارهای OpenAI را برای لغو دستور تعلیق ChatGPT ارائه می دهد

ناظر حفاظت از داده های ایتالیا مشخص کرده است که OpenAI باید چه کاری انجام دهد تا دستوری علیه ChatGPT که در پایان ماه گذشته صادر شده بود لغو کند – زمانی که اعلام کرد مشکوک است. سرویس چت بات هوش مصنوعی مقررات عمومی حفاظت از داده های اتحادیه اروپا (GDPR) را نقض می کند و به شرکت مستقر در ایالات متحده دستور داده است که پردازش داده های افراد محلی را متوقف کند.

GDPR اتحادیه اروپا هر زمان که داده‌های شخصی پردازش می‌شود اعمال می‌شود و بدون شک مدل‌های زبانی بزرگ مانند GPT OpenAI مقدار زیادی از موارد را از اینترنت عمومی جمع‌آوری کرده‌اند تا مدل‌های هوش مصنوعی تولیدی خود را آموزش دهند تا بتوانند به شکلی شبیه انسان پاسخ دهند. راه به درخواست های زبان طبیعی

OpenAI به دستور مقام حفاظت از اطلاعات ایتالیا به سرعت پاسخ داد geoblocking دسترسی به ChatGPT. در یک بیانیه عمومی کوتاه، مدیر عامل شرکت سام آلتمن نیز توییت کرد تاییدیه که ارائه خدمات در ایتالیا را متوقف کرده است – این کار را در کنار اخطار معمول صفحه دیگ بخار فناوری بزرگ انجام می دهد که “فکر می کند[s] ما از تمام قوانین حفظ حریم خصوصی پیروی می کنیم.

ایتالیا تضمین می کند ظاهراً دیدگاه دیگری دارد.

نسخه کوتاه درخواست انطباق جدید رگولاتور این است: OpenAI باید شفاف شود و یک اطلاعیه اطلاعاتی با جزئیات پردازش داده‌های خود منتشر کند. باید فوراً برای جلوگیری از دسترسی افراد زیر سن قانونی به فناوری و حرکت به سمت اقدامات قوی تر تأیید سن استفاده کند. باید مبنای حقوقی مورد ادعای خود برای پردازش داده های افراد برای آموزش هوش مصنوعی خود را روشن کند (و نمی تواند بر اجرای یک قرارداد تکیه کند – به این معنی که باید بین رضایت یا منافع مشروع یکی را انتخاب کند). همچنین باید راه هایی را برای کاربران (و غیرکاربران) فراهم کند تا از حقوق خود بر روی داده های شخصی خود استفاده کنند، از جمله درخواست اصلاح اطلاعات نادرست ایجاد شده در مورد آنها توسط ChatGPT (یا در غیر این صورت داده های آنها حذف شود). همچنین باید به کاربران امکان اعتراض به پردازش OpenAI از داده های آنها را برای آموزش الگوریتم های آن ارائه دهد. و باید یک کمپین آگاهی محلی انجام دهد تا به ایتالیایی ها اطلاع دهد که اطلاعات آنها را برای آموزش هوش مصنوعی خود پردازش می کند.

DPA به OpenAI مهلت داده است – تا 30 آوریل – تا بیشتر این کار را انجام دهد. (کمپین اطلاع رسانی رادیویی، تلویزیونی و اینترنتی محلی، جدول زمانی سخاوتمندانه تری دارد، یعنی از 15 می، که باید عملی شود.)

همچنین کمی زمان بیشتری برای نیاز اضافه وجود دارد تا از فناوری ایمنی کودک در محدوده سنی فوری (اما ضعیف) به یک سیستم تأیید سن که دور زدن آن سخت‌تر است، مهاجرت کند. OpenAI تا 31 می فرصت داده شده است ارائه طرحی برای اجرای فناوری تأیید سن برای فیلتر کردن کاربران زیر 13 سال (و کاربران 13 تا 18 ساله که رضایت والدین دریافت نشده است) – با مهلت اجرای این سیستم قوی تر در 30 سپتامبر.

در یک بیانیه مطبوعاتی که جزئیات آنچه OpenAI باید انجام دهد تا بتواند محدودیت موقت را بردارد، دو هفته پیش اعمال شد، زمانی که آن را نیز اعلام کرد که تحقیقات رسمی در مورد نقض مشکوک GDPR ChatGPT را آغاز می کند، DPA می نویسد:

OpenAI باید تا 30 آوریل با اقدامات تعیین شده توسط ایتالیایی SA مطابقت داشته باشد [supervisory authority] در مورد شفافیت، حق موضوع داده ها – از جمله کاربران و غیر کاربران – و مبنای قانونی پردازش برای آموزش الگوریتمی با تکیه بر داده های کاربران. فقط در این صورت، SA ایتالیا سفارش خود را که محدودیت موقتی در پردازش داده‌های کاربران ایتالیایی ایجاد می‌کرد، لغو می‌کند، و دیگر نیازی به سفارش نیست، بنابراین ChatGPT یک بار دیگر از ایتالیا در دسترس خواهد بود.

با پرداختن به جزئیات بیشتر در مورد هر یک از “اقدامات مشخص” مورد نیاز، DPA تصریح می کند که اطلاعیه اطلاعاتی اجباری باید “ترتیب ها و منطق پردازش داده های مورد نیاز برای عملیات ChatGPT همراه با حقوقی را که برای افراد موضوع داده (کاربران و غیر کاربر)»، و افزود که «باید به راحتی در دسترس باشد و به گونه ای قرار گیرد که قبل از ثبت نام در سرویس خوانده شود».

کاربران ایتالیایی باید قبل از ثبت نام با این اخطار ارائه شوند و همچنین تأیید کنند که بالای 18 سال دارند. در حالی که کاربرانی که قبل از دستور توقف پردازش داده DPA ثبت نام کرده اند، باید هنگام دسترسی به سرویس فعال شده مجدداً این اخطار نشان داده شود و همچنین باید از یک دروازه سنی عبور داده شود تا کاربران زیر سن قانونی را فیلتر کنند.

در مورد مبنای قانونی مرتبط با پردازش OpenAI از داده های افراد برای آموزش الگوریتم های آن، تضمین می کند گزینه های موجود را به دو تقلیل داده است: رضایت یا منافع مشروع – تصریح می کند که باید فوراً تمام ارجاعات مربوط به اجرای یک قرارداد را حذف کند. [GDPR’s] اصل پاسخگویی». (سیاست حفظ حریم خصوصی OpenAI در حال حاضر هر سه دلیل را ذکر می کند، اما به نظر می رسد که بیشترین تکیه بر اجرای یک قرارداد برای ارائه خدماتی مانند ChatGPT دارد.)

این سازمان می افزاید: «این بدون لطمه ای به اعمال تحقیقات و اختیارات اجرایی SA در این زمینه خواهد بود.

علاوه بر این، GDPR مجموعه‌ای از حقوق دسترسی، از جمله حق تصحیح یا حذف داده‌های شخصی‌شان را به افراد داده ارائه می‌کند. به همین دلیل است که رگولاتور ایتالیایی همچنین از OpenAI خواسته است که ابزارهایی را پیاده‌سازی کند تا سوژه‌های داده – که به معنای کاربران و غیرکاربران است – بتوانند از حقوق خود استفاده کنند و کاذب‌هایی را که ربات چت درباره آنها ایجاد می‌کند اصلاح کنند. یا اگر تصحیح دروغ‌های تولید شده توسط هوش مصنوعی در مورد افراد نام‌گذاری شده «از نظر فنی غیرممکن» تشخیص داده شود، DPA تصریح می‌کند که شرکت باید راهی برای حذف داده‌های شخصی آنها فراهم کند.

«OpenAI باید ابزارهایی را در دسترس قرار دهد که به راحتی قابل دسترسی هستند تا به غیرکاربران اجازه دهد از حق خود برای اعتراض به پردازش داده‌های شخصی خود که برای عملکرد الگوریتم‌ها به آن اعتماد دارند، استفاده کنند. در صورتی که منافع مشروع به عنوان مبنای قانونی برای پردازش داده های آنها انتخاب شود، باید همان حق را به کاربران اعطا کرد. برای پردازش

همه اقداماتی که اعلام کرده است، بر اساس نگرانی های اولیه آن، احتمالی هستند. و بیانیه مطبوعاتی آن خاطرنشان می کند که تحقیقات رسمی – “برای اثبات نقض احتمالی قوانین” – ادامه دارد و می تواند منجر به تصمیم گیری آن شود که “در صورت نیاز به انجام اقدامات حقیقت یاب در حال انجام، اقدامات اضافی یا متفاوتی انجام دهد”.

ما برای پاسخ به آن با OpenAI تماس گرفتیم تضمین می کنداقدامات انجام شده را انجام داد، اما شرکت در زمان انتشار به ایمیل ما پاسخ نداده بود.