سامسونگ استفاده از ابزارهای مولد هوش مصنوعی مانند ChatGPT را پس از افشای اطلاعات داخلی ماه آوریل ممنوع کرد

یک ماه پس از اینکه اطلاعات داخلی و حساس سامسونگ به طور تصادفی به ChatGPT درز کرد، سامسونگ استفاده از سرویس هوش مصنوعی مولد را سرکوب کرد. این غول الکترونیکی در حال برنامه‌ریزی موقتی برای استفاده از ابزارهای مولد هوش مصنوعی در دستگاه‌های متعلق به شرکت است که شامل رایانه‌ها، تبلت‌ها، تلفن‌ها و همچنین دستگاه‌های غیرشرکتی است که در شبکه‌های داخلی کار می‌کنند. این ممنوعیت نه تنها ChatGPT، بلکه خدماتی را که از فناوری مانند Bing مایکروسافت استفاده می‌کنند و همچنین سرویس‌های رقیب هوش مصنوعی مانند Bard از Google را شامل می‌شود.

ممنوعیت قریب الوقوع در ابتدا توسط بلومبرگ گزارش شد. این قانون فقط در مورد مشکلات دستگاه‌های سامسونگ برای کارکنانش اعمال می‌شود – به این معنی که مصرف‌کنندگان و سایر افرادی که دارای تلفن، لپ‌تاپ و سایر دستگاه‌های متصل سامسونگ هستند تحت تأثیر قرار نخواهند گرفت. مشخص نیست که آیا از قبل مؤثر است یا نه چه زمانی اعمال می شود.

سامسونگ بلافاصله به درخواست برای اظهار نظر پاسخ نداد.

طبق یادداشتی از دوشنبه که توسط بلومبرگ مشاهده شد، این محدودیت موقتی خواهد بود و تا زمانی که «اقدامات امنیتی برای ایجاد محیطی امن برای استفاده ایمن از هوش مصنوعی مولد برای افزایش بهره‌وری و کارایی کارکنان» ایجاد کند، ادامه خواهد داشت. بر اساس این گزارش، گفته می‌شود که این شرکت فناوری که مقر آن در کره جنوبی است در حال توسعه ابزارهای هوش مصنوعی داخلی خود برای «توسعه و ترجمه نرم‌افزار» است.

ربات چت هوش مصنوعی مولد ChatGPT از زمان راه اندازی در نوامبر گذشته محبوبیت زیادی در سراسر جهان به دست آورده است و مردم به آن تکیه می کنند تا به همه چیز، از تحقیقات اولیه گرفته تا کارهای مرتبط با تجارت و موارد دیگر، به آنها پاسخ های متنی بدهند. اما بخشی از این رونق در زمینه هوش مصنوعی با موانع قابل توجهی روبرو شده است. علاوه بر نشت داده‌های اختصاصی به این سرویس، همانطور که در ماه گذشته در مورد سامسونگ انجام شد، دیگران نقض احتمالی حریم خصوصی داده‌ها، نقض حق نسخه‌برداری و عدم دقت در پاسخ‌های ChatGPT را علامت‌گذاری کرده‌اند.

این غول فناوری ابتدا به کارمندان بخش راه حل های دستگاه خود (DS) که مشاغل نیمه هادی و نمایشگر آن را مدیریت می کند، اجازه داد از 11 مارس از هوش مصنوعی مولد استفاده کنند. پس از نشت داده ها، سامسونگ همچنین از کارکنانی که از ابزارهای هوش مصنوعی مولد در جاهای دیگر استفاده می کنند، درخواست کرد: برای ارسال هرگونه اطلاعات مرتبط با شرکت یا داده های شخصی، که می تواند مالکیت معنوی آن را افشا کند، در یادداشت بررسی شده توسط بلومبرگ.

یکی از مسائلی که سامسونگ به آن اشاره کرد این است که “بازیابی و حذف” داده ها در سرورهای خارجی دشوار است و داده های منتقل شده به چنین ابزارهای هوش مصنوعی می تواند برای سایر کاربران فاش شود. بر اساس نظرسنجی داخلی سامسونگ در ماه آوریل، حدود 65 درصد از شرکت کنندگان گفتند که استفاده از ابزارهای مولد هوش مصنوعی خطر امنیتی دارد.

OpenAI برای رفع برخی از مسائل بحث برانگیزتر تلاش کرده است تا برخی از ممنوعیت های پرمخاطب را حذف کند. اخیراً، خدمات ChatGPT در ایتالیا پس از رونمایی OpenAI از طرحی برای معرفی کنترل‌های حریم خصوصی جدید، از سر گرفته شد. بانک های بزرگ، از جمله بانک آمریکا، سیتی، دویچه بانک، گلدمن ساکس، ولز فارگو و جی پی مورگان، از جمله دیگر مشاغلی هستند که اخیراً استفاده کارمندان از ChatGPT را محدود کرده اند.

در کره جنوبی، دیگر شرکت‌های فناوری بزرگ، از جمله ال‌جی و سازنده تراشه‌های حافظه SK Hynix، در تلاش هستند تا دستورالعمل‌های خود را برای استفاده از ابزارهای مولد هوش مصنوعی ارائه دهند.