یک ماه پس از اینکه اطلاعات داخلی و حساس سامسونگ به طور تصادفی به ChatGPT درز کرد، سامسونگ استفاده از سرویس هوش مصنوعی مولد را سرکوب کرد. این غول الکترونیکی در حال برنامهریزی موقتی برای استفاده از ابزارهای مولد هوش مصنوعی در دستگاههای متعلق به شرکت است که شامل رایانهها، تبلتها، تلفنها و همچنین دستگاههای غیرشرکتی است که در شبکههای داخلی کار میکنند. این ممنوعیت نه تنها ChatGPT، بلکه خدماتی را که از فناوری مانند Bing مایکروسافت استفاده میکنند و همچنین سرویسهای رقیب هوش مصنوعی مانند Bard از Google را شامل میشود.
ممنوعیت قریب الوقوع در ابتدا توسط بلومبرگ گزارش شد. این قانون فقط در مورد مشکلات دستگاههای سامسونگ برای کارکنانش اعمال میشود – به این معنی که مصرفکنندگان و سایر افرادی که دارای تلفن، لپتاپ و سایر دستگاههای متصل سامسونگ هستند تحت تأثیر قرار نخواهند گرفت. مشخص نیست که آیا از قبل مؤثر است یا نه چه زمانی اعمال می شود.
سامسونگ بلافاصله به درخواست برای اظهار نظر پاسخ نداد.
طبق یادداشتی از دوشنبه که توسط بلومبرگ مشاهده شد، این محدودیت موقتی خواهد بود و تا زمانی که «اقدامات امنیتی برای ایجاد محیطی امن برای استفاده ایمن از هوش مصنوعی مولد برای افزایش بهرهوری و کارایی کارکنان» ایجاد کند، ادامه خواهد داشت. بر اساس این گزارش، گفته میشود که این شرکت فناوری که مقر آن در کره جنوبی است در حال توسعه ابزارهای هوش مصنوعی داخلی خود برای «توسعه و ترجمه نرمافزار» است.
ربات چت هوش مصنوعی مولد ChatGPT از زمان راه اندازی در نوامبر گذشته محبوبیت زیادی در سراسر جهان به دست آورده است و مردم به آن تکیه می کنند تا به همه چیز، از تحقیقات اولیه گرفته تا کارهای مرتبط با تجارت و موارد دیگر، به آنها پاسخ های متنی بدهند. اما بخشی از این رونق در زمینه هوش مصنوعی با موانع قابل توجهی روبرو شده است. علاوه بر نشت دادههای اختصاصی به این سرویس، همانطور که در ماه گذشته در مورد سامسونگ انجام شد، دیگران نقض احتمالی حریم خصوصی دادهها، نقض حق نسخهبرداری و عدم دقت در پاسخهای ChatGPT را علامتگذاری کردهاند.
این غول فناوری ابتدا به کارمندان بخش راه حل های دستگاه خود (DS) که مشاغل نیمه هادی و نمایشگر آن را مدیریت می کند، اجازه داد از 11 مارس از هوش مصنوعی مولد استفاده کنند. پس از نشت داده ها، سامسونگ همچنین از کارکنانی که از ابزارهای هوش مصنوعی مولد در جاهای دیگر استفاده می کنند، درخواست کرد: برای ارسال هرگونه اطلاعات مرتبط با شرکت یا داده های شخصی، که می تواند مالکیت معنوی آن را افشا کند، در یادداشت بررسی شده توسط بلومبرگ.
یکی از مسائلی که سامسونگ به آن اشاره کرد این است که “بازیابی و حذف” داده ها در سرورهای خارجی دشوار است و داده های منتقل شده به چنین ابزارهای هوش مصنوعی می تواند برای سایر کاربران فاش شود. بر اساس نظرسنجی داخلی سامسونگ در ماه آوریل، حدود 65 درصد از شرکت کنندگان گفتند که استفاده از ابزارهای مولد هوش مصنوعی خطر امنیتی دارد.
OpenAI برای رفع برخی از مسائل بحث برانگیزتر تلاش کرده است تا برخی از ممنوعیت های پرمخاطب را حذف کند. اخیراً، خدمات ChatGPT در ایتالیا پس از رونمایی OpenAI از طرحی برای معرفی کنترلهای حریم خصوصی جدید، از سر گرفته شد. بانک های بزرگ، از جمله بانک آمریکا، سیتی، دویچه بانک، گلدمن ساکس، ولز فارگو و جی پی مورگان، از جمله دیگر مشاغلی هستند که اخیراً استفاده کارمندان از ChatGPT را محدود کرده اند.
در کره جنوبی، دیگر شرکتهای فناوری بزرگ، از جمله الجی و سازنده تراشههای حافظه SK Hynix، در تلاش هستند تا دستورالعملهای خود را برای استفاده از ابزارهای مولد هوش مصنوعی ارائه دهند.