بخش نیمههادیهای سامسونگ برای کمک در رفع مشکلات در کد منبع خود از شاتجیپیتی استفاده کرد. اما هنگام استفاده از ربات چت هوش مصنوعی، به طور ناخواسته اطلاعات محرمانه از جمله کد منبع برنامه جدید و یادداشتهای داخلی درباره سخنرانیهای سختافزاری خود را فاش کردند. متأسفانه، این مورد یک بارهای گزارش نمیشود زیرا در یک ماه، سه حادثه گزارش شد.
به منظور جلوگیری از نقض های مشابه در آینده، سامسونگ در حال حاضر روی توسعه ابزار هوش مصنوعی خودش کار میکند که مشابه چتجیپیتی است و صرفاً برای استفاده داخلی کارکنان است. این امکان را فراهم میکند تا کارگران کارخانه به سرعت کمک دریافت کنند در حالی که اطلاعات حساس شرکت را امن میکند. با این حال، این ابزار جدید تنها تکالیفی را پردازش خواهد کرد که حداکثر 1024 بایت طول داشته باشد.
این مشکل به دلیل این است که چتGPT توسط یک شرکت شخص ثالث که از سرورهای خارجی استفاده میکند، مدیریت میشود. بنابراین هنگامی که سامسونگ کد خود و توالیهای آزمایشی و محتوای جلسات داخلی خود را به برنامه وارد کرد، اطلاعاتی را دستخوش نشر شد. سامسونگ به سرعت مدیران و کارکنان خود را درباره خطر افشای اطلاعات محرمانه مطلع کرد. تا تاریخ 11 مارس، سامسونگ به کارکنان خود اجازه استفاده از ربات چت را نداده بود.
سامسونگ تنها شرکتی نیست که با این مسئله مواجه است. بسیاری از شرکتها استفاده از ChatGPT را محدود کردهاند تا زمانی که یک سیاست واضح درباره استفاده از هوش مصنوعی تولیدی برقرار کنند. اگرچه ChatGPT گزینه انصراف از جمعآوری دادههای کاربر را فراهم میکند، اما ارزشمند است که توجه شود که اطلاعاتی که به سرویس ارسال میشود هنوز میتواند توسط توسعه دهنده آن دسترسی داشته باشد.
چیست ChatGPT و چطور کار می کند؟
ChatGPT یک برنامه هوش مصنوعی است که توسط OpenAI توسعه داده شده و از یادگیری عمیق برای تولید متنی شبیه به انسان استفاده می کند در پاسخ به درخواستهاي کاربران. این قادر است متن را در انواع سبک ها و به منظور اهداف متنوع ایجاد کند، از جمله نوشتن متن تبلیغاتی، پاسخ به سوالات، نوشتن ایمیل ها، برقراری گفتگوها، ترجمه زبان طبیعی به کد و توضیح کد در انواع زبان های برنامه نویسی مختلف.
نرمافزار ChatGPT به وسیله پیشبینی کلمه بعدی در متنی داده شده، با استفاده از الگوهایی که در فرآیند آموزش خود از حجم عظیمی از دادهها یاد گرفته است، عمل میکند. با تجزیه و تحلیل متنی که برای پرسش و مطالعه سوابق خود به کار میبرد، ChatGPT پاسخی تولید میکند که عمومیت و انسجام زیادی را دارد.
تدابیری که سامسونگ برای جلوگیری از نشت اطلاعات در آینده گرفته است چه اقداماتی هستند؟
پس از فاش شدن نشتی دادهها ناشی از چتجیپیتی, سامسونگ تدابیری را اتخاذ کرده است تا اینگونه وقایع بار دیگر اتفاق نیفتد. در ابتدا, این شرکت به کارمندان خود توصیه کرده است که هنگام به اشتراک گذاری داده با چتجیپیتی, احتیاط را به خرج دهند. همچنین, آنها محدودیتی در طول سوالات ارسالی به سرویس اعمال کردهاند, با محدودیت حداکثر به 1024 بایت.
علاوه بر این، سامسونگ در حال حاضر در حال توسعه یک ابزار هوش مصنوعی مشابه ChatGPT است، اما منحصراً برای استفاده داخلی کارکنان. این اطمینان می دهد که کارگران فاب دریافت کمک سریع در حالی که اطلاعات حساس شرکت برقرار است. تا توسعه این ابزار، سامسونگ به کارمندان خود درباره خطرات محتمل مرتبط با استفاده از ChatGPT هشدار می دهد. همچنین آنها بیان کرده اند که داده های وارد شده به ChatGPT در سرورهای خارجی ارسال و ذخیره می شود، که این امر باعث می شود که شرکت بعد از ارسال امکان کنترل داده ها را نداشته باشد.
عواقب برای کارمندانی که اطلاعات محرمانه را فاش کردند چیست؟
تبعات برای کارمندان شرکت سامسونگی که اطلاعات محرمانه را به چت جنرال ویت تسریب کردهاند، در اطلاعات موجود به صورت صریح ذکر نشده است. با این حال، شرکت الکترونیکی سامسونگ اقداماتی را انجام داده است تا از طریق چت جنرال ویت تسریب اطلاعات حساس را کنترل کند، این شامل تعیین محدودیتی به اندازه 1024 بایت برای اندازه سوالات ارسالی میشود. همچنین، این شرکت کارمندان خود را در مورد خطرات بالقوه استفاده از چت جنرال ویت هشدار داده است.
علاوه بر این، سامسونگ سمیکونداکتور در حال توسعه ابزار هوش مصنوعی خود برای استفاده داخلی کارکنان است که محدود به پردازش پیامها با حجم کمتر از ۱۰۲۴ بایت هستند. این اقدامات نشان میدهد که سامسونگ علاقهمند به حفاظت از اطلاعات محرمانه خود است و اقداماتی را برای کاهش خطرات مرتبط با استفاده از ChatGPT انجام میدهد.
چه نوع اطلاعات محرمانه ای فاش شده است؟
چند بار کارکنان سامسونگ اطلاعات محرمانه را به چت جیپیتی منتشر کردند؟
به گفته نتایج جستجو، کارمندان سامسونگ حداقل در سه بار اطلاعات محرمانه شرکت را به چت جیپیتی منتشر کردهاند.