עובד של Samsung משתמש ב-ChatGPT מוביל לחשיפת נתונים סודיים

עיצוב-לא-מוגדר-3 (1).png

תחום החיישנים של Samsung סמסונג הסתמך על ChatGPT לעזור בפתרון בעיות בקוד המקור שלהם. אך, בעוד השימוש ב-Robert היהרסה שלדעתם, הם חשפו מידע סודי כמו קוד מקור לתוכנית חדשה ודפי פגישות פנימיות בנושאי חומרה. לצערם, זו לא התרחשות בודדת, כיום דיווחו על שלוש אירועים במהלך חודש.

כדי למנוע הפרות דומות בעתיד, סמסונג עובדת כעת על פיתוח כלי הבינה המלאכותית שלהם, דומה ל-ChatGPT, המיועד בעיקר לשימוש פנימי של העובדים בחברה. זה יאפשר לעובדי המפעל שלהם לקבל עזרה מהירה ולשמור על מידע החברה הרגיש. אולם, כלי זה החדש יעבד רק פעם אחת במקביל עם תוכניות שבתוך 1024 בתים.

הבעיה התרחשה מכיוון ש- ChatGPT מנוהל על ידי חברה חיצונית שמשתמשת בשרתים חיצוניים. לכן, כשסמסונג הזינו את הקוד, סדרות הבדיקה ותוכן פגישות הפנימיות שלהם לתוך התוכנה, נשתף פרטי מידע. סמסונג הודיעה למינהלה ולעובדים שלה במהירות על הסיכון הקיים לחשיפת מידע סודי פגוע. עד ל- 11 במרץ, סמסונג לא נתנה לעובדיה להשתמש בצ'אטבוט.

סמסונג אינה החברה היחידה המתמודדת עם בעיה זו. הרבה חברות מגבילות את השימוש ב-ChatGPT עד שיקבעו תקנה ברורה לגבי שימוש באינטיליגנציה מלמדת יוצרת. עם זאת, באינטיליגנציה מלמדת יוצרת קיימת אופציה לבטל את איסוף נתוני המשתמש, אך כדאי לציין כי המידע שמועבר לשירות מוגיש למפתחים שלו.

מה זה צ'אטGPT וכיצד הוא פועל?

ChatGPT הוא אפליקציית AI שפותחה על ידי OpenAI ומשתמשת בלמידת עמוק כדי ליצור טקסט בעל דמות-אדם בתגובה לשאלות המשתמש. היא יכולה ליצור טקסט בסגנונות שונים ולמגזרים מגוונים, כולל כתיבת טקסטים, תשובה לשאלות, כתיבה של מיילים, יצירת שיחות, תרגום שפה טבעית לקוד, והסבר של קוד בשפות תכנות שונות.

ChatGPT מתפקד בחיזוי המילה הבאה בטקסט נתון באמצעות התבוננות בתבניות שלמד מכמות עצומה של מידע במהלך תהליך האימון שלו. על ידי ניתוח הקשר של ההסחות והלמידה הקודמות שלו, ChatGPT יוצר תגובה במטרה להיות כטבעית ומתואמת ככל האפשר.

אילו אמצעים לקיחה סמסונג כדי למנוע דליפות בעתיד?

לאחר שפרצו נתונים עקב התקרית השפיעה של ChatGPT, סמסונג אינה לקחה מספר צעדים כדי למנוע שוב אירועים דומים. בראשית, החברה ייעצה לעובדים שלה להתמנות כשהם שותפים מידע עם ChatGPT. הם יישמו גם הגבלה על אורך השאלות שנשלחות לשירות, מגבילים אותן ל 1024 בתים.

בנוסף, Samsung כרגע מפתחת כלי AI דומה ל-ChatGPT, אך באופן בלעדי לשימוש עובדים פנימי. זה יבטיח שפועלים בפאב יקבלו סיוע מהיר בזמן ששימושם במידע החשוב של החברה יישמר. עד לפיתוח הכלי הזה, Samsung הוזהרה את עובדיה מסיכונים פוטנציאליים הקשורים לשימוש ב-ChatGPT. הם גם הדגישו כי נתונים שמוזנים לתוך ChatGPT משודרים ומאוחסנים על שרתים חיצוניים, כלומר החברה אינה יכולה לשלוט בנתונים לאחר העברתם.

מה היו ההשלכות עבור העובדים שחשפו מידע סודי?

ההשלכות עבור עובדי Samsung שחשפו נתונים סודיים ל-ChatGPT לא צויינו במפורש במידע הזמין. אולם, Samsung Electronics מבצעת צעדים כדי למנוע חדירה נוספת של מידע רגיש דרך ChatGPT, כולל הטבעת מגבלת 1024 בתים על גודל השאלות שמוגשות. החברה גם הזהירה את עובדיה מפני הסיכונים האפשריים בשימוש ב-ChatGPT.

בנוסף, החברה Samsung Semiconductor מפתחת את הכלי שלה ללמידת מכונה מתקדמת לשימוש פנימי של העובדים, אשר יהיה מוגבל לעיבוד מובאות במקטעים של עד 1024 בתים. פעולות אלו מציינות כי Samsung מקפידה על אבטחת המידע הסודי שלה ומיישמת אמצעים להפחתת הסיכון הקשור לשימוש ב-ChatGPT.

איזה סוג של מידע סודי נחשף?

כמה פעמים עובדי Samsung חשפו מידע סודי ל-ChatGPT?

על פי תוצאות החיפוש, עובדי Samsung דילגו על מידע סודי של החברה ומעבירים אותו ל-ChatGPT לפחות בשלושה אירועים.

כתבות קשורות

הצג עוד >>

פתח את הכוח של AI עם HIX.AI!