IT之家5月2日消息,據(jù)彭博社周一報道,三星已在內部備忘錄告知員工,停止使用ChatGPT和Bard等生成式AI工具,理由是擔心會帶來安全風險。
此舉是在上個月發(fā)生代碼泄露事件后的“亡羊補牢”舉措,此前消息稱,三星電子引入聊天機器人ChatGPT不到20天就發(fā)生了3起涉及ChatGPT的事故,其中2起與半導體設備有關,1起與會議內容有關。
報道稱,內部備忘錄表示,三星擔心傳輸?shù)焦雀鐱ard和微軟Bing等人工智能平臺的數(shù)據(jù)存儲在外部服務器上,難以檢索和刪除,最終可能會泄露給其他用戶。
內部備忘錄還顯示,三星上個月進行了一項關于內部使用AI工具的調查,其中65%的受訪者認為此類服務存在安全風險。備忘錄透露,今年4月初,三星工程師將內部源代碼上傳到了ChatGPT,目前還不清楚這些信息包含什么。
與此同時,三星正在開發(fā)自己的內部AI工具,用于翻譯和總結文件以及軟件開發(fā),還在研究阻止敏感公司信息上傳到外部服務的方法。“總部正在審查安全措施,以創(chuàng)造一個安全的環(huán)境,以安全地使用生成式AI來提高員工的生產(chǎn)力和效率。但是,在準備好這些措施之前,我們暫時限制生成式AI的使用。”
三星的新政策禁止在公司自有的電腦、平板電腦和手機以及內部網(wǎng)絡上使用生成式AI系統(tǒng),不會影響銷售給消費者的設備,例如Android智能手機和Windows筆記本電腦。三星甚至在消費者設備中積極推廣生成式AI,據(jù)IT之家此前報道,三星近日向旗下所有的手機以及平板電腦產(chǎn)品推送了微軟Bing AI更新,在這一更新完成后,三星用戶可直接通過手機或者平板使用微軟Bing AI。
三星代表向彭博社證實這一份內部備忘錄。三星在備忘錄中表示:“我們要求您認真遵守我們的安全指南,否則可能會導致公司信息泄露,違者進行紀律處分,甚至包括解雇。”