【ITBEAR科技資訊】5月4日消息,隨著生成式AI的普及,這種技術(shù)的安全風(fēng)險(xiǎn)和隱私問題也逐漸浮出水面。近日,三星電子發(fā)布了一項(xiàng)新規(guī),禁止員工使用流行的生成式AI工具,如ChatGPT、Google Bard和Bing等。
據(jù)ITBEAR科技資訊了解,三星電子此舉是為了避免員工使用這些工具導(dǎo)致公司數(shù)據(jù)外泄和安全風(fēng)險(xiǎn)。此前三星電子引入聊天型機(jī)器人ChatGPT后不到20天時(shí)間,就曝出有機(jī)密數(shù)據(jù)外泄,甚至有員工將代碼上傳。內(nèi)部調(diào)查顯示,有65%的受訪者認(rèn)為使用AI工具存在安全風(fēng)險(xiǎn)。
因此,三星電子的新規(guī)禁止在公司所屬的電腦、平板電腦、電話及內(nèi)部網(wǎng)絡(luò)使用生成式AI系統(tǒng)。但不影響出售給消費(fèi)者的設(shè)備,由用戶自行決定。三星電子已通知公司最大的部門,并敦促他們遵守這項(xiàng)規(guī)定,避免安全事故的發(fā)生。
值得注意的是,三星電子并非唯一一家對(duì)生成式AI技術(shù)的安全性存疑的公司。摩根大通、美國銀行和花旗等華爾街大行已經(jīng)限制或禁止使用ChatGPT等生成式AI工具。盡管這些工具具有智能的表現(xiàn)力,但它們背后的算法和模型復(fù)雜,難以完全解釋,因此難以控制其輸出內(nèi)容的準(zhǔn)確性和安全性。