ITBear旗下自媒體矩陣:

ChatGPT與谷歌Bard:人工智能工具面臨信息泄密挑戰(zhàn)

   時(shí)間:2023-06-16 11:16:41 來(lái)源:ITBEAR編輯:星輝 發(fā)表評(píng)論無(wú)障礙通道

【ITBEAR科技資訊】6月16日消息,在OpenAI研發(fā)的人工智能聊天機(jī)器人ChatGPT引起轟動(dòng)之后,眾多公司紛紛開發(fā)類似的產(chǎn)品,并將ChatGPT等人工智能工具應(yīng)用于他們的服務(wù)和工作中。

ChatGPT等人工智能工具不僅為相關(guān)服務(wù)或產(chǎn)品帶來(lái)全新功能,也為工作帶來(lái)便利。然而,泄密問題也成為他們不得不重視的挑戰(zhàn)。三星電子半導(dǎo)體業(yè)務(wù)部門的員工在使用ChatGPT時(shí)不慎導(dǎo)致部分源代碼泄露,隨后三星便禁止員工在工作場(chǎng)所使用ChatGPT等生成式人工智能聊天工具。

根據(jù)外媒報(bào)道,谷歌Bard作為ChatGPT的競(jìng)品,也面臨著類似的泄密風(fēng)險(xiǎn)。消息人士透露,谷歌母公司Alphabet已告知員工不要將機(jī)密信息輸入人工智能聊天機(jī)器人,并警示員工關(guān)于使用包括Bard在內(nèi)的人工智能工具的風(fēng)險(xiǎn)。

據(jù)ITBEAR科技資訊了解,除了不要將機(jī)密信息輸入人工智能聊天機(jī)器人外,Alphabet還建議工程師不要直接使用人工智能聊天機(jī)器人生成的代碼。據(jù)報(bào)道,谷歌似乎早在Bard人工智能聊天機(jī)器人進(jìn)行內(nèi)部測(cè)試時(shí)就對(duì)信息泄密表達(dá)了擔(dān)憂。在今年2月份,谷歌已告知參與測(cè)試的員工在正式發(fā)布之前不要輸入內(nèi)部信息。

Bard作為谷歌全力推出的競(jìng)品,對(duì)于谷歌多項(xiàng)業(yè)務(wù)的未來(lái)發(fā)展至關(guān)重要。目前,Bard正在全球超過180個(gè)國(guó)家以40種語(yǔ)言進(jìn)行推廣。

隨著ChatGPT、谷歌Bard等人工智能工具的不斷增強(qiáng),使用這些工具的人群也在迅速增長(zhǎng),許多公司員工在工作中使用這些工具。然而,這也增加了公司信息泄露的風(fēng)險(xiǎn)。據(jù)一項(xiàng)調(diào)查顯示,約43%的專業(yè)人士在使用ChatGPT或其他人工智能工具時(shí)通常不會(huì)告知他們的老板。

盡管人工智能聊天機(jī)器人為業(yè)務(wù)和工作帶來(lái)了便利和創(chuàng)新,但泄密問題仍然需要引起重視。公司和員工應(yīng)當(dāng)加強(qiáng)信息保護(hù)意識(shí),并遵循相關(guān)指導(dǎo),以確保敏感數(shù)據(jù)的安全性和保密性。

舉報(bào) 0 收藏 0 打賞 0評(píng)論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁(yè)  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  網(wǎng)站留言  |  RSS訂閱  |  違規(guī)舉報(bào)  |  開放轉(zhuǎn)載  |  滾動(dòng)資訊  |  English Version