ITBear旗下自媒體矩陣:

Bard產(chǎn)品經(jīng)理質(zhì)疑大型語言模型的可信度

   時間:2023-10-12 12:15:37 來源:ITBEAR編輯:茹茹 發(fā)表評論無障礙通道

【ITBEAR科技資訊】10月12日消息,根據(jù)彭博社的最新報道,谷歌和 Discord 最近聯(lián)合邀請了他們自家的 AI 聊天機器人 Bard 的熱情用戶,創(chuàng)建了一個專屬聊天室,用以探討B(tài)ard的效用和實際應(yīng)用。在這個聊天室里,Bard的產(chǎn)品經(jīng)理、設(shè)計師和工程師們就AI的效用和應(yīng)用領(lǐng)域展開深入討論,然而,也出現(xiàn)了一些對Bard的質(zhì)疑聲音。

兩位參與Bard社區(qū)的Discord用戶向彭博社透露了7月至10月期間在聊天室內(nèi)的討論細節(jié)。Bard的高級產(chǎn)品經(jīng)理Dominik Rabiej在討論中表示,他個人“不信任”大型語言模型生成的回答,建議人們僅在“創(chuàng)意”和“頭腦風(fēng)暴”等領(lǐng)域使用Bard。Rabiej還認(rèn)為將Bard用于編程也是一個不錯的選擇,因為人們在編寫代碼時需要不斷驗證其有效性。

此外,Rabiej特別強調(diào)了Bard新增的“仔細檢查回復(fù)”按鈕的重要性,該功能用橙色標(biāo)注可能不正確的內(nèi)容,再次強調(diào)Bard并不真正理解獲取的文本,只是根據(jù)用戶的提示生成回應(yīng)?!罢堄涀?,Bard和其他大型模型一樣,它是生成性的,不是用于查找信息或總結(jié),而是生成文本。”

在7月份的一次聊天中,這位產(chǎn)品經(jīng)理明言,除非用戶自己能夠獨立驗證,否則不應(yīng)全盤信任大型語言模型的輸出結(jié)果。他表示:“我們也希望Bard能夠達到您們的期望,但它目前還沒有達到?!?/p>

另一位產(chǎn)品經(jīng)理Warkentin也在討論中強調(diào)了人性化改進的重要性,認(rèn)為只有這樣,Bard才能成為適合所有人的產(chǎn)品。他指出:“否則,用戶將無法評估產(chǎn)品的功能,我認(rèn)為這將是一個巨大的錯誤?!薄拔覀冃枰氖敲嫦虼蟊姷漠a(chǎn)品,而不是象牙塔里的產(chǎn)品!”

今年7月,谷歌在擴大Bard AI工具的部署時,引入了“分享對話鏈接”的功能,用戶可以將與Bard的對話導(dǎo)出為網(wǎng)頁鏈接形式,與他人分享并繼續(xù)與Bard對話。然而,一名分析顧問Gagan Ghotra在發(fā)現(xiàn)了一個問題,谷歌錯誤地將部分用戶分享的鏈接添加到搜索結(jié)果中,導(dǎo)致敏感信息外泄。

Gagan Ghotra提醒用戶,在與Bard對話時不要分享任何“私密內(nèi)容”,以免相關(guān)信息外泄。

舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  網(wǎng)站留言  |  RSS訂閱  |  違規(guī)舉報  |  開放轉(zhuǎn)載  |  滾動資訊  |  English Version