ITBear旗下自媒體矩陣:

OpenAI創(chuàng)始人薩姆·奧爾特曼談LLM發(fā)展趨勢和安全問題

   時間:2023-04-16 09:54:01 來源:ITBEAR編輯:茹茹 發(fā)表評論無障礙通道

【ITBEAR科技資訊】4月16日消息,OpenAI 的聯(lián)合創(chuàng)始人兼 CEO 薩姆?奧爾特曼(Sam Altman)在麻省理工學(xué)院“想象力行動”活動上接受了采訪,談到了大語言模型(LLM)的發(fā)展趨勢和安全問題。

奧爾特曼認(rèn)為,我們正在接近 LLM 規(guī)模的極限,規(guī)模越大并不一定意味著模型越好,而可能只是為了追求一個數(shù)字而已。

據(jù)ITBEAR科技資訊了解,奧爾特曼還回應(yīng)了一封要求 OpenAI 暫停開發(fā)更強(qiáng)大 AI 六個月的公開信,他表示他同意在能力越來越強(qiáng)大的情況下,安全標(biāo)準(zhǔn)也要提高,但他認(rèn)為信件缺乏技術(shù)細(xì)節(jié)和準(zhǔn)確性。他說,OpenAI 在發(fā)布 GPT-4 之前已經(jīng)花了六個月以上的時間來研究安全問題,并邀請外部審計和“紅隊(duì)”來測試模型。"我也同意,隨著能力變得越來越強(qiáng),安全標(biāo)準(zhǔn)必須提高。但我認(rèn)為這封信缺少了關(guān)于我們需要暫停的大部分技術(shù)上的細(xì)微差別 —— 這封信的早期版本聲稱我們正在訓(xùn)練 GPT-5。我們沒有,而且在一段時間內(nèi)也不會,所以從這個意義上說,這有點(diǎn)愚蠢。但我們在 GPT-4 的基礎(chǔ)上還在做其他事情,我認(rèn)為這些事情有各種安全問題需要解決,但信中完全沒有提到。因此,我認(rèn)為謹(jǐn)慎行事,并對安全問題越來越嚴(yán)格,這一點(diǎn)非常重要。我不認(rèn)為(信中的)建議是解決這個問題的最終方法,"他說。

奧爾特說,OpenAI 已經(jīng)在這個領(lǐng)域工作了七年,付出了很多努力,而大多數(shù)人都不愿意這樣做。他說,他愿意公開討論安全問題和模型的局限性,因?yàn)檫@是正確的事情。他承認(rèn)有時候他和其他公司代表會說一些“蠢話”,結(jié)果發(fā)現(xiàn)是錯誤的,但他愿意冒這個風(fēng)險,因?yàn)樗麄兿M軌蚺c社區(qū)建立更好的合作關(guān)系,共同推動人工智能的安全發(fā)展。

奧爾特曼還指出,OpenAI 在模型訓(xùn)練中遵循了一些原則,包括限制模型的能力,避免將其應(yīng)用于惡意用途,以及促使社區(qū)參與模型的決策過程。他認(rèn)為,公眾對于AI的應(yīng)用和影響有權(quán)參與討論和決策,而不應(yīng)該由單一實(shí)體來決定。

在談到未來的發(fā)展方向時,奧爾特曼表示,OpenAI將繼續(xù)致力于提升模型的效用和能力,同時保持對安全性的高度警惕,并與社區(qū)、學(xué)術(shù)界和政府等多方合作,共同解決人工智能領(lǐng)域面臨的安全和倫理問題。

總的來說,奧爾特曼強(qiáng)調(diào)了OpenAI對于人工智能安全的重視,并表示他們將繼續(xù)努力推動技術(shù)的發(fā)展,同時積極參與社會討論和合作,確保人工智能的應(yīng)用能夠更好地造福人類。

標(biāo)簽: OpenAI
舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  網(wǎng)站留言  |  RSS訂閱  |  違規(guī)舉報  |  開放轉(zhuǎn)載  |  滾動資訊  |  English Version