ITBear旗下自媒體矩陣:

OpenAI發(fā)出警告:未來人工智能或?qū)е氯祟悳缃^

   時間:2023-07-06 14:04:46 來源:ITBEAR編輯:星輝 發(fā)表評論無障礙通道

【ITBEAR科技資訊】07月06日消息,OpenAI公司最近發(fā)出警告,稱未來的人工智能可能對人類構(gòu)成威脅,甚至導(dǎo)致人類滅絕。OpenAI聯(lián)合創(chuàng)始人伊利亞·蘇斯克維爾和對齊團隊負責(zé)人簡·萊克在一篇博客文章中指出,超級智能的強大力量可能會使人類失去控制權(quán),他們還沒有找到解決方案來操縱或控制這種潛在的超智能人工智能,以防止其失控。

據(jù)ITBEAR科技資訊了解,OpenAI公司認為,超智能人工智能可能在接下來的十年內(nèi)問世。然而,目前人類還沒有足夠先進的技術(shù)來控制超級智能,因此他們迫切需要在對齊研究方面取得突破。所謂的對齊研究旨在確保人工智能對人類是有益的。

為了解決這個問題,OpenAI計劃投入大量資源成立一個名為超級對齊團隊的研究團隊,以確保他們的人工智能系統(tǒng)對人類是安全的,并且最終實現(xiàn)人工智能對自身的監(jiān)督。OpenAI計劃通過利用人類的反饋來訓(xùn)練AI系統(tǒng),輔助人類評估,最終實現(xiàn)實際的對齊研究。

然而,對于這一計劃,也有人提出了反對意見。人工智能安全倡導(dǎo)者康納·萊希指出,在構(gòu)建具有人類水平智能之前,必須先解決對齊問題,否則無法控制超級智能。他認為OpenAI的計劃并不是一個特別好的或安全的方案。

盡管人工智能技術(shù)的發(fā)展帶來了許多創(chuàng)新和便利,但OpenAI的警告提醒我們,應(yīng)該謹慎對待超級智能的發(fā)展,并重視對齊研究的重要性,以確保人工智能對人類的未來發(fā)展是有益的,同時也能保障人類的安全和權(quán)益。這需要全球范圍內(nèi)的共同努力和合作,以確保人工智能技術(shù)的良性發(fā)展。

舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  網(wǎng)站留言  |  RSS訂閱  |  違規(guī)舉報  |  開放轉(zhuǎn)載  |  滾動資訊  |  English Version