【ITBEAR科技資訊】07月06日消息,OpenAI公司最近發(fā)出警告,稱未來的人工智能可能對人類構(gòu)成威脅,甚至導(dǎo)致人類滅絕。OpenAI聯(lián)合創(chuàng)始人伊利亞·蘇斯克維爾和對齊團隊負責(zé)人簡·萊克在一篇博客文章中指出,超級智能的強大力量可能會使人類失去控制權(quán),他們還沒有找到解決方案來操縱或控制這種潛在的超智能人工智能,以防止其失控。
據(jù)ITBEAR科技資訊了解,OpenAI公司認為,超智能人工智能可能在接下來的十年內(nèi)問世。然而,目前人類還沒有足夠先進的技術(shù)來控制超級智能,因此他們迫切需要在對齊研究方面取得突破。所謂的對齊研究旨在確保人工智能對人類是有益的。
為了解決這個問題,OpenAI計劃投入大量資源成立一個名為超級對齊團隊的研究團隊,以確保他們的人工智能系統(tǒng)對人類是安全的,并且最終實現(xiàn)人工智能對自身的監(jiān)督。OpenAI計劃通過利用人類的反饋來訓(xùn)練AI系統(tǒng),輔助人類評估,最終實現(xiàn)實際的對齊研究。
然而,對于這一計劃,也有人提出了反對意見。人工智能安全倡導(dǎo)者康納·萊希指出,在構(gòu)建具有人類水平智能之前,必須先解決對齊問題,否則無法控制超級智能。他認為OpenAI的計劃并不是一個特別好的或安全的方案。
盡管人工智能技術(shù)的發(fā)展帶來了許多創(chuàng)新和便利,但OpenAI的警告提醒我們,應(yīng)該謹慎對待超級智能的發(fā)展,并重視對齊研究的重要性,以確保人工智能對人類的未來發(fā)展是有益的,同時也能保障人類的安全和權(quán)益。這需要全球范圍內(nèi)的共同努力和合作,以確保人工智能技術(shù)的良性發(fā)展。