近日,英國《衛(wèi)報(bào)》披露了前OpenAI安全研究員Steven Adler對(duì)人工智能(AI)發(fā)展速度的深切憂慮。Adler在離開OpenAI后,于社交媒體平臺(tái)上發(fā)表了一系列文章,分享了自己在前雇主的經(jīng)歷,并表達(dá)了對(duì)AI技術(shù)飛速進(jìn)步的擔(dān)憂。
Adler特別指出,各大公司對(duì)于人工通用智能(AGI)的競(jìng)相開發(fā)讓他感到不安。AGI,即能夠在各種智力任務(wù)上達(dá)到甚至超越人類水平的系統(tǒng),被視為AI領(lǐng)域的一個(gè)終極目標(biāo)。然而,正是這種追求,讓Adler擔(dān)憂人類的未來。
“當(dāng)我考慮未來的定居地和退休儲(chǔ)蓄時(shí),我不禁思考:人類是否能見證這一天的到來?”Adler坦言,他對(duì)AI的進(jìn)展感到極度恐慌。這種恐慌并非空穴來風(fēng),而是基于他對(duì)技術(shù)發(fā)展趨勢(shì)的深刻洞察。
在AI領(lǐng)域,諾貝爾獎(jiǎng)得主、“AI教父”杰弗里?辛頓也曾表達(dá)過類似的擔(dān)憂。他認(rèn)為,強(qiáng)大的AI系統(tǒng)可能會(huì)失控,從而帶來災(zāi)難性的后果。而meta首席AI科學(xué)家楊立昆則持相對(duì)樂觀的態(tài)度,他認(rèn)為AI或許能幫助人類避免滅絕。
談及OpenAI的核心目標(biāo)之一——AGI的開發(fā),Adler表示,這是一場(chǎng)極其冒險(xiǎn)的賭博,風(fēng)險(xiǎn)巨大。他指出,目前尚未有任何實(shí)驗(yàn)室能夠有效解決AI對(duì)齊問題,即如何確保AI系統(tǒng)遵循人類的價(jià)值觀。隨著行業(yè)的快速發(fā)展,我們可能錯(cuò)失找到這一解決方案的良機(jī)。
Adler進(jìn)一步警告說,AI行業(yè)似乎陷入了一個(gè)危險(xiǎn)的平衡狀態(tài)。他呼吁必須引入真正的安全監(jiān)管,以防止?jié)撛诘臑?zāi)難性后果。“我們?cè)绞羌铀侔l(fā)展,就越難及時(shí)找到解決問題的辦法。”他強(qiáng)調(diào)道。
Adler還指出,即便有些實(shí)驗(yàn)室希望負(fù)責(zé)任地開發(fā)AGI,但其他實(shí)驗(yàn)室可能會(huì)通過減少投入來追趕進(jìn)度。這種行為不僅可能破壞整個(gè)行業(yè)的平衡,還可能帶來無法預(yù)料的災(zāi)難性后果。
Adler的言論引發(fā)了廣泛的關(guān)注和討論。許多人對(duì)他的擔(dān)憂表示理解,認(rèn)為AI的發(fā)展確實(shí)需要更加謹(jǐn)慎和負(fù)責(zé)任的態(tài)度。同時(shí),也有一些人持不同意見,認(rèn)為Adler的擔(dān)憂過于悲觀,忽視了AI技術(shù)帶來的積極影響。