近日,《華爾街日報》發(fā)表了一篇文章,深入探討了AI領域中出現的一個引人關注的現象——“AI幻覺”,并探討了可能的解決方案。文章通過一項有趣的實驗揭示了這一問題的本質:記者Ben Fritz向多款全球頂尖的AI聊天機器人提問“你的配偶是誰”,結果卻得到了令人啼笑皆非的答案,包括不認識的作家、虛構的愛荷華州女性,甚至還有網球運動博主。
這些AI在解決復雜數學問題和模擬人類對話方面展現出驚人的能力,但在面對基本事實時卻頻頻出錯。它們會編造法律案件,混淆影視劇情,甚至“創(chuàng)造”出不存在的配偶,這種錯誤被形象地稱為“幻覺”。更令人驚訝的是,即便在給出錯誤答案時,AI也表現得極為自信,仿佛它們真的知道答案一樣。
德國Hasso Plattner研究所的博士生Roi Cohen,曾在IBM和微軟實習,他指出,“AI幻覺”是當前AI研究領域的熱門話題之一。AI的工作原理是基于預測,它試圖找出最可能出現的下一個單詞,這更像是一種高級的猜測游戲。因此,AI往往會以堅定的語氣給出它認為最可能的答案,而不會表現出任何不確定性。
西班牙瓦倫西亞人工智能研究所的教授José Hernández-Orallo解釋了AI產生幻覺的根本原因:“如果AI什么都不猜,它就永遠不可能答對?!边@一觀點揭示了AI在追求答案過程中的無奈與局限。
為了克服這一問題,研究人員正在探索“檢索增強生成”技術。這種技術讓AI在回答問題時先從互聯網或文檔庫中查找最新信息,而不是完全依賴已有的訓練數據。這種方法有望提高AI回答的準確性,減少“幻覺”現象的發(fā)生。
Cohen和他的同事Konstantin Dobler在去年的NeurIPS AI研究會議上提出了一個新穎的觀點:讓AI學會承認“我不知道”。他們發(fā)現,當前的AI訓練數據中幾乎不包含“我不知道”這樣的表述,因此AI天生不具備謙遜的品質。通過調整訓練過程,他們使AI在可能出錯的情況下至少有一部分會選擇回答“我不知道”,從而提高了整體準確性。
然而,如何平衡這一策略仍然是一個挑戰(zhàn)。有時AI說“我不知道”,但實際上答案就在它的訓練數據中。盡管如此,對于那些依賴AI提供精準信息的領域來說,適當的“謙虛”可能更有價值。Dobler強調:“關鍵是讓AI具備實用性,而不是一味追求智能?!?/p>
值得注意的是,隨著AI技術的不斷發(fā)展,美國公眾對其的信任感卻在下降。皮尤研究中心的數據顯示,2023年有52%的美國人對AI感到擔憂,而2021年這一比例僅為37%。這一趨勢反映出公眾對AI技術發(fā)展的復雜情緒,既期待其帶來的便利和進步,又擔憂其潛在的風險和不確定性。