近日,AI搜索引擎領域的創(chuàng)新企業(yè)Perplexity正式揭曉了其最新研發(fā)的Sonar搜索模型。這一模型是在Llama 3.3 70B的基礎上深化訓練而成,專為搜索應用定制,并搭載于Cerebras的推理基礎設施上運行。
據(jù)Perplexity透露,新版Sonar的Token解碼速度驚人,每秒可達1200個,這一速度遠超Gemini 2.0 Flash的8.5倍,實現(xiàn)了近乎即時的答案生成,為用戶帶來前所未有的高效體驗。
在回答質(zhì)量方面,新版Sonar同樣表現(xiàn)出色。Perplexity表示,用戶對新版Sonar的評價顯著超越了GPT-4o mini和Claude 3.5 Haiku,甚至與前沿模型Claude 3.5 Sonnet相比也毫不遜色,與GPT-4o的差距更是微乎其微。
新版Sonar的兩大核心競爭力在于其卓越的事實性回答能力和對markdown格式的熟練運用。這不僅確保了回答的準確性,還大大提升了文本的可讀性,為用戶帶來了更加清晰、直觀的搜索體驗。
目前,新版Sonar已經(jīng)向Perplexity Pro的訂閱用戶開放,并且將以API的形式對外提供服務。這一舉措標志著Perplexity在AI搜索引擎領域邁出了堅實的一步,也預示著未來搜索體驗將迎來全新的變革。