新京報(bào)貝殼財(cái)經(jīng)訊(記者羅亦丹)3月31日,百度發(fā)布業(yè)界首個(gè)基于全新互相關(guān)注意力(Cross-Attention)的端到端語(yǔ)音語(yǔ)言大模型,在電話語(yǔ)音頻道的語(yǔ)音問(wèn)答場(chǎng)景中,調(diào)用成本較行業(yè)均值下降約50%-90%。當(dāng)日,文小言宣布率先接入該模型。
接入全新的端到端語(yǔ)音語(yǔ)言大模型后,文小言能支持更擬真的語(yǔ)聊效果,并覆蓋重慶、廣西、河南、廣東、山東等特色方言。據(jù)介紹,語(yǔ)音大模型具備極低的訓(xùn)練和使用成本,推理響應(yīng)速度極快,可將語(yǔ)音交互用戶等待時(shí)長(zhǎng)從行業(yè)常見(jiàn)的3-5秒降低至1秒左右。
更新后的文小言還支持“多模型融合調(diào)度”,通過(guò)整合百度自研的文心X1、文心4.5等頂尖模型,并接入DeepSeek-R1等第三方優(yōu)質(zhì)模型,實(shí)現(xiàn)了多模型間的智能協(xié)同。用戶可以選擇“自動(dòng)模式”,一鍵調(diào)用最優(yōu)模型組合,或可根據(jù)需求靈活選擇單一模型完成特定任務(wù)。
編輯 寇德娜
校對(duì) 穆祥桐