聯發創新基地負責人許大山博士表示,開源語音辨識模型雖逐年進步,但對於在地用語及口音的辨識度仍顯不足,例如把「發生什麼事」聽成「花生什麼事」。有鑑於語音辨識是AI應用的關鍵啟動功能,此次特別釋出「聽得懂在地語言」的ASR模型MR Breeze ASR 25,其精準度相較於OpenAI的Whisper提升近10%、中英語轉換表現(Code-switching)則增進56%。藉此,聯發創新基地能以完整的繁體中文AI模型,積極推進繁體中文AI的創新並普及模型於地端及裝置端的使用。

聯發創新基地自2025起已陸續開源全套繁體中文AI模型,包含整合視覺功能的語言模型(Visual Large Language Models,V-LLM)、針對台灣口音調整的文字轉語音模型(Text to Speech,TTS)、以及能調用外部資訊的函式呼叫(Function Calling)模型。此次釋出的MR Breeze ASR 25為MR Breeze系列第二代語音辨識開源模型,能即時將語音轉為文字,並透過強化台灣語料及台灣口音,來符合本土應用需求。MR Breeze ASR 25日前已於HuggingFace上架,想了解更多請至聯發創新基地與MR Breeze ASR 25開發者平台。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
台幣升值拖累!5月製造業景氣燈號驚亮衰退「藍燈」 15個月來首見