Meta今(23)日發表一系列AI大型語言模型,可以辨識多達4,000種語言,語音和文字互相轉換的技術也支援1,100種語言,多國語言版的《新約聖經》也是訓練資料之一。
Meta表示,這項技術將會開源,希望幫助更多用戶以自己習慣的語言,更輕鬆地獲取資訊及使用電子裝置。
Meta「MMS」AI模型,可轉換千種語言、也能辨識4,000種口語語言!
Meta的大規模多語言語音(Massively Multilingual Speech,或簡稱為MMS),由模型擴展成文字轉語音、語音轉文字技術的應用範圍,從最初的100種語言,至今已可轉換超過1,100種語言,超越過去的10倍,此外還能夠辨識超過4,000種口語語言,是過去的40倍。
這項技術已有許多應用案例,從VR、AR到訊息服務,能夠使用偏好的語言操作,更可理解每個人的聲音。Meta將會開源這項技術的原始碼及模型,讓研究社群能夠以現有的工作成果為基礎繼續開發,一同保存全球的語言,並拉近人們之間的距離。
Meta蒐集上千種語言,《聖經》也是訓練資料
過去最大型的語音資料庫最多僅涵蓋100種語言,因此開發此技術所面臨的第一個挑戰即為「蒐集數千種語言的語音訓練資料」。為了克服這項挑戰,Meta使用已翻譯成多種語言、譯文已被廣泛閱讀及研究的宗教經典,例如《聖經》,作為語言的文字訓練資料。
《聖經》譯文有多種語言的公開錄音檔,作為大型多語言語音模型計畫的一部分,Meta創造的資料集,蒐集超過1,100種語言的《新約聖經》有聲讀物資料集,平均為每種語言提供32小時的語音訓練資料,後續又加入其他未標註的基督教有聲讀物後,可用的語言訓練資料已涵蓋超過4,000種語言。
雖然資料集收錄的聲音以男性居多,但測試成果顯示,不論是男性或女性的聲音,此語音模型皆能同等準確地辨識。此外,上述的語言訓練資料大多為宗教相關的內容,但根據Meta的分析顯示,這並不會使模型傾向於生成出更多的宗教性質的語言。
Meta表示,將持續擴增大規模多語言語音模型的涵蓋範圍,以支援更多語言的轉換及辨識,並努力克服現有語音技術難以處理方言的挑戰。
責任編輯:林美欣