Google舉辦Inventors@Google線上分享會,宣布正在研發測試一款全新的APP「Project Relate」,利用APP清楚辨識漸凍症、中風、口腔受損等語言障礙者的說話模式,並導入三種功能協助溝通。
第一種是「Listen」也就是收聽語音後,直接實時翻譯成文字,讓語言障礙者也能和一般人一樣,在不方便打字時使用語音協助,或是讓同時有語言和肢體障礙的用戶,也能使用手機功能。
第二種是「Repeat」,直接用清晰的電腦語音,重新把話語內容唸出來,例如前導影片中,一位肌肉失養症患者就呈現在外點餐時,和店員點一杯熱巧克力的情景,讓與人即時溝通不再受限。
第三種是「Assistant」,也就是直接連接到Google Assistant,用語音控制手機或家電執行命令,例如拍照、撥打電話等功能。
花三年設計AI「客製化」學習,APP將於明年上線
能做到這三項功能,其實就是利用Google最引以為傲的深度學習技術,在首次打開App時,APP會要求用戶重複念出幾個特定詞語,藉此建立一個基準資料庫,AI學習到發音、語調等不同的變化後,往後就能正確解讀該用戶的言語內容。
Google Research產品經理Julie Cattiau 在分享會中表示,語言研究團隊從2018就開始進行這個計畫,因為他們認為語言障礙者也有自己的說話模式,只是過去的演算法無法做到完全客製化的學習,經過三年研發,終於能讓技術上線。
目前APP已經完成設計,Google正在美國、加拿大等地區尋找測試者來試用功能,預計將在未來數月正式上架Google App Store。
責任編輯:錢玉紘