據(jù)外媒 New Atlas 14 日報道,腦機接口技術(shù)迎來一項重大突破:加州大學戴維斯分校研發(fā)的新型植入系統(tǒng),讓一位癱瘓患者不僅能順暢說話,甚至還能借助電腦“哼唱”旋律,幾乎沒有任何延遲。
研究團隊在一位漸凍癥患者身上試驗了這項技術(shù)。通過在大腦中控制發(fā)音的區(qū)域植入四組微電極陣列,系統(tǒng)能實時捕捉說話時產(chǎn)生的神經(jīng)信號,再結(jié)合低延遲處理和 AI 解碼模型,將這些信號同步轉(zhuǎn)化為語音,在揚聲器中播放。
需要強調(diào)的是,這項技術(shù)并不是在“讀心”,而是識別出患者嘗試發(fā)聲時大腦發(fā)出的運動指令。系統(tǒng)合成出的聲音與患者本人極為相似 —— 這得益于在其發(fā)病前錄制的語音樣本訓練出的聲音克隆算法。
從信號采集到語音生成,全程只需 10 毫秒,幾乎可以實現(xiàn)實時對話。
系統(tǒng)還能識別出患者試圖唱歌的動作,判斷其想表達的音高,并據(jù)此合成旋律。在研究團隊發(fā)布的視頻中,這一功能尚顯初級,但對于那些逐漸失去表達能力的人來說,無疑是一種重獲聲音的希望。
該研究論文的資深作者 Sergey Stavisky 表示,這一進展為腦機語音合成帶來了轉(zhuǎn)折點。他說:“借助即時語音輸出,神經(jīng)義體用戶能真正參與對話 —— 他們可以打斷別人,也更不容易被別人誤打斷。”
該系統(tǒng)能復現(xiàn)“啊”“喔”“嗯”等語氣詞,判斷句子是疑問還是陳述,甚至辨別出強調(diào)詞語的位置。研究團隊還指出,系統(tǒng)能準確合成此前從未見過的虛構(gòu)詞語。這使得語音表達更自然、更具表現(xiàn)力。
IT之家從報道中獲悉,研究人員也指出,目前試驗僅在一位患者身上進行,下一步將拓展至其他因不同原因喪失語言能力的人群,以驗證技術(shù)的普適性。