新研究利用人工智能將大腦信號轉換成語音和動畫表情
新華社北京8月28日電 美國加利福尼亞大學舊金山分校近日發布公報說,該校參與的研究團隊開發出一種腦機接口,通過訓練人工智能算法,成功將一名因腦干中風而嚴重癱瘓的女性的大腦信號轉換成語音和動畫表情,使這名女性患者能夠通過“數字化身”與人交流。
加州大學舊金山分校和伯克利分校等機構研究人員在這名癱瘓女性大腦表面植入一個由253個電極組成的薄如紙張的矩形設備。這些電極覆蓋了對語言功能至關重要的大腦區域。研究人員用一根電纜插入固定在患者頭部的接口上,將電極與一組計算機連接起來。
構建這套系統后,研究團隊在數周時間里對人工智能算法進行系統訓練,以識別這名女性患者獨特的大腦語音信號。這需要不斷重復不同的語句,涉及1024個單詞,直到計算機能識別與患者聲音相關的大腦活動模式。
研究人員并沒有訓練人工智能識別完整的單詞,而是創建了一個系統可根據最小的語音單位音素來解碼單詞。就像字母組成書面單詞一樣,音素組成了口語單詞。例如,英文單詞“Hello”包含HH、AH、L和OW四個音素。利用這種方法,計算機只要學習39個音素就能破譯任何英文單詞,這提高了系統的準確性和運算速度。
為了重現患者的聲音,團隊設計了一種語音合成算法,利用患者在自己婚禮上的講話錄音將語音個性化,使之聽起來像她受傷前的聲音。
研究人員還借助一款可模擬面部肌肉運動并制作動畫的軟件為患者制作動畫頭像。研究人員創建了定制的機器學習過程,使這款軟件能夠識別這名女性試圖說話時大腦發出的信號,并將這些信號轉換成能夠表示快樂、悲傷和驚訝等情緒的面部動畫。
相關論文近日發表在英國《自然》雜志上。團隊下一步計劃創建該系統的無線版本,使患者無需與腦機接口進行物理連接。