国产av日韩一区二区三区精品,成人性爱视频在线观看,国产,欧美,日韩,一区,www.成色av久久成人,2222eeee成人天堂

首頁 科技週邊 人工智慧 AI輔助腦機介面研究,紐約大學突破性神經語音解碼技術,登Nature子刊

AI輔助腦機介面研究,紐約大學突破性神經語音解碼技術,登Nature子刊

Apr 17, 2024 am 08:40 AM
git iis 理論

AI輔助腦機介面研究,紐約大學突破性神經語音解碼技術,登Nature子刊

作者| 陳旭鵬?

編輯| ScienceAI

由於神經系統(tǒng)的缺陷導致的失語癥會導致嚴重的生活障礙,它可能會限制人們的職業(yè)和社交生活。

近年來,深度學習和腦機介面(BCI)技術的快速發(fā)展為開發(fā)能夠幫助失語者溝通的神經語音義肢提供了可行性。然而,神經訊號的語音解碼面臨挑戰(zhàn)。

近日,約旦大學VideoLab和Flinker Lab的研究者開發(fā)了一個新型的可微分語音合成器,可以利用一個輕型的捲積神經網路將語音編碼為一系列可解釋的語音參數(例如音高、響度、共振峰頻率等),並透過可微分神經網路將這些參數合成為語音。這個合成器還可以透過一個輕型的捲積神經網路來解析語音參數(例如音高、響度、共振峰頻率等),以及通 過可微分語音合成器重新合成語音。

研究者建立了一個高度可解釋且可應用於小數據量情形的神經訊號解碼系統(tǒng),透過將神經訊號映射到這些語音參數,而不改變原內容的意思。

研究以「A neural speech decoding framework leveraging deep learning and speech synthesis」為題,於2024 年4 月8 日發(fā)表在《Nature Machine Intelligence 》雜誌上。

AI輔助腦機介面研究,紐約大學突破性神經語音解碼技術,登Nature子刊

論文連結:https://www.nature.com/articles/s42256-024-00824-8

#研究背景

開發(fā)神經-語音解碼器的嘗試大多數依賴於一種特殊的數據:透過皮質電圖(ECoG)記錄獲取接受癲癇手術患者的數據。利用患有癲癇的患者植入的電極,在發(fā)音時收集大腦皮層數據,這些數據具有高時空分辨率,已經在語音解碼領域幫助研究者獲得了一系列很顯著的成果,幫助推動了腦機接口領域的發(fā)展。

神經訊號的語音解碼面臨兩大挑戰(zhàn)。

首先,用於訓練個人化神經到語音解碼模型的資料在時間上是非常有限的,通常只有十分鐘左右,而深度學習模型往往需要大量的訓練資料來驅動。

其次,人類的發(fā)音非常多樣,即使是同一個人重複說出相同的單詞,語速、語調和音調等也會有變化,這給模型構建的表徵空間增加了複雜性。

早期的解碼神經訊號到語音的嘗試主要依賴線性模型,模型通常不需要龐大的訓練資料集,可解釋性強,但是準確率很低。

近期的基於深度神經網絡,尤其是利用卷積和循環(huán)神經網路架構,在模擬語音的中間潛在表示和合成後語音品質兩個關鍵維度上展開。例如,有研究將大腦皮質活動解碼成口型運動空間,然後再轉化為語音,雖然解碼性能強大,但重建的聲音聽起來不自然。

另一方面,有些方法透過利用wavenet聲碼器、生成對抗網路(GAN)等,雖然成功重建了自然聽感的語音,但準確度有限。最近,在一個植入了設備的患者的研究中,透過使用量化的HuBERT特徵作為中間表示空間和預訓練的語音合成器將這些特徵轉換成語音,實現了既準確又自然的語音波形。

然而,HuBERT特徵不能表示發(fā)音者特有的聲學訊息,只能產生固定統(tǒng)一的發(fā)音者聲音,因此需要額外的模型將這種通用聲音轉換為特定患者的聲音。此外,這項研究和大多數先前的嘗試採用了非因果(non-causal)架構,這可能限制其在需要時序因果(causal)操作的腦機介面實際應用中的使用。

主要模型架構

AI輔助腦機介面研究,紐約大學突破性神經語音解碼技術,登Nature子刊

圖1:提出的神經語音解碼框架。 (資料來源:論文)

為應對這些挑戰(zhàn),研究者在這篇文章中介紹了一個新型的從腦電(ECoG)訊號到語音的解碼框架,研究人員建構了一個低維度的中間表示(low dimension latent representation),該表示透過僅使用語音訊號的語音編解碼模型產生(圖1)。

研究提出的框架由兩部分組成:一部分是ECoG解碼器,它能將ECoG訊號轉換為我們可以理解的聲學語音參數(例如音高、是否發(fā)聲、響度、以及共振峰頻率等);另一部分是語音合成器,它將這些語音參數轉換為頻譜圖。

研究者らは、微分可能な音聲合成器を構築しました。これにより、音聲合成器は ECoG デコーダのトレーニング中にトレーニングに參加し、スペクトログラム再構成のエラーを減らすために共同で最適化することができます。この低次元潛在空間は、參照音聲パラメータを生成するための軽量の事前トレーニング済み音聲エンコーダと組み合わせることで強力な解釈可能性を備えており、研究者が効率的なニューラル音聲復號化フレームワークを構築し、データ不足の問題を克服するのに役立ちます。

このフレームワークは、話者自身の聲に非常に近い自然な音聲を生成でき、ECoG デコーダー部分はさまざまな深層學習モデル アーキテクチャに接続でき、因果的操作もサポートします。研究者らは、ECoG デコーダーとして複數の深層學習アーキテクチャ (畳み込み、リカレント ニューラル ネットワーク、トランスフォーマーを含む) を使用して、48 人の脳神経外科患者から ECoG データを収集および処理しました。

このフレームワークはさまざまなモデルで高い精度を実証しており、畳み込み (ResNet) アーキテクチャで得られる最高のパフォーマンスでは、元のスペクトログラムとデコードされたスペクトログラム間のピアソン相関係數 (PCC) が 0.806 に達しました。研究者らによって提案されたフレームワークは、因果的操作と比較的低いサンプリング レート (低密度、10 mm 間隔) を通じてのみ高精度を達成できます。

研究者らはまた、効果的な音聲デコードが脳の左半球と右半球の両方から実行できることを実証し、神経音聲デコードの応用を右半球に拡張しました。

研究関連コードのオープンソース:https://github.com/flinkerlab/neural_speech_decoding

その他の生成された音聲の例:https://xc1490. .io/nsd/

AI輔助腦機介面研究,紐約大學突破性神經語音解碼技術,登Nature子刊

図: 微分可能な音聲合成アーキテクチャ。 (出典: 論文)

この研究の重要な革新は、音聲再合成タスクを非常に効率的にし、非常に小さな音聲で高忠実度に合成できる微分可能な音聲合成裝置 (音聲合成裝置) を提案することです。原音と一致するオーディオ。

微分可能音聲合成の原理は、人間の生成システムの原理を利用し、音聲を 2 つの部分 (母音のモデル化に使用) と無聲 (子音のモデル化に使用) の 2 つの部分に分割します。

音聲部分は、まず基本周波數信號を使用して高調波を生成し、F1 ~ F6 のフォルマントで構成されるフィルターでフィルタリングして、無聲部分の母音部分のスペクトル特性を取得します。研究者は対応するフィルターを使用します。ホワイトノイズに対応するスペクトルがフィルタリングによって取得され、學習可能なパラメータによって各瞬間の 2 つの部分の混合比を調整できます。その後、ラウドネス信號が増幅され、バックグラウンドノイズが追加されて、最終的な音聲スペクトルが取得されます。この音聲合成裝置に基づいて,本論文は効率的な音聲再合成フレームワークとニューラル音聲復號化フレームワークを設計した。

研究結果

時間的因果関係を伴う音聲解読結果

AI輔助腦機介面研究,紐約大學突破性神經語音解碼技術,登Nature子刊

図2 : 非因果モデルと因果モデルの元のスペクトログラムとデコードされたスペクトログラムのデコード パフォーマンスを比較します。 (出典: 論文)
まず、研究者らは、さまざまなモデル アーキテクチャ (Convolution (ResNet)、Recurrent (LSTM)、Transformer (3D Swin)) の音聲デコード性能の違いを直接比較しました。これらのモデルはすべて、非因果的操作または因果的操作を時間どおりに実行できます。

調査結果では、ResNet モデルがすべてのモデルの中で最も優(yōu)れたパフォーマンスを示し、48 人の參加者の間で最も高い PI を達成しました。非因果的および因果的の平均 PCC はそれぞれ 0.806 および 0.797 であり、Swin モデルがそれに続きます (非因果的および因果的の平均 PCC はそれぞれ 0.792 および 0.798) (図 2a) 同様の結果が得られました。 STOI 指標の評価を通じて、デコード モデルの因果関係は、ブレイン コンピューター インターフェイス (BCI) アプリケーションにとって非常に重要です。因果モデルは、音聲を生成するために過去と現在の神経信號のみを使用し、將來の神経信號は使用しません。過去の研究では、リアルタイム アプリケーションでは実現不可能な非因果的モデルが使用されることが多かったので、研究者は非因果的操作と因果的操作を実行する際の同じモデルのパフォーマンスを比較することに焦點を當ててきました。 ResNet モデルの因果バージョンでも非因果バージョンと同等であり、両者の間に大きな違いはありません。同様に、Swin モデルの因果バージョンと非因果バージョンのパフォーマンスは類似しています。 LSTM モデルの因果バージョンは大幅に低いため、研究者は將來、ResNet モデルと Swin モデルに焦點を當てて、この記事で提案されているフレームワークを適切に一般化できるようにします。これは、同じ単語の異なるトライアルがトレーニング セットとテスト セットの両方に現れないことを意味します。

図 2b に示すように、パフォーマンスは次のとおりです。目に見えない単語の解析は、論文の標準的な試行方法と同等であり、モデルがトレーニング中に見えなかった単語もデコードできることを示しています。これは主に、この記事で構築されたモデルが音素などを実行するという事実によるものです。レベル音聲デコード

。

さらに、研究者らは、2 人の參加者 (低密度サンプリング レート ECoG) からのデータを示し、単一ワード レベルでの ResNet 因果デコーダーのパフォーマンスを実証しています。デコードされたスペクトログラムは、元の音聲のスペクトル時間構造を正確に保持しています (図 2c、d)。

研究者らはまた、ニューラル デコーダーによって予測された音聲パラメーターと、音聲エンコーダーによってエンコードされたパラメーター (參考値として) を比較し、いくつかの主要な音聲パラメーター (N=48) の平均 PCC 値を示しました。 )、音の重み (母音と子音を區(qū)別するために使用)、ラウドネス、ピッチ f0、第 1 フォルマント f1 および第 2 フォルマント f2 が含まれます。これらの音聲パラメータ、特にピッチ、音の重み、最初の 2 つのフォルマントを正確に再構成することは、參加者の聲を自然に模倣する正確な音聲デコードと再構成を実現するために重要です。

研究結果は、非因果モデルと因果モデルの両方が合理的な解読結果を取得できることを示しており、これは將來の研究と応用に前向きな指針を提供します。

音聲デコードと左脳?右脳神経信號の空間サンプリングレートに関する研究

AI輔助腦機介面研究,紐約大學突破性神經語音解碼技術,登Nature子刊

図 3: 3D ResNet と 3D Swin機種別設定時のデコード性能比較。 (出典: 論文)

研究者らはさらに、左右の大脳半球の音聲解読結果を比較しました。ほとんどの研究は、音聲と言語の機能を擔う脳の左半球に焦點を當てています。しかし、右脳半球から言語情報がどのように解読されるかについてはほとんどわかっていません。これに応えて、研究者らは參加者の左右の大脳半球のデコード性能を比較し、音聲回復に右大脳半球を使用できる可能性を検証した。

研究で収集された 48 人の被験者のうち、16 人の被験者は右脳から ECoG 信號を収集しました。 ResNet と Swin デコーダーのパフォーマンスを比較することにより、研究者らは、右半球でも音聲を安定してデコードできる (ResNet の PCC 値は 0.790、Swin の PCC 値は 0.798) ことがわかり、これは左半球のデコード効果とあまり変わらないことを発見しました (図 3a) に示されています。

この発見は、STOI の評価にも當てはまります。これは、左半球に損傷があり言語能力を失った患者にとって、右半球からの神経信號を使用して言語を回復することが実現可能な解決策である可能性があることを意味します。

次に、研究者らは、音聲デコード効果に対する電極サンプリング密度の影響を調査しました。以前の研究では主に高密度の電極グリッド (0.4 mm) が使用されていましたが、臨床現場で一般的に使用されている電極グリッドの密度はより低い (LD 1 cm) です。

5 人の參加者は、主に低密度のサンプリングですが、追加の電極が組み込まれたハイブリッド タイプ (HB) 電極グリッド (図 3b を參照) を使用しました。殘りの 43 人の參加者は低密度でサンプリングされました。これらのハイブリッド サンプル (HB) のデコード パフォーマンスは、従來の低密度サンプル (LD) と同様ですが、STOI ではわずかに優(yōu)れています。

研究者らは、デコードに低密度電極のみを使用した場合とすべての混合電極を使用した場合の効果を比較し、両者の差は有意ではないことを発見しました (図 3d を參照)。さまざまな空間からのサンプル密度 音聲情報は大脳皮質で學習されますが、このことは、臨床現場で一般的に使用されるサンプリング密度が將來のブレイン-コンピューター インターフェイスのアプリケーションには十分である可能性があることも意味します。

音聲デコーディングに対する左脳と右脳の異なる脳領域の寄與に関する研究

AI輔助腦機介面研究,紐約大學突破性神經語音解碼技術,登Nature子刊
図 4: 寄與分析。 (出典: 論文)

最後に、研究者らは音聲復號化プロセスにおける脳の音聲関連領域の寄與を調べました。これは、將來の左右への音聲復元裝置の埋め込みにとって重要な參考資料となります。脳の半球。研究者らは、オクルージョン分析を使用して、音聲デコードに対するさまざまな脳領域の寄與を評価しました。

つまり、特定の領域がデコードに重要な場合、その領域の電極信號をブロックすると (つまり、信號をゼロに設定すると)、再構成された音聲の精度 (PCC 値) が低下します。

この方法を使用して、研究者らは各領域が閉塞されたときの PCC 値の減少を測定しました。 ResNet と Swin デコーダの因果モデルと非因果モデルを比較すると、聴覚皮質が非因果モデルでより多く寄與していることがわかり、リアルタイム音聲デコード アプリケーションでは因果モデルを使用する必要があることが強調されます。リアルタイム音聲デコードでは、ニューロフィードバック信號を利用できません。

さらに、感覚運動皮質、特に腹部の寄與は右半球でも左半球でも同様であり、右半球に神経プロテーゼを移植することが可能である可能性があることを示唆しています。

結論と感動的な展望

研究者らは、軽量畳み込みニューラル ネットワークを使用して音聲を一連の解釈可能な音聲パラメータにエンコードできる、新しいタイプの微分可能な音聲合成裝置を開発しました。 (ピッチ、ラウドネス、フォルマント周波數など)、微分可能な音聲合成裝置を通じて音聲を再合成します。

研究者らは、神経信號をこれらの音聲パラメータにマッピングすることで、解釈可能性が高く、データ量が少ない狀況にも適用でき、自然な音聲を生成できるニューラル音聲デコード システムを構築しました。この方法は參加者 (合計 48 人) 全體で再現性が高く、研究者らは、リカレント アーキテクチャ (LSTM) よりも優(yōu)れている畳み込みおよびトランスフォーマー (3D Swin) アーキテクチャを使用した因果解読の有効性を実証することに成功しました。

このフレームワークは、高い空間サンプリング密度と低い空間サンプリング密度を処理でき、左半球と右半球からの EEG 信號を処理できるため、強力な音聲デコードの可能性が示されます。

これまでの研究のほとんどは、リアルタイムのブレイン-コンピューター インターフェイス アプリケーションにおけるデコード操作の時間的因果関係を考慮していませんでした。多くの非因果モデルは、聴覚感覚フィードバック信號に依存しています。研究者らの分析では、非因果モデルは主に上側頭回の寄與に依存しているのに対し、因果モデルは基本的にこれを排除していることが示された。研究者らは、フィードバック信號に過度に依存しているため、リアルタイム BCI アプリケーションにおける非因果モデルの汎用性が制限されていると考えています。

一部の方法では、被験者の想像上の音聲を解読するなど、トレーニング中のフィードバックを回避しようとします。それにもかかわらず、ほとんどの研究は依然として非因果モデルを採用しており、トレーニングと推論中のフィードバック効果を排除できません。さらに、文獻で広く使用されているリカレント ニューラル ネットワークは通常雙方向であるため、非因果的な動作や予測遅延が発生しますが、私たちの実験では、一方向にトレーニングされたリカレント ネットワークのパフォーマンスが最悪であることが示されています。

この研究ではリアルタイムのデコードはテストされていませんが、研究者らは神経信號から音聲を合成する際に 50 ミリ秒未満の遅延を達成し、聴覚遅延にはほとんど影響せず、通常の音聲生成が可能でした。

この研究では、カバレージの密度を高めることでデコードのパフォーマンスが向上するかどうかを調査しました。研究者らは、低密度と高密度のグリッド カバレッジの両方で高いデコード パフォーマンスが達成されることを発見しました (図 3c を參照)。さらに、研究者らは、すべての電極を使用した場合のデコード性能は、低密度電極のみを使用した場合の性能と大きく変わらないことを発見しました (図 3d)。

これは、低密度の參加者であっても、手頭周囲のカバレージが十分である限り、研究者が提案した ECoG デコーダは音聲を再構成するために神経信號から音聲パラメータを抽出できることを証明しています。もう一つの注目すべき発見は、右半球の皮質構造と、音聲解読に対する右頭頭周囲皮質の寄與でした。これまでのいくつかの研究では、右半球が母音と文の解読に寄與している可能性があることが示されていますが、今回の結果は、右半球における堅牢な音韻表現の証拠を提供しています。

研究者らは、現在のモデルのいくつかの制限についても言及しました。たとえば、デコードプロセスには ECoG 録音と組み合わせた音聲トレーニングデータが必要ですが、これは失語癥患者には適用できない可能性があります。將來的には、研究者らは、非グリッド データを処理し、複數の患者、マルチモーダルな EEG データをより適切に活用できるモデル アーキテクチャを開発したいと考えています。

この記事の筆頭著者: Xupeng Chen、Ran Wang、責任著者: Adeen Flinker。

資金援助: 國立科學財団 (助成金番號 IIS-1912286、2309057 (Y.W.、A.F.) および國立衛(wèi)生研究所 R01NS109367、R01NS115929、R01DC018805 (A.F.)) 。

神経音聲デコードにおける因果関係の詳細については、著者による別の論文「分散型フィードフォワードおよびフィードバック皮質処理が人間の音聲生成をサポートする」を參照してください: https :/ /www.pnas.org/doi/10.1073/pnas.2300255120

出典: ブレイン コンピューター インターフェイス コミュニティ

以上是AI輔助腦機介面研究,紐約大學突破性神經語音解碼技術,登Nature子刊的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發(fā)現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創(chuàng)建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發(fā)環(huán)境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發(fā)工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

pycharm第一次打開教程 首次使用必看設置指南 pycharm第一次打開教程 首次使用必看設置指南 May 23, 2025 pm 10:48 PM

第一次打開PyCharm時,應先創(chuàng)建新項目並選擇虛擬環(huán)境,然後熟悉編輯器區(qū)、工具欄、導航欄和狀態(tài)欄。設置Darcula主題和Consolas字體,利用智能提示和調試工具提高效率,並學習Git集成。

PHP中如何驗證社保號字符串? PHP中如何驗證社保號字符串? May 23, 2025 pm 08:21 PM

社保號驗證在PHP中通過正則表達式和簡單邏輯實現。 1)使用正則表達式清理輸入,去除非數字字符。 2)檢查字符串長度是否為18位。 3)計算並驗證校驗位,確保與輸入的最後一位匹配。

git如何使用圖形化工具對比版本差異 git如何使用圖形化工具對比版本差異 May 22, 2025 pm 10:48 PM

有效使用圖形化工具對比Git版本差異的步驟包括:1.打開GitKraken並加載倉庫,2.選擇要對比的版本,3.查看差異,4.深入分析。圖形化工具如GitKraken提供了直觀的界面和豐富的功能,幫助開發(fā)者更深入地理解代碼的演變過程。

gitstatus查看倉庫狀態(tài)的深入解析 gitstatus查看倉庫狀態(tài)的深入解析 May 22, 2025 pm 10:54 PM

gitstatus命令用於顯示工作目錄和暫存區(qū)的狀態(tài)。 1.它會檢查當前分支,2.比較工作目錄和暫存區(qū),3.比較暫存區(qū)和最後一次提交,4.檢查未跟蹤的文件,幫助開發(fā)者了解倉庫狀態(tài)並確保提交前無遺漏。

配置VSCode與GitHub進行代碼同步 配置VSCode與GitHub進行代碼同步 May 20, 2025 pm 06:33 PM

配置VSCode與GitHub進行代碼同步可以提高開發(fā)效率和團隊協作。首先,安裝"GitHubPullRequestsandIssues"和"GitLens"插件;其次,配置GitHub賬號;然後,克隆或創(chuàng)建倉庫;最後,提交並推送代碼到GitHub。

怎樣開發(fā)一個完整的PythonWeb應用程序? 怎樣開發(fā)一個完整的PythonWeb應用程序? May 23, 2025 pm 10:39 PM

要開發(fā)一個完整的PythonWeb應用程序,應遵循以下步驟:1.選擇合適的框架,如Django或Flask。 2.集成數據庫,使用ORM如SQLAlchemy。 3.設計前端,使用Vue或React。 4.進行測試,使用pytest或unittest。 5.部署應用,使用Docker和平臺如Heroku或AWS。通過這些步驟,可以構建出功能強大且高效的Web應用。

PHP中如何驗證IMEISV字符串? PHP中如何驗證IMEISV字符串? May 28, 2025 pm 03:39 PM

在PHP中驗證IMEISV字符串需要以下步驟:1.使用正則表達式驗證16位數字格式。 2.通過Luhn算法校驗IMEI部分的有效性。 3.檢查軟件版本號的有效性。完整的驗證過程包括格式驗證、Luhn校驗和軟件版本號檢查,以確保IMEISV的有效性。

git如何在遠程倉庫上創(chuàng)建和刪除標籤 git如何在遠程倉庫上創(chuàng)建和刪除標籤 May 22, 2025 pm 10:33 PM

在遠程倉庫上創(chuàng)建標籤使用gitpushorigin,刪除標籤使用gitpushorigin--delete。具體步驟包括:1.創(chuàng)建本地標籤:gittagv1.0。2.推送到遠程:gitpushoriginv1.0。3.刪除本地標籤:gittag-dv1.0。4.刪除遠程標籤:gitpushorigin--deletev1.0。

See all articles