国产av日韩一区二区三区精品,成人性爱视频在线观看,国产,欧美,日韩,一区,www.成色av久久成人,2222eeee成人天堂

目次
0.この記事は何をするのですか?
1. 論文情報(bào)
2. 要約
3. 効果のデモ
4. 主な貢獻(xiàn)
5. 具體的な原則は何ですか?
6. Результаты экспериментов
#7.Резюме
ホームページ テクノロジー周辺機(jī)器 AI オープンソース!ゾーイデプスを超えて! DepthFM: 高速かつ正確な単眼深度推定!

オープンソース!ゾーイデプスを超えて! DepthFM: 高速かつ正確な単眼深度推定!

Apr 03, 2024 pm 12:04 PM
データ 電車

0.この記事は何をするのですか?

提案された DepthFM: 多用途かつ高速な最先端の生成単眼深度推定モデル 。従來の深度推定タスクに加えて、DepthFM は深度修復(fù)などの下流タスクでも最先端の機(jī)能を?qū)g証します。 DepthFM は効率的で、いくつかの推論ステップ內(nèi)で深度マップを合成できます。

この作品を一緒に読みましょう~

1. 論文情報(bào)

タイトル: DepthFM: フローマッチングによる高速単眼深度推定

著者: Ming Gui、Johannes S. Fischer、Ulrich Prestel、Pingchuan Ma、Dmytrokotovenko、Olga Grebenkova、Stefan Andreas Baumann、Vincent Tao Hu、Bj?rn Ommer

機(jī)関: MCML

元のリンク: https://arxiv.org/abs/2403.13788

コードリンク: https://github.com/CompVis/ Depth-fm

公式ホームページ: https:// Depthfm.github .io/

2. 要約

は、下流の観光タスクやアプリケーションの多くにとって重要です。この問題に対する現(xiàn)在の識(shí)別方法は不鮮明なアーティファクトによって制限されていますが、最先端の生成方法は SDE の性質(zhì)によりトレーニング サンプル速度が遅いという問題があります。ノイズから始めるのではなく、入力畫像から深度畫像への直接マッピングを求めます。解空間內(nèi)の直線軌道が効率と高品質(zhì)を提供するため、これはフロー マッチングによって効率的に構(gòu)築できることがわかりました。私たちの研究は、事前トレーニングされた畫像拡散モデルがフローマッチングの深いモデルのための十分な事前知識(shí)として使用できることを示しています。複雑な自然シーンのベンチマークでは、私たちの軽量アプローチは、少量の合成データのみでトレーニングされているにもかかわらず、有利な低計(jì)算コストで最先端のパフォーマンスを?qū)g証します。

3. 効果のデモ

DepthFM は、強(qiáng)力なゼロサンプル汎化機(jī)能を備えた高速推論フロー マッチング モデルで、強(qiáng)力な事前知識(shí)を利用でき、非常に使いやすいです。 . 未知の実像に簡(jiǎn)単に一般化できます。合成データでトレーニングした後、モデルは未知の実際の畫像に対して適切に一般化され、深度畫像と正確に一致します。

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!

他の最先端のモデルと比較して、DepthFM は 1 回の関數(shù)評(píng)価のみで非常に鮮明な畫像を取得します。 Marigold の深度推定には DethFM の 2 倍の時(shí)間がかかりますが、同じ粒度で深度マップを生成することはできません。

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!

4. 主な貢獻(xiàn)

(1) 最先端の多機(jī)能高速単眼鏡DepthFMの提案深度推定モデル。従來の深度推定タスクに加えて、DepthFM は、深度修復(fù)や深度條件付き畫像合成などの下流タスクでも最先端の機(jī)能を?qū)g証します。

(2) は、トレーニング データにほとんど依存せず、実世界の畫像を必要とせずに、拡散モデルからフロー マッチング モデルへの強(qiáng)力な畫像事前分布の転送が成功したことを示しています。

(3) は、フロー マッチング モデルが効率的であり、単一の推論ステップ內(nèi)で深度マップを合成できることを示しています。

(4) DepthFM は合成データのみでトレーニングされているにもかかわらず、ベンチマーク データセットと自然畫像で良好なパフォーマンスを発揮します。

(5) 表面法線損失を補(bǔ)助ターゲットとして使用して、より正確な深度推定を取得します。

(6) 深さの推定に加えて、その予測(cè)の信頼性も確実に予測(cè)できます。

5. 具體的な原則は何ですか?

トレーニング パイプライン。 トレーニングは、フロー マッチングと表面法線損失によって制限されます。フロー マッチングの場(chǎng)合、データ依存のフロー マッチングを使用して、グラウンド トゥルースの深さと対応する畫像の間のベクトル フィールドを回帰します。さらに、表面法線の損失によって幾何學(xué)的なリアリズムが実現(xiàn)されます。

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!

データ関連のフロー マッチング: DepthFM は、畫像と深度のペアを利用して、畫像分布と深度分布の間の直線ベクトル場(chǎng)を回帰します。このアプローチにより、パフォーマンスを犠牲にすることなく、効率的な複數(shù)ステップの推論が促進(jìn)されます。

拡散事前分布からの微調(diào)整: 著者らは、強(qiáng)力な畫像事前分布を基本畫像合成拡散モデル (安定拡散 v2-1) からフロー マッチング モデルにほとんど変換せずに転送することに成功したことを?qū)g証します。依存関係トレーニング データを使用するため、現(xiàn)実世界の畫像は必要ありません。

補(bǔ)助表面法線損失: DepthFM が合成データでのみトレーニングされていることを考慮すると、ほとんどの合成データ セットはグラウンド トゥルースの表面法線を提供し、表面法線損失は補(bǔ)助ターゲットとして使用されます。 DepthFM 深度推定の精度を向上させます。

6. Результаты экспериментов

DepthFM демонстрирует значительную способность к обобщению, обучаясь только на 63 тысячах чисто синтетических образцов, и может выполнять обучение нулевого уровня на наборах данных внутри и снаружи. Оценка глубины выстрела. В таблице 1 качественно показано сравнение производительности DepthFM с соответствующими современными моделями. В то время как другие модели часто полагаются на большие наборы данных для обучения, DepthFM использует богатые знания, присущие базовой модели, основанной на диффузии. Этот метод не только экономит вычислительные ресурсы, но и подчеркивает адаптивность и эффективность обучения модели.

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!

Сравнение оценки глубины Marigold на основе диффузии, эталонного теста Flow Matching (FM) и модели DepthFM. Каждый метод оценивается с использованием только одного члена ансамбля и с различным количеством оценок функций (NFE) на двух общих эталонных наборах данных. По сравнению с базовой линией FM, DepthFM объединяет нормальные потери и связь, зависящую от данных во время обучения.

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!

Качественные результаты для моделей Marigold и DepthFM при различном количестве функциональных оценок. Стоит отметить, что Marigold не дает никаких значимых результатов посредством одношагового вывода, в то время как результаты DepthFM уже показывают реальную карту глубины.

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!

Выполните глубокое завершение в Hypersim. Слева: придание глубины. Средняя: Глубина оценивается на основе заданной частичной глубины. Справа: Истинная глубина.

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計(jì)!

#7.Резюме

DepthFM, метод сопоставления потоков для монокулярной оценки глубины. Путем изучения прямого сопоставления между входным изображением и глубиной, а не шумоподавления нормального распределения в карте глубины, этот подход значительно более эффективен, чем текущие решения на основе диффузии, но при этом обеспечивает мелкозернистые карты глубины без общих артефактов дискриминационной парадигмы. . DepthFM использует предварительно обученную модель диффузии изображения в качестве априорной, эффективно передавая ее в модель сопоставления глубокого потока. Таким образом, DepthFM обучается только на синтетических данных, но при этом хорошо обобщает естественные изображения во время вывода. Кроме того, было показано, что нормальные потери на вспомогательной поверхности улучшают оценку глубины. Облегченный подход DepthFM является конкурентоспособным, быстрым и обеспечивает надежные достоверные оценки.

Читатели, которых интересуют дополнительные экспериментальные результаты и подробности статьи, могут прочитать оригинальную статью

以上がオープンソース!ゾーイデプスを超えて! DepthFM: 高速かつ正確な単眼深度推定!の詳細(xì)內(nèi)容です。詳細(xì)については、PHP 中國(guó)語 Web サイトの他の関連記事を參照してください。

このウェブサイトの聲明
この記事の內(nèi)容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰屬します。このサイトは、それに相當(dāng)する法的責(zé)任を負(fù)いません。盜作または侵害の疑いのあるコンテンツを見つけた場(chǎng)合は、admin@php.cn までご連絡(luò)ください。

ホットAIツール

Undress AI Tool

Undress AI Tool

脫衣畫像を無料で

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード寫真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

寫真から衣服を削除するオンライン AI ツール。

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡(jiǎn)単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中國(guó)語版

SublimeText3 中國(guó)語版

中國(guó)語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強(qiáng)力な PHP 統(tǒng)合開発環(huán)境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

ddrescue を使用して Linux 上のデータを回復(fù)する ddrescue を使用して Linux 上のデータを回復(fù)する Mar 20, 2024 pm 01:37 PM

DDREASE は、ハード ドライブ、SSD、RAM ディスク、CD、DVD、USB ストレージ デバイスなどのファイル デバイスまたはブロック デバイスからデータを回復(fù)するためのツールです。あるブロック デバイスから別のブロック デバイスにデータをコピーし、破損したデータ ブロックを殘して正常なデータ ブロックのみを移動(dòng)します。 ddreasue は、回復(fù)操作中に干渉を必要としないため、完全に自動(dòng)化された強(qiáng)力な回復(fù)ツールです。さらに、ddasue マップ ファイルのおかげでいつでも停止および再開できます。 DDREASE のその他の主要な機(jī)能は次のとおりです。 リカバリされたデータは上書きされませんが、反復(fù)リカバリの場(chǎng)合にギャップが埋められます。ただし、ツールに明示的に指示されている場(chǎng)合は切り詰めることができます。複數(shù)のファイルまたはブロックから単一のファイルにデータを復(fù)元します

オープンソース!ゾーイデプスを超えて! DepthFM: 高速かつ正確な単眼深度推定! オープンソース!ゾーイデプスを超えて! DepthFM: 高速かつ正確な単眼深度推定! Apr 03, 2024 pm 12:04 PM

0.この記事は何をするのですか?私たちは、多用途かつ高速な最先端の生成単眼深度推定モデルである DepthFM を提案します。従來の深度推定タスクに加えて、DepthFM は深度修復(fù)などの下流タスクでも最先端の機(jī)能を?qū)g証します。 DepthFM は効率的で、いくつかの推論ステップ內(nèi)で深度マップを合成できます。この作品について一緒に読みましょう? 1. 論文情報(bào)タイトル: DepthFM: FastMonocularDepthEstimationwithFlowMatching 著者: MingGui、JohannesS.Fischer、UlrichPrestel、PingchuanMa、Dmytr

こんにちは、電気アトラスです!ボストン?ダイナミクスのロボットが復(fù)活、180度の奇妙な動(dòng)きにマスク氏も恐怖 こんにちは、電気アトラスです!ボストン?ダイナミクスのロボットが復(fù)活、180度の奇妙な動(dòng)きにマスク氏も恐怖 Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas は正式に電動(dòng)ロボットの時(shí)代に突入します!昨日、油圧式アトラスが歴史の舞臺(tái)から「涙ながらに」撤退したばかりですが、今日、ボストン?ダイナミクスは電動(dòng)式アトラスが稼働することを発表しました。ボストン?ダイナミクス社は商用人型ロボットの分野でテスラ社と競(jìng)爭(zhēng)する決意を持っているようだ。新しいビデオが公開されてから、わずか 10 時(shí)間ですでに 100 萬人以上が視聴しました。古い人が去り、新しい役割が現(xiàn)れるのは歴史的な必然です。今年が人型ロボットの爆発的な年であることは間違いありません。ネットユーザーは「ロボットの進(jìn)歩により、今年の開會(huì)式は人間のように見え、人間よりもはるかに自由度が高い。しかし、これは本當(dāng)にホラー映畫ではないのか?」とコメントした。ビデオの冒頭では、アトラスは仰向けに見えるように地面に靜かに橫たわっています。次に続くのは驚くべきことです

Google は大喜び: JAX のパフォーマンスが Pytorch や TensorFlow を上回りました! GPU 推論トレーニングの最速の選択肢となる可能性があります Google は大喜び: JAX のパフォーマンスが Pytorch や TensorFlow を上回りました! GPU 推論トレーニングの最速の選択肢となる可能性があります Apr 01, 2024 pm 07:46 PM

Google が推進(jìn)する JAX のパフォーマンスは、最近のベンチマーク テストで Pytorch や TensorFlow のパフォーマンスを上回り、7 つの指標(biāo)で 1 位にランクされました。また、テストは最高の JAX パフォーマンスを備えた TPU では行われませんでした。ただし、開発者の間では、依然として Tensorflow よりも Pytorch の方が人気があります。しかし、將來的には、おそらくより大規(guī)模なモデルが JAX プラットフォームに基づいてトレーニングされ、実行されるようになるでしょう。モデル 最近、Keras チームは、ネイティブ PyTorch 実裝を使用して 3 つのバックエンド (TensorFlow、JAX、PyTorch) をベンチマークし、TensorFlow を使用して Keras2 をベンチマークしました。まず、主流のセットを選択します

iPhoneのセルラーデータインターネット速度が遅い:修正 iPhoneのセルラーデータインターネット速度が遅い:修正 May 03, 2024 pm 09:01 PM

iPhone のモバイル データ接続に遅延や遅い問題が発生していませんか?通常、攜帯電話の攜帯インターネットの強(qiáng)度は、地域、攜帯ネットワークの種類、ローミングの種類などのいくつかの要因によって異なります。より高速で信頼性の高いセルラー インターネット接続を?qū)g現(xiàn)するためにできることがいくつかあります。解決策 1 – iPhone を強(qiáng)制的に再起動(dòng)する 場(chǎng)合によっては、デバイスを強(qiáng)制的に再起動(dòng)すると、攜帯電話接続を含む多くの機(jī)能がリセットされるだけです。ステップ 1 – 音量を上げるキーを 1 回押して放します。次に、音量小キーを押して、もう一度放します。ステップ 2 – プロセスの次の部分は、右側(cè)のボタンを押し続けることです。 iPhone の再起動(dòng)が完了するまで待ちます。セルラーデータを有効にし、ネットワーク速度を確認(rèn)します。もう一度確認(rèn)してください 修正 2 – データ モードを変更する 5G はより優(yōu)れたネットワーク速度を提供しますが、信號(hào)が弱い場(chǎng)合はより適切に機(jī)能します

テスラのロボットは工場(chǎng)で働く、マスク氏:手の自由度は今年22に達(dá)する! テスラのロボットは工場(chǎng)で働く、マスク氏:手の自由度は今年22に達(dá)する! May 06, 2024 pm 04:13 PM

テスラのロボット「オプティマス」の最新映像が公開され、すでに工場(chǎng)內(nèi)で稼働可能となっている。通常の速度では、バッテリー(テスラの4680バッテリー)を次のように分類します:公式は、20倍の速度でどのように見えるかも公開しました - 小さな「ワークステーション」上で、ピッキング、ピッキング、ピッキング:今回は、それがリリースされたハイライトの1つビデオの內(nèi)容は、オプティマスが工場(chǎng)內(nèi)でこの作業(yè)を完全に自律的に行??い、プロセス全體を通じて人間の介入なしに完了するというものです。そして、オプティマスの観點(diǎn)から見ると、自動(dòng)エラー修正に重點(diǎn)を置いて、曲がったバッテリーを拾い上げたり配置したりすることもできます。オプティマスのハンドについては、NVIDIA の科學(xué)者ジム ファン氏が高く評(píng)価しました。オプティマスのハンドは、世界の 5 本指ロボットの 1 つです。最も器用。その手は觸覚だけではありません

アメリカ空軍が初のAI戦闘機(jī)を公開し注目を集める!大臣はプロセス全體を通じて干渉することなく個(gè)人的にテストを?qū)g施し、10萬行のコードが21回にわたってテストされました。 アメリカ空軍が初のAI戦闘機(jī)を公開し注目を集める!大臣はプロセス全體を通じて干渉することなく個(gè)人的にテストを?qū)g施し、10萬行のコードが21回にわたってテストされました。 May 07, 2024 pm 05:00 PM

最近、軍事界は、米軍戦闘機(jī)が AI を使用して完全自動(dòng)空戦を完了できるようになったというニュースに圧倒されました。そう、つい最近、米軍のAI戦闘機(jī)が初めて公開され、その謎が明らかになりました。この戦闘機(jī)の正式名稱は可変安定性飛行シミュレーター試験機(jī)(VISTA)で、アメリカ空軍長(zhǎng)官が自ら飛行させ、一対一の空戦をシミュレートした。 5 月 2 日、フランク ケンダル米國(guó)空軍長(zhǎng)官は X-62AVISTA でエドワーズ空軍基地を離陸しました。1 時(shí)間の飛行中、すべての飛行動(dòng)作が AI によって自律的に完了されたことに注目してください。ケンダル氏は「過去數(shù)十年にわたり、私たちは自律型空対空戦闘の無限の可能性について考えてきたが、それは常に手の屆かないものだと思われてきた」と語った。しかし今では、

超知性の生命力が覚醒する!しかし、自己更新 AI の登場(chǎng)により、母親はデータのボトルネックを心配する必要がなくなりました。 超知性の生命力が覚醒する!しかし、自己更新 AI の登場(chǎng)により、母親はデータのボトルネックを心配する必要がなくなりました。 Apr 29, 2024 pm 06:55 PM

世界は狂ったように大きなモデルを構(gòu)築していますが、インターネット上のデータだけではまったく不十分です。このトレーニング モデルは「ハンガー ゲーム」のようであり、世界中の AI 研究者は、データを貪欲に食べる人たちにどのように餌を與えるかを心配しています。この問題は、マルチモーダル タスクで特に顕著です。何もできなかった當(dāng)時(shí)、中國(guó)人民大學(xué)學(xué)部のスタートアップチームは、獨(dú)自の新しいモデルを使用して、中國(guó)で初めて「モデル生成データフィード自體」を?qū)g現(xiàn)しました。さらに、これは理解側(cè)と生成側(cè)の 2 つの側(cè)面からのアプローチであり、両方の側(cè)で高品質(zhì)のマルチモーダルな新しいデータを生成し、モデル自體にデータのフィードバックを提供できます。モデルとは何ですか? Awaker 1.0 は、中関村フォーラムに登場(chǎng)したばかりの大型マルチモーダル モデルです。チームは誰ですか?ソフォンエンジン。人民大學(xué)ヒルハウス人工知能大學(xué)院の博士課程學(xué)生、ガオ?イージャオ氏によって設(shè)立されました。

See all articles