国产av日韩一区二区三区精品,成人性爱视频在线观看,国产,欧美,日韩,一区,www.成色av久久成人,2222eeee成人天堂

目錄
入門相關(guān)知識
1.預(yù)習(xí)的論文有沒有切入順序?
2.行為預(yù)測是軌跡預(yù)測嗎
3.請問Argoverse資料集裡提到的資料組成中,labels and targets指的是什麼呢? labels是指要預(yù)測時間段內(nèi)的ground truth嗎
4.路徑規(guī)劃一般考慮低速與靜態(tài)障礙物 ?軌跡預(yù)測結(jié)合的功能是? ?關(guān)鍵snapshot?
5.軌跡預(yù)測對於車輛動力學(xué)模型的要求高嗎?就是需要數(shù)學(xué)和汽車?yán)碚摰葋斫⒁粋€精準(zhǔn)的車輛動力學(xué)模型麼?
6. 模糊的新手小白,應(yīng)該從哪裡在著手拓寬一下知識面(還不會代碼撰寫)
7.預(yù)測與決策啥關(guān)係捏,為啥我覺得好像預(yù)測沒那麼重要?
8.目前頭公司,一般預(yù)測是屬於感知大模組還是規(guī)控大模組?
#9.argoverse的這種車道中線地圖,在路口裡面沒有車道線的地方是怎麼得到的呀?
10.用軌跡預(yù)測寫論文的話,哪篇論文的程式碼可以做baseline?
11.現(xiàn)在軌跡預(yù)測基本上都依賴地圖,如果換一個新的地圖環(huán)境,原模型是否就不適用了,要重新訓(xùn)練嗎?
12.對多模態(tài)輸出而言,選擇最佳軌跡的時候是根據(jù)機(jī)率值最大的選嗎
軌跡預(yù)測基礎(chǔ)模組
1.Argoverse資料集裡HD-Map怎麼用,能結(jié)合motion forecast作為輸入,建立駕駛場景圖嗎,異構(gòu)圖又怎麼理解?
2.A-A互動考慮的是哪些車輛與被預(yù)測車輛的互動呢?
4. 什麼是以agent為中心?
5.軌跡預(yù)測裡yaw和heading是混用的嗎
7.請問Laplace loss和huber loss 對於軌跡預(yù)測所存在的優(yōu)劣勢在哪裡呢?如果我只預(yù)測一條車道線的話
8. 有拿VAE做軌跡預(yù)測的嗎,給個鏈接!
9. 請問大伙一個問題,就是Polyline到底是啥?另外說polyline由向量Vector組成,這些Vector是相當(dāng)于節(jié)點(diǎn)嗎?
10. 有的論文,像multipath++對于地圖兩個點(diǎn)就作為一個單元,有的像vectornet是一條線作為一個單元,這兩種有什么區(qū)別嗎?
11.有什麼可以判斷score的平滑性嗎? 如果一定要做的話
12.hivt裡的軌跡沒有進(jìn)行縮放嗎,就比如×0.01 10這種。分佈盡量在0附近。我看有的方法就用了,有的方法就沒有。取捨該如何界定?
13.HiVT裡地圖的類別屬性經(jīng)過embedding之後為什麼和數(shù)值屬性是相加的,而不是concat?
14.作為用戶可能更關(guān)心的是,HiVT如果要實際部署的話,最小的硬體需求是多少?
15. 基於occupancy network的預(yù)測有什麼特別嗎?有沒有論文推薦?
#16.考慮規(guī)劃軌跡的預(yù)測有什麼論文推薦嗎?就是預(yù)測其他障礙物的時候,考慮自車的規(guī)劃軌跡?
#17.有沒有適合預(yù)測演算法進(jìn)行效能測試的模擬專案可以學(xué)習(xí)參考的呢
18.請問如何估計GPU顯存需要多大,如果使用Argoverse資料集的話,怎麼算
首頁 科技週邊 人工智慧 自動駕駛與軌跡預(yù)測看這篇就夠了!

自動駕駛與軌跡預(yù)測看這篇就夠了!

Feb 28, 2024 pm 07:20 PM
科技 自動駕駛 社群網(wǎng)路

軌跡預(yù)測在自動駕駛中承擔(dān)著重要的角色,自動駕駛軌跡預(yù)測是指透過分析車輛行駛過程中的各種數(shù)據(jù),預(yù)測車輛未來的行駛軌跡。作為自動駕駛的核心模組,軌跡預(yù)測的品質(zhì)對於下游的規(guī)劃控制至關(guān)重要。軌跡預(yù)測任務(wù)技術(shù)堆疊豐富,需熟悉自動駕駛動/靜態(tài)感知、高精地圖、車道線、神經(jīng)網(wǎng)路架構(gòu)(CNN&GNN&Transformer)技能等,入門難度很高!許多粉絲期望能夠盡快上手軌跡預(yù)測,少踩坑,今天就為大家盤點(diǎn)下軌跡預(yù)測常見的一些問題和入門學(xué)習(xí)方法!

入門相關(guān)知識

1.預(yù)習(xí)的論文有沒有切入順序?

A:先看survey,problem formulation, deep learning-based methods裡的sequential network,graph neural network和Evaluation。

2.行為預(yù)測是軌跡預(yù)測嗎

耦合和行為並不相同,耦合通常指目標(biāo)車可能採取的動作,例如變換車道、停車、超車、加速、左轉(zhuǎn)、右轉(zhuǎn)或直行。而軌跡則指具有時間資訊的具體未來位置點(diǎn)。

3.請問Argoverse資料集裡提到的資料組成中,labels and targets指的是什麼呢? labels是指要預(yù)測時間段內(nèi)的ground truth嗎

在右邊的表格中,OBJECT_TYPE欄通常代表自動駕駛車輛本身。資料集通常為每個場景指定一個或多個待預(yù)測的障礙物,並將這些待預(yù)測目標(biāo)稱為target或focal agent。有些資料集也會為每個障礙物提供語義標(biāo)籤,例如車輛、行人或自行車等。

Q2:車輛和行人的資料形式是一樣的嗎?我的意思是說,例如一個點(diǎn)雲(yún)點(diǎn)代表行人,幾十點(diǎn)代表車輛?

A:這種軌跡資料集裡面其實給的都是物體中心點(diǎn)的xyz座標(biāo),行人和車輛都是

Q3:argo1和argo2的資料集都是只指定了一個被預(yù)測的障礙物吧?那在做multi-agent prediction的時候 這兩個資料集是怎麼用的

argo1只指定了一個障礙物,而argo2卻可能指定了多達(dá)二十個。然而,即使只指定了一個障礙物,這並不會影響您模型的能力來預(yù)測多個障礙物。

4.路徑規(guī)劃一般考慮低速與靜態(tài)障礙物 ?軌跡預(yù)測結(jié)合的功能是? ?關(guān)鍵snapshot?

A:」預(yù)測「自車軌跡當(dāng)成自車規(guī)劃軌跡,可以參考uniad

5.軌跡預(yù)測對於車輛動力學(xué)模型的要求高嗎?就是需要數(shù)學(xué)和汽車?yán)碚摰葋斫⒁粋€精準(zhǔn)的車輛動力學(xué)模型麼?

A:nn網(wǎng)路基本上不需要哈,rule based的需要懂一些

6. 模糊的新手小白,應(yīng)該從哪裡在著手拓寬一下知識面(還不會代碼撰寫)

A:先看綜述,把心智圖整理出來,例如《Machine Learning for Autonomous Vehicle's Trajectory Prediction: A comprehensive survey, Challenges, and Future Research Directions》這篇綜述去看看英文原文

7.預(yù)測與決策啥關(guān)係捏,為啥我覺得好像預(yù)測沒那麼重要?

A1(stu): 默認(rèn)預(yù)測屬于感知吧,或者決策中隱含預(yù)測,反正沒有預(yù)測不行。A2(stu): 決策該規(guī)控做,有行為規(guī)劃,高級一點(diǎn)的就是做交互和博弈,有的公司會有單獨(dú)的交互博弈組

8.目前頭公司,一般預(yù)測是屬於感知大模組還是規(guī)控大模組?

A:預(yù)測是出他車軌跡,規(guī)控是出自車軌跡,這兩個軌跡還互相影響,所以預(yù)測一般放規(guī)控。

Q: 一些公開的資料,例如小鵬的感知xnet會同時出預(yù)測軌跡,這時候又感覺預(yù)測的工作是放在感知大模組下,還是說兩個模組都有自己的預(yù)測模組,目標(biāo)不一樣?

A:是會互相影響,所以有的地方預(yù)測和決策就是一組。例如自車規(guī)劃的軌跡意圖去擠別的車,他車一般狀況是會讓道的。所以有些工作會把自車的規(guī)劃當(dāng)成他車模型輸入的一部分??梢詤⒖枷翸2I(M2I: From Factored Marginal Trajectory Prediction to Interactive Prediction). 這篇思路差不多,可以了解?PiP: Planning-informed Trajectory Prediction for Autonomous Driving

#9.argoverse的這種車道中線地圖,在路口裡面沒有車道線的地方是怎麼得到的呀?

A: 人工標(biāo)註的

10.用軌跡預(yù)測寫論文的話,哪篇論文的程式碼可以做baseline?

A: hivt可以做baseline,蠻多人用的

11.現(xiàn)在軌跡預(yù)測基本上都依賴地圖,如果換一個新的地圖環(huán)境,原模型是否就不適用了,要重新訓(xùn)練嗎?

A: 有一定的泛化能力,不需要重新訓(xùn)練效果也還行

12.對多模態(tài)輸出而言,選擇最佳軌跡的時候是根據(jù)機(jī)率值最大的選嗎

A(stu): 選擇結(jié)果最好的Q2:結(jié)果最好是根據(jù)什么來判定呢?是根據(jù)概率值大小還是根據(jù)和gt的距離A: 實際在沒有g(shù)round truth的情況下,你要取“最好”的軌跡,那只能選擇相信預(yù)測概率值最大的那條軌跡了Q3: 那有g(shù)t的情況下,選擇最好軌跡的時候,根據(jù)和gt之間的end point或者average都可以是嗎A: 嗯嗯,看指標(biāo)咋定義

軌跡預(yù)測基礎(chǔ)模組

1.Argoverse資料集裡HD-Map怎麼用,能結(jié)合motion forecast作為輸入,建立駕駛場景圖嗎,異構(gòu)圖又怎麼理解?

A:這個課程裡都有講的,可以參考第二章,後續(xù)的第四章也會講. ?異構(gòu)圖和同構(gòu)圖的區(qū)別:同構(gòu)圖中,node的種類只有一種,一個node和另一個node的連結(jié)關(guān)係只有一種,例如在社交網(wǎng)絡(luò)中,可以想像node只有'人'這一個種類,edge只有'認(rèn)識'這一種連結(jié)。而人和人要嘛認(rèn)識,要嘛不認(rèn)識。但也可能細(xì)分有人,按讚,推文。則人和人可能透過認(rèn)識連接,人和推文可能透過按讚連接,人和人也可能透過按讚同一篇推文連接(meta path)。這裡節(jié)點(diǎn)、節(jié)點(diǎn)之間關(guān)係的多樣性表現(xiàn)就需要引入異構(gòu)圖了。異構(gòu)圖中,有很多種node。 node之間也有很多種連結(jié)關(guān)係(edge),這些連結(jié)關(guān)係的組合則種類更多(meta-path), 而這些node之間的關(guān)係有輕重之分,不同連結(jié)關(guān)係也有輕重之分。

2.A-A互動考慮的是哪些車輛與被預(yù)測車輛的互動呢?

A:可以選擇一定半徑範(fàn)圍內(nèi)的車,也可以考慮K近鄰的車,你甚至可以自己提出更高級的啟發(fā)式鄰居篩選策略,甚至有可能可以讓模型自己學(xué)出來兩輛車是否是鄰居

Q2:還是考慮一定範(fàn)圍內(nèi)的吧,那半徑大小有什麼選取的原則嗎?另外,選取的這些車輛是在哪個時間步下的呢

A:半徑的選擇很難有標(biāo)準(zhǔn)答案,這本質(zhì)上就是在問模型做預(yù)測的時候到底需要多遠(yuǎn)程的信息,有點(diǎn)像在選擇卷積核的大小對於第二個問題,我個人的準(zhǔn)則是,想要建模哪個時刻下物體之間的交互,就根據(jù)哪個時刻下的物體相對位置來選取鄰居

Q3:這樣的話對於歷史時域都要建模嗎?不同時間步下在一定範(fàn)圍內(nèi)的周邊車輛也會變化吧,還是說只考慮在當(dāng)前時刻的周邊車輛資訊

A:都行啊,看你模型怎麼設(shè)計

3.老師uniad端對端模型中預(yù)測部分有何缺陷啊?

A:只看它motion former的操作比較常規(guī),你在很多論文裡都會看到類似的SA和CA?,F(xiàn)在sota的模型很多都比較重,例如decoder會有循環(huán)的refine

A2:做的是marginal prediction不是joint prediction;2. prediction和planning是分開來做的,沒有明確考慮ego和周圍agent的互動博弈;3.用的是scene-centric representation,沒有考慮對稱性,效果必拉

Q2:啥是marginal prediction啊

#A:具體可以參考scene transformer

Q3:關(guān)於第三點(diǎn),scene centric沒有考慮對稱性,怎麼理解呢

#A:建議看HiVT, QCNet, MTR .當(dāng)然對於端到端模型來說對稱性的設(shè)計也不好做就是了

A2:可以理解成輸入的是scene的數(shù)據(jù),但在網(wǎng)路裡會建模成以每個目標(biāo)為中心視角去看它週邊的scene,這樣你就在forward裡得到了每個目標(biāo)以它自己為中心的編碼,後續(xù)可以再考慮這些編碼間的交互

自動駕駛與軌跡預(yù)測看這篇就夠了!

4. 什麼是以agent為中心?

A:每個agent有自己的local region,local region是以這個agent為中心

5.軌跡預(yù)測裡yaw和heading是混用的嗎

自動駕駛與軌跡預(yù)測看這篇就夠了!

A:可以理解為車頭朝向

6.argoverse地圖中的has_traffic_control這個屬性具體代表什麼意思?

A:其實我也不知道我理解的對不對,我猜是指某個lane是否被紅綠燈/stop sign/限速標(biāo)誌等所影響

7.請問Laplace loss和huber loss 對於軌跡預(yù)測所存在的優(yōu)劣勢在哪裡呢?如果我只預(yù)測一條車道線的話

A:兩個都試一下,哪個效果好哪個就有優(yōu)勢。 Laplace loss要效果好還是有些細(xì)節(jié)要注意的

Q2:是指參數(shù)要調(diào)的好嗎

A:Laplace loss相比L1 loss其實就是多預(yù)測了一個scale參數(shù)

Q3:對的但似乎這個我不知道有啥用如果只預(yù)測一個軌跡的話。感覺像是多餘的。我把它理解為不確定性 不知道是否正確

A:如果你從零推導(dǎo)過最小二乘法就會知道,MSE其實是假設(shè)了方差為常數(shù)的高斯分布的NLL。同理,L1 loss也是假設(shè)了方差為常數(shù)的Laplace分布的NLL。所以說LaplaceNLL也可以理解為方差非定值的L1 loss。這個方差是模型自己預(yù)測出來的。為了使loss更低,模型會給那些擬合得不太好的樣本一個比較大的方差,而給擬合得好的樣本比較小的方差

Q4:那是不是可以理解為對于非常隨機(jī)的數(shù)據(jù)集【軌跡數(shù)據(jù)存在缺幀 抖動】 就不太適合Laplace 因為模型需要去擬合這個方差?需要數(shù)據(jù)集質(zhì)量比較高

A:這個說法我覺得不一定成立。從效果上來看,會鼓勵模型優(yōu)先學(xué)習(xí)比較容易擬合的樣本,再去學(xué)習(xí)難學(xué)習(xí)的樣本

Q5:還想請問下這句話(Laplace loss要效果好還是有些細(xì)節(jié)要注意的)如何理解 A:主要是預(yù)測scale那里。在模型上,預(yù)測location的分支和預(yù)測scale的分支要盡量解耦,不要讓他們相互干擾。預(yù)測scale的分支要保證輸出結(jié)果>0,一般人會用exp作為激活函數(shù)保證非負(fù),但是我發(fā)現(xiàn)用ELU +1會更好。然后其實scale的下界最好不要是0,最好讓scale>0.01或者>0.1啥的。以上都是個人看法。其實我開源的代碼(周梓康大佬的github開源代碼)里都有這些細(xì)節(jié),不過可能大家不一定注意到。

給出鏈接:https://github.com/ZikangZhou/QCNet

https://github.com/ZikangZhou/HiVT

8. 有拿VAE做軌跡預(yù)測的嗎,給個鏈接!

https://github.com/L1aoXingyu/pytorch-beginner/tree/master/08-AutoEncoder

9. 請問大伙一個問題,就是Polyline到底是啥?另外說polyline由向量Vector組成,這些Vector是相當(dāng)于節(jié)點(diǎn)嗎?

A:Polyline就是折線,折線就是一段一段的,每一段都可以看成是一段向量Q2:請問這個折線段和圖神經(jīng)網(wǎng)絡(luò)的節(jié)點(diǎn)之間的邊有關(guān)系嗎?或者說Polyline這個折現(xiàn)向量相當(dāng)于是圖神經(jīng)網(wǎng)絡(luò)當(dāng)中的節(jié)點(diǎn)還是邊呀?A:一根折線可以理解為一個節(jié)點(diǎn)。軌跡預(yù)測里面沒有明確定義的邊,邊如何定義取決于你怎么理解這個問題。Q3: VectorNet里面有很多個子圖,每個子圖下面有很多個Polyline,把Polyline當(dāng)做向量的話,就相當(dāng)于把Polyline這個節(jié)點(diǎn)變成了向量,相當(dāng)于將節(jié)點(diǎn)進(jìn)行特征向量化對嗎?然后Polyline里面有多個Vector向量,就是相當(dāng)于是構(gòu)成這個節(jié)點(diǎn)的特征矩陣么?A: 一個地圖里有很多條polyline;一個Polyline就是一個子圖;一個polyline由很多段比較短的向量組成,每一段向量都是子圖上的一個節(jié)點(diǎn)

10. 有的論文,像multipath++對于地圖兩個點(diǎn)就作為一個單元,有的像vectornet是一條線作為一個單元,這兩種有什么區(qū)別嗎?

A: 節(jié)點(diǎn)的粒度不同,要說效果的話那得看具體實現(xiàn);速度的話,顯然粒度越粗效率越高Q2:從效果角度看,什么時候選用哪種有沒有什么原則?A: 沒有原則,都可以嘗試

11.有什麼可以判斷score的平滑性嗎? 如果一定要做的話

A: 這個需要你輸入是流動的輸入例如0-19和1-20幀接著比較兩幀之間的對應(yīng)軌跡的score的差的平方,統(tǒng)計下就可以了

Q2: Thomas老師有哪些指標(biāo)推薦呢,我目前用一階導(dǎo)數(shù)和二階導(dǎo)數(shù)。但好像不是很明顯,絕大多數(shù)一階導(dǎo)和二階導(dǎo)都集中在0附近。

A: 我感覺連續(xù)影格的對應(yīng)軌跡的score的差值平方就可以了呀,例如你有連續(xù)n個輸入,求和再除以n。但是scene是即時變化的,發(fā)生互動或從非路口到路口的時候score就應(yīng)該是突變的

12.hivt裡的軌跡沒有進(jìn)行縮放嗎,就比如×0.01 10這種。分佈盡量在0附近。我看有的方法就用了,有的方法就沒有。取捨該如何界定?

A:就是把資料標(biāo)準(zhǔn)化歸一化唄。可能有點(diǎn)用 但應(yīng)該不多

13.HiVT裡地圖的類別屬性經(jīng)過embedding之後為什麼和數(shù)值屬性是相加的,而不是concat?

A:相加和concat區(qū)別不大,而對於類別embedding和數(shù)值embedding融合來說,實際上完全等價

Q2: 完全等價應(yīng)該怎麼理解?

A: 兩者Concat之後再過一層線性層,實際上等價於把數(shù)值embedding過一層線性層以及把類別embedding過一層線性層後,兩者再相加起來.把類別embedding過一層線性層其實沒啥意義,理論上這一層線性層可以跟nn.Embeddding裡面的參數(shù)融合起來

14.作為用戶可能更關(guān)心的是,HiVT如果要實際部署的話,最小的硬體需求是多少?

A:我不知道,但根據(jù)我了解到的信息,不知道是NV還是哪家車廠是拿HiVT來預(yù)測行人的,所以實際部署肯定是可行的

15. 基於occupancy network的預(yù)測有什麼特別嗎?有沒有論文推薦?

A:目前基於occupancy的未來預(yù)測的方案裡面最有前途的應(yīng)該是這個:https://arxiv.org/abs/2308.01471

#16.考慮規(guī)劃軌跡的預(yù)測有什麼論文推薦嗎?就是預(yù)測其他障礙物的時候,考慮自車的規(guī)劃軌跡?

A:這個可能公開的資料集比較困難,一般不會提供自車的規(guī)劃軌跡。上古時期有一篇叫做PiP的,港科Haoran Song。我感覺那種做conditional prediction的文章都可以算是你想要的,例如M2I

#17.有沒有適合預(yù)測演算法進(jìn)行效能測試的模擬專案可以學(xué)習(xí)參考的呢

A(stu):這篇論文有討論:Choose Your Simulator Wisely A Review on Open-source Simulators for Autonomous Driving

18.請問如何估計GPU顯存需要多大,如果使用Argoverse資料集的話,怎麼算

A:和怎麼用有關(guān)係,之前跑hivt我1070都可以,現(xiàn)在一般電腦應(yīng)該都可以

原文連結(jié):https:/ /mp.weixin.qq.com/s/EEkr8g4w0s2zhS_jmczUiA

以上是自動駕駛與軌跡預(yù)測看這篇就夠了!的詳細(xì)內(nèi)容。更多資訊請關(guān)注PHP中文網(wǎng)其他相關(guān)文章!

本網(wǎng)站聲明
本文內(nèi)容由網(wǎng)友自願投稿,版權(quán)歸原作者所有。本站不承擔(dān)相應(yīng)的法律責(zé)任。如發(fā)現(xiàn)涉嫌抄襲或侵權(quán)的內(nèi)容,請聯(lián)絡(luò)admin@php.cn

熱AI工具

Undress AI Tool

Undress AI Tool

免費(fèi)脫衣圖片

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅(qū)動的應(yīng)用程序,用於創(chuàng)建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費(fèi)的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費(fèi)的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強(qiáng)大的PHP整合開發(fā)環(huán)境

Dreamweaver CS6

Dreamweaver CS6

視覺化網(wǎng)頁開發(fā)工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

熱門話題

Laravel 教程
1600
29
PHP教程
1502
276
微信刪除的人如何找回(簡單教學(xué)告訴你如何恢復(fù)被刪除的聯(lián)絡(luò)人) 微信刪除的人如何找回(簡單教學(xué)告訴你如何恢復(fù)被刪除的聯(lián)絡(luò)人) May 01, 2024 pm 12:01 PM

而後悔莫及、人們常常會因為一些原因不小心刪除某些聯(lián)絡(luò)人、微信作為一款廣泛使用的社群軟體。幫助用戶解決這個問題,本文將介紹如何透過簡單的方法找回被刪除的聯(lián)絡(luò)人。 1.了解微信聯(lián)絡(luò)人刪除機(jī)制這為我們找回被刪除的聯(lián)絡(luò)人提供了可能性、微信中的聯(lián)絡(luò)人刪除機(jī)制是將其從通訊錄中移除,但並未完全刪除。 2.使用微信內(nèi)建「通訊錄恢復(fù)」功能微信提供了「通訊錄恢復(fù)」節(jié)省時間和精力,使用者可以透過此功能快速找回先前刪除的聯(lián)絡(luò)人,功能。 3.進(jìn)入微信設(shè)定頁面點(diǎn)選右下角,開啟微信應(yīng)用程式「我」再點(diǎn)選右上角設(shè)定圖示、進(jìn)入設(shè)定頁面,,

抖音私訊加好友話術(shù)怎麼設(shè)定?私訊加好友話術(shù)怎麼說? 抖音私訊加好友話術(shù)怎麼設(shè)定?私訊加好友話術(shù)怎麼說? May 02, 2024 am 11:31 AM

抖音私訊功能,無疑成為人們溝通互動的重要方式。如何設(shè)定合適的抖音私訊加好友術(shù)語,讓自己在眾多請求中脫穎而出,贏得別人的關(guān)注和認(rèn)可,成為許多用戶關(guān)心的問題。一、抖音私訊加好友話術(shù)怎麼設(shè)定?在發(fā)送私訊時,首先要有一個吸引人的開場白??梢院唵谓榻B自己,例如「你好,我是XX,很高興在抖音上看到了你的作品,覺得你很優(yōu)秀,在抖音上看到你的作品,覺得你很優(yōu)秀,希望能夠交流學(xué)習(xí)。希望你能夠有更多機(jī)會交流學(xué)習(xí)。人們都喜歡被真誠讚美,因此在私訊中給予對方真誠的讚

自動駕駛場景中的長尾問題怎麼解決? 自動駕駛場景中的長尾問題怎麼解決? Jun 02, 2024 pm 02:44 PM

昨天面試被問到了是否做過長尾相關(guān)的問題,所以就想著簡單總結(jié)一下。自動駕駛長尾問題是指自動駕駛汽車中的邊緣情況,即發(fā)生機(jī)率較低的可能場景。感知的長尾問題是目前限制單車智慧自動駕駛車輛運(yùn)行設(shè)計域的主要原因之一。自動駕駛的底層架構(gòu)和大部分技術(shù)問題已經(jīng)解決,剩下的5%的長尾問題,逐漸成了限制自動駕駛發(fā)展的關(guān)鍵。這些問題包括各種零碎的場景、極端的情況和無法預(yù)測的人類行為。自動駕駛中的邊緣場景"長尾"是指自動駕駛汽車(AV)中的邊緣情況,邊緣情況是發(fā)生機(jī)率較低的可能場景。這些罕見的事件

FisheyeDetNet:首個以魚眼相機(jī)為基礎(chǔ)的目標(biāo)偵測演算法 FisheyeDetNet:首個以魚眼相機(jī)為基礎(chǔ)的目標(biāo)偵測演算法 Apr 26, 2024 am 11:37 AM

目標(biāo)偵測在自動駕駛系統(tǒng)當(dāng)中是一個比較成熟的問題,其中行人偵測是最早得以部署演算法之一。在多數(shù)論文當(dāng)中已經(jīng)進(jìn)行了非常全面的研究。然而,利用魚眼相機(jī)進(jìn)行環(huán)視的距離感知相對來說研究較少。由於徑向畸變大,標(biāo)準(zhǔn)的邊界框表示在魚眼相機(jī)當(dāng)中很難實施。為了緩解上述描述,我們探索了擴(kuò)展邊界框、橢圓、通用多邊形設(shè)計為極座標(biāo)/角度表示,並定義一個實例分割mIOU度量來分析這些表示。所提出的具有多邊形形狀的模型fisheyeDetNet優(yōu)於其他模型,並同時在用於自動駕駛的Valeo魚眼相機(jī)資料集上實現(xiàn)了49.5%的mAP

LLM全搞定! OmniDrive:集3D感知、推理規(guī)劃於一體(英偉達(dá)最新) LLM全搞定! OmniDrive:集3D感知、推理規(guī)劃於一體(英偉達(dá)最新) May 09, 2024 pm 04:55 PM

寫在前面&筆者的個人理解這篇論文致力於解決當(dāng)前多模態(tài)大語言模型(MLLMs)在自動駕駛應(yīng)用中存在的關(guān)鍵挑戰(zhàn),即將MLLMs從2D理解擴(kuò)展到3D空間的問題。由於自動駕駛車輛(AVs)需要針對3D環(huán)境做出準(zhǔn)確的決策,這項擴(kuò)展顯得格外重要。 3D空間理解對於AV來說至關(guān)重要,因為它直接影響車輛做出明智決策、預(yù)測未來狀態(tài)以及與環(huán)境安全互動的能力。目前的多模態(tài)大語言模型(如LLaVA-1.5)通常只能處理較低解析度的影像輸入(例如),這是由於視覺編碼器的分辨率限制,LLM序列長度的限制。然而,自動駕駛應(yīng)用需

自動駕駛第一性之純視覺靜態(tài)重建 自動駕駛第一性之純視覺靜態(tài)重建 Jun 02, 2024 pm 03:24 PM

純視覺的標(biāo)註方案,主要利用視覺加上一些GPS、IMU和輪速感測器的資料進(jìn)行動態(tài)標(biāo)註。當(dāng)然面向量產(chǎn)場景的話,不一定要純視覺,有些量產(chǎn)的車輛裡面,會有像固態(tài)雷達(dá)(AT128)這樣的感測器。如果從量產(chǎn)的角度做資料閉環(huán),把這些感測器都用上,可以有效解決動態(tài)物體的標(biāo)註問題。但是我們的方案裡面,是沒有固態(tài)雷達(dá)的。所以,我們就介紹這個最通用的量產(chǎn)標(biāo)註方案。純視覺的標(biāo)註方案的核心在於高精度的pose重建。我們採用StructurefromMotion(SFM)的pose重建方案,來確保重建精確度。但是傳

一覽Occ與自動駕駛的前世今生!首篇綜述全面總結(jié)特徵增強(qiáng)/量產(chǎn)部署/高效標(biāo)註三大主題 一覽Occ與自動駕駛的前世今生!首篇綜述全面總結(jié)特徵增強(qiáng)/量產(chǎn)部署/高效標(biāo)註三大主題 May 08, 2024 am 11:40 AM

寫在前面&筆者的個人理解近年來,自動駕駛因其在減輕駕駛員負(fù)擔(dān)和提高駕駛安全方面的潛力而越來越受到關(guān)注?;兑曈X的三維佔(zhàn)用預(yù)測是一種新興的感知任務(wù),適用於具有成本效益且對自動駕駛安全全面調(diào)查的任務(wù)。儘管許多研究已經(jīng)證明,與基於物體為中心的感知任務(wù)相比,3D佔(zhàn)用預(yù)測工具具有更大的優(yōu)勢,但仍存在專門針對這一快速發(fā)展領(lǐng)域的綜述。本文首先介紹了基於視覺的3D佔(zhàn)用預(yù)測的背景,並討論了這項任務(wù)中遇到的挑戰(zhàn)。接下來,我們從特徵增強(qiáng)、部署友善性和標(biāo)籤效率三個面向全面探討了目前3D佔(zhàn)用預(yù)測方法的現(xiàn)況和發(fā)展趨勢。最後

solana和比特幣的區(qū)別 solana和比特幣的區(qū)別 Apr 30, 2024 pm 02:18 PM

Solana和比特幣在區(qū)塊鏈架構(gòu)、交易速度和成本、可擴(kuò)展性、智慧合約、用例、市值和流通供應(yīng)方面存在差異。 Solana擁有更高的可擴(kuò)展性、低廉的交易成本和對智能合約的支持,而比特幣則以其安全性、去中心化性和作為價值存儲的特性而聞名。根據(jù)不同的需求和偏好,這兩種加密貨幣可以滿足不同的市場需求。

See all articles