国产av日韩一区二区三区精品,成人性爱视频在线观看,国产,欧美,日韩,一区,www.成色av久久成人,2222eeee成人天堂

目錄
重回牌桌上的KAN
KAN的理論基礎(chǔ)
KAN架構(gòu)
實(shí)作細(xì)節(jié)
參數(shù)量
表現(xiàn)更強(qiáng)" >表現(xiàn)更強(qiáng)
互動解釋KAN
可解釋性驗(yàn)證
帕累托最適
求解偏微方程式
持續(xù)學(xué)習(xí),不會發(fā)生災(zāi)難性遺忘
發(fā)現(xiàn)紐結(jié)理論,結(jié)果超越DeepMind
物理Anderson局域化有解了
首頁 科技週邊 人工智慧 MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

May 06, 2024 pm 03:10 PM
ai 數(shù)學(xué)

一夕之間,機(jī)器學(xué)習(xí)範(fàn)式要變天了!

當(dāng)今,統(tǒng)治深度學(xué)習(xí)領(lǐng)域的基礎(chǔ)架構(gòu)就是,多層感知器(MLP)-將活化函數(shù)放置在神經(jīng)元上。

那麼,除此之外,我們是否還有新的路線可以走?

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

就在今天,來自MIT、加州理工學(xué)院、東北大學(xué)等機(jī)構(gòu)的團(tuán)隊(duì)重磅發(fā)布了,全新的神經(jīng)網(wǎng)路結(jié)構(gòu)-Kolmogorov–Arnold Networks(KAN)。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

研究人員對MLP做了一個簡單的改變,即將可學(xué)習(xí)的活化函數(shù)從節(jié)點(diǎn)(神經(jīng)元)移到邊(權(quán)重)上!

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

論文網(wǎng)址:https://arxiv.org/pdf/2404.19756

##這個改變乍一聽似乎毫無根據(jù),但它與數(shù)學(xué)中的「逼近理論」(approximation theories)有著相當(dāng)深刻的聯(lián)繫。

事實(shí)證明,Kolmogorov-Arnold表示對應(yīng)兩層網(wǎng)絡(luò),在邊上,而非節(jié)點(diǎn)上,有可學(xué)習(xí)的激活函數(shù)。

正是從表示定理得到啟發(fā),研究者用神經(jīng)網(wǎng)路顯式地,將Kolmogorov-Arnold表示參數(shù)化。

值得一提的是,KAN名字的由來,是為了紀(jì)念兩位偉大的已故數(shù)學(xué)家Andrey Kolmogorov和Vladimir Arnold。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

實(shí)驗(yàn)結(jié)果顯示,KAN比傳統(tǒng)的MLP有更優(yōu)越的效能,提升了神經(jīng)網(wǎng)路的準(zhǔn)確性和可解釋性。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

而最令人意想不到的是,KAN的視覺化和互動性,讓其在科學(xué)研究中具有潛在的應(yīng)用價值,能夠幫助科學(xué)家發(fā)現(xiàn)新的數(shù)學(xué)和物理規(guī)律。

研究中,作者用KAN重新發(fā)現(xiàn)了紐結(jié)理論(knot theory)中的數(shù)學(xué)定律!

而且,KAN以更小的網(wǎng)路和自動化方式,復(fù)現(xiàn)了DeepMind在2021年的結(jié)果。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

在物理方面,KAN可以幫助物理學(xué)家研究Anderson局域化(這是凝聚態(tài)物理中的一種相變)。

對了,順便提一句,研究中KAN的所有範(fàn)例(除了參數(shù)掃描),在單一CPU上不到10分鐘就可以復(fù)現(xiàn)。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

KAN的橫空出世,直接挑戰(zhàn)了一直以來統(tǒng)治機(jī)器學(xué)習(xí)領(lǐng)域的MLP架構(gòu),在全網(wǎng)掀起軒然大波。

機(jī)器學(xué)習(xí)新紀(jì)元開啟

有人直呼,機(jī)器學(xué)習(xí)的新紀(jì)元開始了!

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind#

GoogleDeepMind研究科學(xué)家稱,「Kolmogorov-Arnold再次出擊!一個鮮為人知的事實(shí)是:這個定理出現(xiàn)在一篇關(guān)於置換不變神經(jīng)網(wǎng)路(深度集)的開創(chuàng)性論文中,展示了這種表示與集合/GNN聚合器建構(gòu)方式(作為特例)之間的複雜聯(lián)繫」。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

一個全新的神經(jīng)網(wǎng)路架構(gòu)誕生了! KAN將大幅改變?nèi)斯ぶ腔鄣挠?xùn)練和微調(diào)方式。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

難道是AI進(jìn)入了2.0時代?

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

還有網(wǎng)友用通俗的語言,將KAN和MLP的區(qū)別,做了一個形象的比喻:

Kolmogorov-Arnold網(wǎng)路(KAN)就像一個可以烤任何蛋糕的三層蛋糕配方,而多層感知器(MLP)是一個有不同層數(shù)的客製化蛋糕。 MLP更複雜但更通用,而KAN是靜態(tài)的,但針對一項(xiàng)任務(wù)更簡單、更快速。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

論文作者,MIT教授Max Tegmark表示,最新論文表明,一種與標(biāo)準(zhǔn)神經(jīng)網(wǎng)路完全不同的架構(gòu),在處理有趣的物理和數(shù)學(xué)問題時,以更少的參數(shù)實(shí)現(xiàn)了更高的精度。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

接下來,一起來看看代表深度學(xué)習(xí)未來的KAN,是如何實(shí)現(xiàn)的?

重回牌桌上的KAN

KAN的理論基礎(chǔ)

柯爾莫哥洛夫-阿諾德定理(Kolmogorov–Arnold representation theorem)指出,如果f是定義在有界域上的多變量連續(xù)函數(shù),那麼該函數(shù)就可以表示為多個單變量、加法連續(xù)函數(shù)的有限組合。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

對於機(jī)器學(xué)習(xí)來說,問題可以描述為:學(xué)習(xí)高維函數(shù)的過程可以簡化成學(xué)習(xí)多項(xiàng)式數(shù)量的一維函數(shù)。

但這些一維函數(shù)可能是非光滑的,甚至是分形的(fractal),在實(shí)踐中可能無法學(xué)習(xí),也正是由於這種「病態(tài)行為」,柯爾莫哥洛夫-阿諾德表示定理在機(jī)器學(xué)習(xí)領(lǐng)域基本上被判了「死刑」,即理論正確,但實(shí)際上無用。

在這篇文章中,研究人員仍然對該定理在機(jī)器學(xué)習(xí)領(lǐng)域的應(yīng)用持樂觀態(tài)度,並提出了兩點(diǎn)改進(jìn):

1、原始方程式中,只有兩層非線性和一個隱藏層(2n 1),可以將網(wǎng)路泛化到任意寬度和深度;

2、科學(xué)和日常生活中的大多數(shù)函數(shù)大多是光滑的,並且具有稀疏的組合結(jié)構(gòu),可能有助於形成平滑的柯爾莫哥洛夫-阿諾德表示。類似於物理學(xué)家和數(shù)學(xué)家的區(qū)別,物理學(xué)家更關(guān)注典型場景,而數(shù)學(xué)家更關(guān)心最壞情況。

KAN架構(gòu)

柯爾莫哥洛夫-阿諾德網(wǎng)路(KAN)設(shè)計的核心思想是將多變量函數(shù)的逼近問題轉(zhuǎn)化為學(xué)習(xí)一組單變數(shù)函數(shù)的問題。在這個框架下,每個單變數(shù)函數(shù)可以用B樣條曲線來參數(shù)化,其中B樣條是一種局部的、分段的多項(xiàng)式曲線,其係數(shù)是可學(xué)習(xí)的。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

為了把原始定理中的兩層網(wǎng)路擴(kuò)展到更深、更寬,研究人員提出了一個更「泛化」的定理版本來支援設(shè)計KAN:

受MLPs層疊結(jié)構(gòu)來提升網(wǎng)路深度的啟發(fā),文中同樣引入了一個類似的概念,KAN層,由一個一維函數(shù)矩陣組成,每個函數(shù)都有可訓(xùn)練的參數(shù)。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

根據(jù)柯爾莫哥洛夫-阿諾德定理,原始的KAN層由內(nèi)部函數(shù)和外部函數(shù)組成,分別對應(yīng)於不同的輸入和輸出維度,這種堆疊KAN層的設(shè)計方法不僅擴(kuò)展了KANs的深度,而且保持了網(wǎng)路的可解釋性和表達(dá)能力,其中每個層都是由單變量函數(shù)組成的,可以對函數(shù)進(jìn)行單獨(dú)學(xué)習(xí)和理解。

下式中的f就等價於KAN

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

實(shí)作細(xì)節(jié)

雖然KAN的設(shè)計概念看起來簡單,純靠堆疊,但優(yōu)化起來也不容易,研究人員在訓(xùn)練過程中也摸索到了一些技巧。

1、殘差激活函數(shù):透過引入基底函數(shù)b(x)和樣條函數(shù)的組合,使用殘差連接的概念來建構(gòu)激活函數(shù)?(x),有助於訓(xùn)練過程的穩(wěn)定性。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

2、初始化尺度(scales):啟動函數(shù)的初始化設(shè)定為接近零的樣條函數(shù),權(quán)重w使用Xavier初始化方法,有助於在訓(xùn)練初期保持梯度的穩(wěn)定。

3、更新樣條網(wǎng)格:由於樣條函數(shù)定義在有界區(qū)間內(nèi),而神經(jīng)網(wǎng)路訓(xùn)練過程中活化值可能會超出這個區(qū)間,因此動態(tài)更新樣條網(wǎng)格可以確保樣條函數(shù)始終在適當(dāng)?shù)膮^(qū)間內(nèi)運(yùn)作。

參數(shù)量

1、網(wǎng)路深度:L

2、每層的寬度:N

3、每個樣條函數(shù)是基於G個區(qū)間(G 1個網(wǎng)格點(diǎn))定義的,k階(通常k=3)

所以KANs的參數(shù)量約為MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

作為對比,MLP的參數(shù)量為O(L*N^2),看起來比KAN效率更高,但KANs可以使用更小的層寬度(N),不僅可以提升泛化性能,還能提升可解釋性。

KAN比MLP,勝在了哪?

表現(xiàn)更強(qiáng)

作為合理性檢驗(yàn),研究人員建構(gòu)了五個已知具有平滑KA(柯爾莫哥洛夫-阿諾德)表示的例子作為驗(yàn)證資料集,透過每200步增加網(wǎng)格點(diǎn)的方式對KANs進(jìn)行訓(xùn)練,涵蓋G的範(fàn)圍為{3,5,10,20,50,100,200,500,1000}

#使用不同深度和寬度的MLPs作為基準(zhǔn)模型,並且KANs和MLPs都使用LBFGS演算法總共訓(xùn)練1800步,再用RMSE作為指標(biāo)進(jìn)行比較。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

#

從結(jié)果可以看到,KAN的曲線更抖,能夠快速收斂,達(dá)到平穩(wěn)狀態(tài);並且比MLP的縮放曲線更好,尤其是在高維的情況下。

也可以看到,三層KAN的表現(xiàn)要遠(yuǎn)遠(yuǎn)強(qiáng)於兩層,顯示更深的KANs具有更強(qiáng)的表達(dá)能力,符合預(yù)期。

互動解釋KAN

研究人員設(shè)計了一個簡單的迴歸實(shí)驗(yàn),以展現(xiàn)使用者可以在與KAN的互動過程中,獲得可解釋性最強(qiáng)的結(jié)果。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

假設(shè)使用者對於找出符號公式感興趣,總共需要經(jīng)過5個互動步驟。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

步驟 1:有稀疏化的訓(xùn)練。

從全連接的KAN開始,透過帶有稀疏化正則化的訓(xùn)練可以使網(wǎng)路變得更稀疏,從而可以發(fā)現(xiàn)隱藏層中,5個神經(jīng)元中的4個都看起來沒什麼作用。

步驟2:剪枝

自動剪枝後,丟棄掉所有無用的隱藏神經(jīng)元,只留下一個KAN,把激活函數(shù)匹配到已知的符號函數(shù)。

步驟3:設(shè)定符號函數(shù)

假設(shè)使用者可以正確地從盯著KAN圖表猜測出這些符號公式,就可以直接設(shè)定

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

如果使用者沒有領(lǐng)域知識或不知道這些激活函數(shù)可能是哪些符號函數(shù),研究人員提供了一個函數(shù)suggest_symbolic來建議符號候選項(xiàng)。

步驟4:進(jìn)一步訓(xùn)練

在網(wǎng)路中所有的激活函數(shù)都符號化之後,唯一剩下的參數(shù)就是仿射參數(shù);繼續(xù)訓(xùn)練仿射參數(shù),當(dāng)看到損失降到機(jī)器精度(machine precision)時,就能意識到模型已經(jīng)找到了正確的符號表達(dá)式。

步驟 5:輸出符號公式

#使用Sympy計算輸出節(jié)點(diǎn)的符號公式,驗(yàn)證正確答案。

可解釋性驗(yàn)證

研究人員首先在一個有監(jiān)督的玩具資料集中,設(shè)計了六個樣本,展現(xiàn)KAN網(wǎng)路在符號公式下的組合結(jié)構(gòu)能力。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

可以看到,KAN成功學(xué)習(xí)到了正確的單變數(shù)函數(shù),並透過視覺化的方式,可解釋地展現(xiàn)出KAN的思考過程。

在無監(jiān)督的設(shè)定下,資料集中只包含輸入特徵x,透過設(shè)計某些變數(shù)(x1, x2, x3)之間的聯(lián)繫,可以測試出KAN模型尋找變數(shù)之間依賴關(guān)係的能力。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

從結(jié)果來看,KAN模型成功找到了變數(shù)之間的函數(shù)依賴性,但作者也指出,目前仍然只是在合成數(shù)據(jù)上進(jìn)行實(shí)驗(yàn),還需要更有系統(tǒng)、更可控的方法來發(fā)現(xiàn)完整的關(guān)係。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

帕累托最適

#透過擬合特殊函數(shù),作者展示了KAN和MLP在由模型參數(shù)數(shù)量和RMSE損失跨越的平面中的帕累托前緣(Pareto Frontier)。

在所有特殊函數(shù)中,KAN總是比MLP有更好的帕累托前緣。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

求解偏微方程式

#在求解偏微方程式任務(wù)中,研究者繪製了預(yù)測解和真實(shí)解之間的L2平方和H1平方損失。

下圖中,前兩個是損失的訓(xùn)練動態(tài),第三和第四是損失函數(shù)數(shù)的擴(kuò)展定律(Sacling Law)。

如下結(jié)果所示,與MLP相比,KAN的收斂速度更快,損失更低,並且具有更陡峭的擴(kuò)展定律。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

持續(xù)學(xué)習(xí),不會發(fā)生災(zāi)難性遺忘

我們都知道,災(zāi)難性遺忘是機(jī)器學(xué)習(xí)中,一個嚴(yán)重的問題。

人工神經(jīng)網(wǎng)路和大腦之間的差異在於,大腦具有放置在空間局部功能的不同模組。當(dāng)學(xué)習(xí)新任務(wù)時,結(jié)構(gòu)重組僅發(fā)生在負(fù)責(zé)相關(guān)技能的局部區(qū)域,而其他區(qū)域則保持不變。

然而,大多數(shù)人工神經(jīng)網(wǎng)絡(luò),包括MLP,卻沒有這種局部性概念,這可能是災(zāi)難性遺忘的原因。

而研究證明了,KAN具有局部可塑性,並且可以利用樣條(splines)局部性,來避免災(zāi)難性遺忘。

這個想法非常簡單,由於樣條是局部的,樣本只會影響一些附近的樣條係數(shù),而遠(yuǎn)處的係數(shù)保持不變。

相較之下,由於MLP通常使用全域活化(如ReLU/Tanh/SiLU),因此,任何局部變化都可能不受控制地傳播到遠(yuǎn)處的區(qū)域,從而破壞儲存在那裡的資訊。

研究人員採用了一維回歸任務(wù)(由5個高斯峰組成)。每個峰值周圍的資料按順序(而不是一次全部)呈現(xiàn)給KAN和MLP。

結(jié)果如下圖所示,KAN僅重構(gòu)目前階段存在資料的區(qū)域,而使先前的區(qū)域保持不變。

而MLP在看到新的資料樣本後會重塑整個區(qū)域,導(dǎo)致災(zāi)難性的遺忘。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

發(fā)現(xiàn)紐結(jié)理論,結(jié)果超越DeepMind

KAN的誕生對於機(jī)器學(xué)習(xí)未來應(yīng)用,意味著什麼?

紐結(jié)理論(Knot theory)是低維拓?fù)鋵W(xué)中的一門學(xué)科,它揭示了三流形和四流形的拓?fù)鋯栴},並在生物學(xué)和拓?fù)淞孔佑嬎愕阮I(lǐng)域有著廣泛的應(yīng)用。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

2021年,DeepMind團(tuán)隊(duì)曾首次以AI證明了紐結(jié)理論(knot theory)登上了Nature。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

論文網(wǎng)址:https://www.nature.com/articles/s41586-021-04086-x

#這項(xiàng)研究中,透過監(jiān)督學(xué)習(xí)和人類領(lǐng)域?qū)<?,得出了一個與代數(shù)和幾何結(jié)不變量相關(guān)的新定理。

即梯度顯著性識別出了監(jiān)督問題的關(guān)鍵不變量,這使得領(lǐng)域?qū)<姨岢隽艘粋€猜想,隨後得到了完善和證明。

對此,作者研究KAN是否可以在同一問題上取得良好的可解釋結(jié)果,從而預(yù)測紐結(jié)的簽名。

在DeepMind實(shí)驗(yàn)中,他們研究紐結(jié)理論資料集的主要結(jié)果是:

1 ?利用網(wǎng)路歸因法發(fā)現(xiàn),簽章MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind主要取決於中間距離MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind和縱向距離λ。

2 人類領(lǐng)域?qū)<裔醽戆l(fā)現(xiàn)MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind與斜率有很高的相關(guān)性MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind並得到 MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

為了研究問題(1),作者將17個紐結(jié)不變量視為輸入,將簽章視為輸出。

與DeepMind中的設(shè)定類似,簽名(偶數(shù))被編碼為一熱向量,並且網(wǎng)路透過交叉熵?fù)p失進(jìn)行訓(xùn)練。

結(jié)果發(fā)現(xiàn),一個極小的KAN能夠達(dá)到81.6%的測試精度,而DeepMind的4層寬度300MLP,僅達(dá)到78%的測試精度。

如下表所示,KAN (G = 3, k = 3) 有約200參數(shù),而MLP約有300000參數(shù)量。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

值得注意的是,KAN不僅更準(zhǔn)確,而且更準(zhǔn)確。同時比MLP的參數(shù)效率更高。

在可解釋性方面,研究人員根據(jù)每個活化的大小來縮放其透明度,因此無需特徵歸因即可立即清楚,哪些輸入變數(shù)是重要的。

然後,在三個重要變數(shù)上訓(xùn)練KAN,獲得78.2%的測試準(zhǔn)確率。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

如下是,透過KAN,作者重新發(fā)現(xiàn)了紐結(jié)資料集中的三個數(shù)學(xué)關(guān)係。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

物理Anderson局域化有解了

而在物理應(yīng)用中,KAN也發(fā)揮了巨大的價值。

Anderson是一種基本現(xiàn)象,其中量子系統(tǒng)中的無序會導(dǎo)致電子波函數(shù)的局域化,從而使所有傳輸停止。

在一維和二維中,尺度論證表明,對於任何微小的隨機(jī)無序,所有的電子本徵態(tài)都呈指數(shù)級局域化。

相較之下,在三維中,一個臨界能量形成了一個相分界,將擴(kuò)展態(tài)和局域態(tài)分開,稱為移動性邊緣。

理解這些移動性邊緣對於解釋固體中的金屬-絕緣體轉(zhuǎn)變等各種基本現(xiàn)象至關(guān)重要,以及在光子設(shè)備中光的局域化效應(yīng)。

作者透過研究發(fā)現(xiàn),KANs使得提取移動性邊緣變得非常容易,無論是數(shù)值上的,還是符號上的。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

顯然,KAN已然成為科學(xué)家的得力助手、重要的合作者。

總而言之,得益於準(zhǔn)確性、參數(shù)效率和可解釋性的優(yōu)勢,KAN將是AI Science一個有用的模型/工具。

未來,KAN的進(jìn)一步在科學(xué)領(lǐng)域的應(yīng)用,仍有待挖掘。

MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind

以上是MLP一夜被幹掉! MIT加州理工等革命性KAN破紀(jì)錄,發(fā)現(xiàn)數(shù)學(xué)定理碾壓DeepMind的詳細(xì)內(nèi)容。更多資訊請關(guān)注PHP中文網(wǎng)其他相關(guān)文章!

本網(wǎng)站聲明
本文內(nèi)容由網(wǎng)友自願投稿,版權(quán)歸原作者所有。本站不承擔(dān)相應(yīng)的法律責(zé)任。如發(fā)現(xiàn)涉嫌抄襲或侵權(quán)的內(nèi)容,請聯(lián)絡(luò)admin@php.cn

熱AI工具

Undress AI Tool

Undress AI Tool

免費(fèi)脫衣圖片

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅(qū)動的應(yīng)用程序,用於創(chuàng)建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費(fèi)的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費(fèi)的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強(qiáng)大的PHP整合開發(fā)環(huán)境

Dreamweaver CS6

Dreamweaver CS6

視覺化網(wǎng)頁開發(fā)工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

2025年穩(wěn)定幣投資新手教程 如何選擇安全的穩(wěn)定幣平臺 2025年穩(wěn)定幣投資新手教程 如何選擇安全的穩(wěn)定幣平臺 Jul 07, 2025 pm 09:09 PM

新手用戶如何選擇安全可靠的穩(wěn)定幣平臺?本文推薦了2025年Top 10穩(wěn)定幣平臺,包括Binance、OKX、Bybit、Gate.io、HTX、KuCoin、MEXC、Bitget、CoinEx和ProBit,並從安全性、穩(wěn)定幣種類、流動性、用戶體驗(yàn)、手續(xù)費(fèi)結(jié)構(gòu)和額外功能等維度進(jìn)行對比分析。數(shù)據(jù)來源於CoinGecko、DefiLlama及社群評價,建議新手優(yōu)先選擇合規(guī)性強(qiáng)、操作簡便、支持中文的平臺,如KuCoin與CoinEx,並通過少量測試逐步建立信心。

幣圈動盪如何避險? TOP3穩(wěn)定幣榜單曝光 幣圈動盪如何避險? TOP3穩(wěn)定幣榜單曝光 Jul 08, 2025 pm 07:27 PM

在加密貨幣市場劇烈波動的背景下,投資者尋求資產(chǎn)保值的需求日益凸顯。本文旨在解答如何在動蕩的幣圈中進(jìn)行有效避險,將詳細(xì)介紹穩(wěn)定幣這一核心避險工具的概念,並通過分析當(dāng)前市場公認(rèn)度較高的選項(xiàng),提供一份TOP3穩(wěn)定幣榜單。文章會講解如何根據(jù)自身需求選擇和運(yùn)用這些穩(wěn)定幣,從而在不確定的市場環(huán)境中更好地管理風(fēng)險。

全球穩(wěn)定幣市值PK!誰才是熊市中的'黃金替代品 全球穩(wěn)定幣市值PK!誰才是熊市中的'黃金替代品 Jul 08, 2025 pm 07:24 PM

本文將圍繞全球主流穩(wěn)定幣展開探討,分析在市場下行週期(熊市)中,哪種穩(wěn)定幣更具備“黃金替代品”的避險屬性。我們將通過對比各穩(wěn)定幣的市值、背書機(jī)制、透明度以及綜合網(wǎng)絡(luò)上的普遍看法,來闡述如何判斷和選擇一個在熊市中相對穩(wěn)健的價值儲存工具,並對這個分析過程進(jìn)行講解。

幣圈熱度回歸,為什麼聰明人都開始悄悄加倉?從鏈上數(shù)據(jù)看趨勢,把握下一輪財富密碼! 幣圈熱度回歸,為什麼聰明人都開始悄悄加倉?從鏈上數(shù)據(jù)看趨勢,把握下一輪財富密碼! Jul 09, 2025 pm 08:30 PM

隨著市場行情的回暖,越來越多的聰明投資者開始在幣圈悄悄加倉,不少人疑惑,是什麼讓他們在大多數(shù)人觀望時果斷出手?本文將通過鏈上數(shù)據(jù)分析當(dāng)前趨勢,幫助讀者理解聰明資金的邏輯,從而更好地把握下一輪潛在的財富增長機(jī)會。

以太坊ETH最全歷史價格2010-2025明細(xì)回顧(2025年最新版) 以太坊ETH最全歷史價格2010-2025明細(xì)回顧(2025年最新版) Jul 07, 2025 pm 09:00 PM

以太坊價格從2015年的0.70美元漲至2025年的3,050美元,經(jīng)歷了多個關(guān)鍵階段。 1)2015-2016年,ETH從0.70美元上漲至2016年中的20.64美元;2)2017-2018年受ICO熱潮推動,2018年初達(dá)到1,417美元,隨後因監(jiān)管擔(dān)憂跌至80美元;3)2019-2020年穩(wěn)定在100-300美元區(qū)間,並在DeFi推動下升至737美元;4)2021年牛市中創(chuàng)下4,864美元新高,後因PoS轉(zhuǎn)型回落至1,200-2,000美元;5)2023-2024年波動上升至約3,000美

什麼是穩(wěn)定幣?穩(wěn)定幣種類有哪些?與美國國債是否有關(guān)係? 什麼是穩(wěn)定幣?穩(wěn)定幣種類有哪些?與美國國債是否有關(guān)係? Jul 07, 2025 pm 08:36 PM

穩(wěn)定幣是通過錨定特定資產(chǎn)以維持價值穩(wěn)定的數(shù)字貨幣,主要分為法定貨幣抵押型、加密資產(chǎn)抵押型和算法型三類,其中法定貨幣抵押型如USDT、USDC廣泛使用,其儲備常投資於美國國債,形成與傳統(tǒng)金融體系的緊密聯(lián)繫。

虛擬貨幣穩(wěn)定幣排行榜 哪些才是幣圈'避風(fēng)港” 虛擬貨幣穩(wěn)定幣排行榜 哪些才是幣圈'避風(fēng)港” Jul 08, 2025 pm 07:30 PM

本文將通過介紹幾種主流的穩(wěn)定幣,並深入講解如何從透明度、合規(guī)性等多個維度去評估一個穩(wěn)定幣的安全性,從而幫助您理解哪些穩(wěn)定幣在市場中被普遍認(rèn)為是相對可靠的選擇,以及學(xué)習(xí)如何自行判斷其“避險”屬性。

比特幣破新高,狗狗幣強(qiáng)勢反彈,以太坊是否還能跟上節(jié)奏 比特幣破新高,狗狗幣強(qiáng)勢反彈,以太坊是否還能跟上節(jié)奏 Jul 09, 2025 pm 08:24 PM

近期,比特幣刷新高點(diǎn),狗狗幣迎來強(qiáng)勢反彈,行情火熱。接下來從市場驅(qū)動因素和技術(shù)面分析,以便判斷以太坊是否還有跟漲機(jī)會。

See all articles