国产av日韩一区二区三区精品,成人性爱视频在线观看,国产,欧美,日韩,一区,www.成色av久久成人,2222eeee成人天堂

Inhaltsverzeichnis
Eine neue ?ra des maschinellen Lernens hat begonnen
KAN zurück am Pokertisch
Theoretische Basis von KAN
KAN-Architektur
Implementierungsdetails
Parameter: 1. Netzwerktiefe: L: 2. Breite jeder Ebene: N k-Reihenfolge (normalerweise k=3)
Interaktive Erkl?rung von KAN
In einer unbeaufsichtigten Umgebung enth?lt der Datensatz nur das Eingabemerkmal x. Durch die Gestaltung der Verbindung zwischen bestimmten Variablen (x1, x2, x3) kann die F?higkeit des KAN-Modells getestet werden, Abh?ngigkeiten zwischen Variablen zu finden.
Partielle Differentialgleichungen l?sen
Kontinuierliches Lernen, katastrophales Vergessen wird nicht auftreten
Entdeckte die Knotentheorie und die Ergebnisse übertrafen DeepMind
Heim Technologie-Peripherieger?te KI MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

May 06, 2024 pm 03:10 PM
ai Mathe

über Nacht wird sich das Paradigma des maschinellen Lernens ?ndern!

Heutzutage ist die Infrastruktur, die den Bereich des Deep Learning dominiert, das Multilayer Perceptron (MLP), das Aktivierungsfunktionen auf Neuronen platziert.

Gibt es darüber hinaus einen neuen Weg, den wir einschlagen k?nnen?

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Erst heute haben Teams vom MIT, dem California Institute of Technology, der Northeastern University und anderen Institutionen eine neue neuronale Netzwerkstruktur ver?ffentlicht – Kolmogorov-Arnold Networks (KAN).

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Die Forscher haben eine einfache ?nderung am MLP vorgenommen, n?mlich die lernbare Aktivierungsfunktion von den Knoten (Neuronen) zu den Kanten (Gewichten) zu verschieben!

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Papieradresse: https://arxiv.org/pdf/2404.19756

Diese ?nderung mag zun?chst unbegründet erscheinen, hat aber etwas mit ?Approximationstheorien“ in der Mathematik zu tun. Ziemlich tiefe Verbindung.

Es stellt sich heraus, dass die Kolmogorov-Arnold-Darstellung einem zweischichtigen Netzwerk entspricht, mit lernbaren Aktivierungsfunktionen an den Kanten, nicht an den Knoten.

Inspiriert vom Darstellungssatz verwendeten Forscher neuronale Netze, um die Kolmogorov-Arnold-Darstellung explizit zu parametrisieren.

Es ist erw?hnenswert, dass der Ursprung des Namens KAN im Gedenken an die beiden gro?en verstorbenen Mathematiker Andrey Kolmogorov und Vladimir Arnold liegt.

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Experimentelle Ergebnisse zeigen, dass KAN eine bessere Leistung als herk?mmliches MLP aufweist und die Genauigkeit und Interpretierbarkeit neuronaler Netze verbessert.

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Das Unerwartetste ist, dass die Visualisierung und Interaktivit?t von KAN ihm potenziellen Anwendungswert in der wissenschaftlichen Forschung verleiht und Wissenschaftlern dabei helfen kann, neue mathematische und physikalische Gesetze zu entdecken.

In der Recherche nutzte der Autor KAN, um die mathematischen Gesetze in der Knotentheorie wiederzuentdecken!

Darüber hinaus hat KAN die Ergebnisse von DeepMind im Jahr 2021 mit einem kleineren Netzwerk und Automatisierung wiederholt.

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

In der Physik kann KAN Physikern dabei helfen, die Anderson-Lokalisierung (einen Phasenübergang in der Physik der kondensierten Materie) zu untersuchen.

übrigens k?nnen alle KAN-Beispiele in der Studie (au?er Parameter-Scanning) in weniger als 10 Minuten auf einer einzelnen CPU reproduziert werden.

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Die Entstehung von KAN stellte eine direkte Herausforderung für die MLP-Architektur dar, die den Bereich des maschinellen Lernens schon immer dominiert hatte, und l?ste im gesamten Netzwerk Aufruhr aus.

Eine neue ?ra des maschinellen Lernens hat begonnen

Manche Leute sagen, dass eine neue ?ra des maschinellen Lernens begonnen hat!

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Google DeepMind-Forscher sagte: ?Kolmogorov-Arnold schl?gt erneut zu! Eine wenig bekannte Tatsache: Dieses Theorem erschien in einer wegweisenden Arbeit über permutationsinvariante neuronale Netze (Tiefenmengen) und zeigte, dass diese Darstellung einen komplexen Zusammenhang mit der Art und Weise zeigt, wie Ensembles/ GNN-Aggregatoren werden gebaut (als Sonderfall)“.

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Eine brandneue neuronale Netzwerkarchitektur war geboren! KAN wird die Art und Weise, wie künstliche Intelligenz trainiert und verfeinert wird, dramatisch ver?ndern.

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Ist die KI in die 2.0-?ra eingetreten?

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Einige Internetnutzer verwendeten eine popul?re Sprache, um eine anschauliche Metapher für den Unterschied zwischen KAN und MLP zu finden:

Das Kolmogorov-Arnold-Netzwerk (KAN) ist wie ein dreidimensionales Netzwerk, das jeden Kuchen backen kann . Ein Schichtkuchenrezept, w?hrend ein Multi-Layer Perceptron (MLP) ein individueller Kuchen mit unterschiedlicher Anzahl von Schichten ist. MLP ist komplexer, aber allgemeiner, w?hrend KAN statisch, aber einfacher und schneller für eine Aufgabe ist.

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Der Autor des Papiers, MIT-Professor Max Tegmark, sagte, dass das neueste Papier zeigt, dass eine v?llig andere Architektur als das standardm??ige neuronale Netzwerk bei der Bearbeitung interessanter physikalischer und mathematischer Probleme bessere Ergebnisse mit weniger Parametern erzielen kann . Hohe Pr?zision.

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Als n?chstes werfen wir einen Blick darauf, wie KAN, das die Zukunft des Deep Learning darstellt, implementiert wird?

KAN zurück am Pokertisch

Theoretische Basis von KAN

Der Kolmogorov-Arnold-Darstellungssatz (Kolmogorov-Arnold-Darstellungssatz) besagt, dass, wenn f auf einem begrenzten Gebiet definiert ist, eine kontinuierliche Funktion mit mehreren Variablen dann kann die Funktion als endliche Kombination mehrerer einvariabler, additiver stetiger Funktionen ausgedrückt werden.

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Für maschinelles Lernen kann das Problem wie folgt beschrieben werden: Der Prozess des Lernens einer hochdimensionalen Funktion kann vereinfacht werden, um eine eindimensionale Funktion einer Polynomgr??e zu lernen.

Aber diese eindimensionalen Funktionen k?nnen nicht glatt oder sogar fraktal sein und in der Praxis m?glicherweise nicht erlernt werden. Genau wegen dieses ?pathologischen Verhaltens“ wurde der Kolmogorov-Arnold-Darstellungssatz auf dem Gebiet der Maschine verwendet Beim Lernen wird es im Grunde zum ?Tod“ verurteilt, das hei?t, die Theorie ist richtig, aber in der Praxis nutzlos.

In diesem Artikel sind die Forscher immer noch optimistisch, was die Anwendung dieses Theorems im Bereich des maschinellen Lernens angeht, und schlagen zwei Verbesserungen vor:

1 In der ursprünglichen Gleichung gibt es nur zwei Ebenen der Nichtlinearit?t und eine verborgene Schicht (2n+1), die das Netzwerk auf beliebige Breite und Tiefe verallgemeinern kann

2 Die meisten Funktionen in der Wissenschaft und im t?glichen Leben sind gr??tenteils glatt und weisen sp?rliche kombinatorische Strukturen auf, die dazu beitragen k?nnen, eine glatte Kolmogorov-Struktur zu bilden. Arnold-Darstellung. ?hnlich wie beim Unterschied zwischen Physikern und Mathematikern befassen sich Physiker eher mit typischen Szenarien, w?hrend Mathematiker sich eher mit Worst-Case-Szenarien befassen.

KAN-Architektur

Die Kernidee des Entwurfs des Kolmogorov-Arnold-Netzwerks (KAN) besteht darin, das Approximationsproblem von Funktionen mit mehreren Variablen in das Problem des Lernens einer Reihe von Funktionen mit einer Variablen umzuwandeln. Innerhalb dieses Rahmens kann jede univariate Funktion mit einem B-Spline parametrisiert werden, einer lokalen, stückweisen Polynomkurve, deren Koeffizienten lernbar sind.

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Um das zweischichtige Netzwerk im ursprünglichen Satz tiefer und weiter zu erweitern, schlugen die Forscher eine ?verallgemeinerte“ Version des Satzes vor, um das Design von KAN zu unterstützen:

Beeinflusst durch die Stapelstruktur von MLPs Inspiriert durch die Verbesserung der Netzwerktiefe stellt der Artikel auch ein ?hnliches Konzept vor, die KAN-Schicht, die aus einer eindimensionalen Funktionsmatrix besteht und jede Funktion über trainierbare Parameter verfügt.

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Nach dem Kolmogorov-Arnold-Theorem besteht die ursprüngliche KAN-Schicht aus internen Funktionen und externen Funktionen, die jeweils unterschiedlichen Eingabe- und Ausgabedimensionen entsprechen. Diese Entwurfsmethode zum Stapeln von KAN-Schichten erweitert nicht nur die Tiefe von KANs und erh?lt die Interpretierbarkeit und Ausdruckskraft des Netzwerks. Jede Schicht besteht aus Funktionen mit einer Variablen, und die Funktionen k?nnen unabh?ngig voneinander gelernt und verstanden werden.

f in der folgenden Formel entspricht KAN

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Implementierungsdetails

Obwohl das Designkonzept von KAN einfach zu sein scheint und ausschlie?lich auf Stapeln basiert, ist es nicht einfach zu optimieren, was auch für Forscher gilt lernte w?hrend des Trainingsprozesses einige Techniken.

1. Restaktivierungsfunktion: Durch die Einführung einer Kombination aus Basisfunktion b(x) und Spline-Funktion und die Verwendung des Konzepts der Restverbindung zur Konstruktion der Aktivierungsfunktion ?(x) tr?gt es zur Stabilit?t des Trainings bei Verfahren.

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

2. Initialisierungsskalen (Skalen): Die Initialisierung der Aktivierungsfunktion wird auf eine Spline-Funktion nahe Null eingestellt, und das Gewicht w verwendet die Xavier-Initialisierungsmethode, die dazu beitr?gt, die Stabilit?t des Gradienten aufrechtzuerhalten in der Anfangsphase der Ausbildung.

3. Aktualisieren Sie das Spline-Gitter: Da die Spline-Funktion innerhalb eines begrenzten Intervalls definiert ist und der Aktivierungswert dieses Intervall w?hrend des Trainingsprozesses des neuronalen Netzwerks überschreiten kann, kann die dynamische Aktualisierung des Spline-Gitters sicherstellen, dass die Spline-Funktion immer funktioniert im entsprechenden Bereich liegen.

Parameter: 1. Netzwerktiefe: L: 2. Breite jeder Ebene: N k-Reihenfolge (normalerweise k=3)

Die Parametermenge von KANs betr?gt also ungef?hr

Zum Vergleich: Die Parametermenge von MLP ist O(L*N^2), was besser zu sein scheint als KAN ist effizienter, aber KANs k?nnen kleinere Schichtbreiten (N) verwenden, was nicht nur die Generalisierungsleistung, sondern auch die Interpretierbarkeit verbessert.

Inwiefern ist KAN besser als MLP?

St?rkere LeistungMLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Zur Plausibilit?tsprüfung konstruierten die Forscher fünf Beispiele, von denen bekannt ist, dass sie eine glatte KA-Darstellung (Kolmogorov-Arnold) als Validierungsdatensatz haben, indem sie das Netzwerk alle 200 Schritte vergr??erten. KANs werden rasterartig trainiert , der den Bereich von G als {3,5,10,20,50,100,200,500,1000} abdeckt.

Verwendung von MLPs mit unterschiedlichen Tiefen und Breiten als Basismodelle, und sowohl KANs als auch MLPs verwenden den LBFGS-Algorithmus. Insgesamt waren 1800 Schritte erforderlich trainiert, und RMSE wurde als Vergleichsindikator verwendet.

Wie Sie den Ergebnissen entnehmen k?nnen, ist die KAN-Kurve nerv?ser, kann schnell konvergieren und erreicht einen stabilen Zustand und ist besser als die Skalierungskurve von MLP, insbesondere in hochdimensionalen Situationen.

Es ist auch ersichtlich, dass die Leistung von dreischichtigem KAN viel st?rker ist als die von zweischichtigem, was darauf hindeutet, dass tiefere KANs erwartungsgem?? st?rkere Ausdrucksf?higkeiten haben.

Interaktive Erkl?rung von KAN

Die Forscher haben ein einfaches Regressionsexperiment entworfen, um zu zeigen, dass Benutzer w?hrend der Interaktion mit KAN die am besten interpretierbaren Ergebnisse erzielen k?nnen.

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Unter der Annahme, dass der Benutzer daran interessiert ist, die symbolische Formel herauszufinden, gibt es insgesamt 5 interaktive Schritte.

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Schritt 1: Training mit Sparsifikation.

Ausgehend von einem vollst?ndig verbundenen KAN kann das Training mit sp?rlicher Regularisierung das Netzwerk sp?rlicher machen, sodass festgestellt werden kann, dass 4 der 5 Neuronen in der verborgenen Schicht keine Wirkung zu haben scheinen.

Schritt 2: Beschneiden

Nach dem automatischen Beschneiden alle nutzlosen versteckten Neuronen verwerfen, sodass nur ein KAN übrig bleibt, und die Aktivierungsfunktion an die bekannte Vorzeichenfunktion anpassen. ?? oder nicht wei?, welche symbolischen Funktionen die Aktivierungsfunktion haben kann, stellen die Forscher eine Funktion suggest_symbolic bereit, um symbolische Kandidaten vorzuschlagen.

Schritt 4: Weiteres Training

Nachdem alle Aktivierungsfunktionen im Netzwerk symbolisiert sind, sind die einzigen verbleibenden Parameter die affinen Parameter. Fahren Sie mit dem Training der affinen Parameter fort, wenn Sie sehen, dass der Verlust auf Maschinengenauigkeit (Maschinenpr?zision) sinkt. , erkennen Sie, dass das Modell den richtigen symbolischen Ausdruck gefunden hat.

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?renSchritt 5: Symbolische Formel ausgeben

Verwenden Sie Sympy, um die symbolische Formel des Ausgabeknotens zu berechnen und die richtige Antwort zu überprüfen.

überprüfung der Interpretierbarkeit

Die Forscher entwarfen zun?chst sechs Proben in einem überwachten Spielzeugdatensatz, um die kombinatorischen Strukturf?higkeiten des KAN-Netzwerks anhand symbolischer Formeln zu demonstrieren.

Es ist ersichtlich, dass KAN die korrekte Einzelvariablenfunktion erfolgreich gelernt hat und durch Visualisierung den Denkprozess von KAN erkl?ren kann.

In einer unbeaufsichtigten Umgebung enth?lt der Datensatz nur das Eingabemerkmal x. Durch die Gestaltung der Verbindung zwischen bestimmten Variablen (x1, x2, x3) kann die F?higkeit des KAN-Modells getestet werden, Abh?ngigkeiten zwischen Variablen zu finden.

Den Ergebnissen zufolge hat das KAN-Modell die funktionale Abh?ngigkeit zwischen Variablen erfolgreich gefunden, der Autor wies jedoch auch darauf hin, dass Experimente immer noch nur mit synthetischen Daten durchgeführt werden und eine systematischere und kontrollierbarere Methode erforderlich ist vollst?ndige Zusammenh?nge zu entdecken. MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Pareto Optimal

Durch die Anpassung spezieller Funktionen zeigen die Autoren die Pareto-Grenze von KAN und MLP in der Ebene, die durch die Anzahl der Modellparameter und den RMSE-Verlust aufgespannt wird. MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Unter allen Sonderfunktionen hat KAN immer eine bessere Pareto-Front als MLP.

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Partielle Differentialgleichungen l?sen

Bei der L?sung partieller Differentialgleichungen zeichneten die Forscher die L2-Quadrat- und H1-Quadrat-Verluste zwischen der vorhergesagten und der wahren L?sung auf.

In der folgenden Abbildung sind die ersten beiden die Trainingsdynamik des Verlusts und die dritte und vierte das Sacling-Gesetz der Anzahl der Verlustfunktionen.

Wie in den folgenden Ergebnissen gezeigt wird, konvergiert KAN schneller, weist geringere Verluste auf und weist im Vergleich zu MLP ein steileres Expansionsgesetz auf.

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Kontinuierliches Lernen, katastrophales Vergessen wird nicht auftreten

Wir alle wissen, dass katastrophales Vergessen ein ernstes Problem beim maschinellen Lernen darstellt.

Der Unterschied zwischen künstlichen neuronalen Netzen und dem Gehirn besteht darin, dass das Gehirn über verschiedene Module verfügt, die lokal im Raum funktionieren. Beim Erlernen einer neuen Aufgabe kommt es nur in den für die jeweilige Fertigkeit zust?ndigen lokalen Bereichen zu einer strukturellen Neuordnung, w?hrend andere Bereiche unver?ndert bleiben.

Allerdings verfügen die meisten künstlichen neuronalen Netze, einschlie?lich MLP, nicht über dieses Konzept der Lokalit?t, was der Grund für katastrophales Vergessen sein kann.

Untersuchungen haben gezeigt, dass KAN über lokale Plastizit?t verfügt und die Splines-Lokalit?t nutzen kann, um katastrophales Vergessen zu vermeiden.

Die Idee ist sehr einfach: Da der Spline lokal ist, wirkt sich die Probe nur auf einige nahe gelegene Spline-Koeffizienten aus, w?hrend die entfernten Koeffizienten unver?ndert bleiben.

Da MLP im Gegensatz dazu normalerweise eine globale Aktivierung verwendet (wie ReLU/Tanh/SiLU), k?nnen sich lokale ?nderungen unkontrolliert in entfernte Regionen ausbreiten und die dort gespeicherten Informationen zerst?ren.

Die Forscher haben eine eindimensionale Regressionsaufgabe (bestehend aus 5 Gau?schen Peaks) übernommen. Die Daten um jeden Peak herum werden KAN und MLP nacheinander (und nicht alle auf einmal) pr?sentiert.

Die Ergebnisse sind in der folgenden Abbildung dargestellt. KAN rekonstruiert nur den Bereich, in dem Daten in der aktuellen Phase vorhanden sind, und l?sst den vorherigen Bereich unver?ndert.

Und MLP wird den gesamten Bereich umgestalten, nachdem er neue Datenproben gesehen hat, was zu katastrophalem Vergessen führt.

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Entdeckte die Knotentheorie und die Ergebnisse übertrafen DeepMind

Was bedeutet die Geburt von KAN für die zukünftige Anwendung des maschinellen Lernens?

Die Knotentheorie ist eine Disziplin der niederdimensionalen Topologie. Sie deckt die topologischen Probleme von Drei- und Viermannigfaltigkeiten auf und findet breite Anwendung in Bereichen wie der Biologie und dem topologischen Quantencomputing.

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Im Jahr 2021 nutzte das DeepMind-Team KI, um die Knotentheorie zum ersten Mal in der Natur zu beweisen.

... algebraische und geometrische Knoteninvarianten.

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Das hei?t, die Gradientensalienz identifizierte wichtige Invarianten des überwachungsproblems, was Fachexperten dazu veranlasste, eine Vermutung aufzustellen, die anschlie?end verfeinert und bewiesen wurde.

In diesem Zusammenhang untersucht der Autor, ob KAN bei demselben Problem gute interpretierbare Ergebnisse erzielen kann, um die Signatur von Knoten vorherzusagen.

Im DeepMind-Experiment sind die Hauptergebnisse ihrer Untersuchung des Knotentheorie-Datensatzes:

1 Mithilfe der Netzwerkattributionsmethode wurde festgestellt, dass die Signatur MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren haupts?chlich vom Zwischenabstand MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren und dem L?ngsabstand λ abh?ngt.

2 , wobei die Signatur als Ausgabe behandelt wird. MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren?hnlich wie bei der Einrichtung in DeepMind werden Signaturen (gerade Zahlen) als One-Hot-Vektoren codiert und das Netzwerk wird mit Kreuzentropieverlust trainiert. MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?renDie Ergebnisse ergaben, dass ein sehr kleines KAN eine Testgenauigkeit von 81,6 % erreichen kann, w?hrend DeepMinds 4-Schichten-Breite 300MLP nur eine Testgenauigkeit von 78 % erreichte. MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Wie in der folgenden Tabelle gezeigt, hat KAN (G = 3, k = 3) etwa 200 Parameter, w?hrend MLP etwa 300.000 Parameter hat.

Es ist erw?hnenswert, dass KAN nicht nur genauer ist; Gleichzeitig sind die Parameter effizienter als MLP.

Im Hinblick auf die Interpretierbarkeit skalierten die Forscher die Transparenz jeder Aktivierung anhand ihrer Gr??e, sodass ohne Merkmalszuordnung sofort klar war, welche Eingabevariablen wichtig waren.

Dann wird KAN auf drei wichtige Variablen trainiert und erreicht eine Testgenauigkeit von 78,2 %. MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Wie folgt, entdeckte der Autor durch KAN drei mathematische Beziehungen im Knotendatensatz wieder.

Die physikalische Anderson-Lokalisierung wurde gel?st

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?renUnd auch in physikalischen Anwendungen hat KAN einen gro?en Wert gespielt.

Anderson ist ein grundlegendes Ph?nomen, bei dem eine St?rung in einem Quantensystem zur Lokalisierung der Elektronenwellenfunktion führt, wodurch jegliche übertragung zum Erliegen kommt.

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

In einer und zwei Dimensionen zeigt das Skalierungsargument, dass für jede kleine zuf?llige St?rung alle Elektroneneigenzust?nde exponentiell lokalisiert sind.

Im Gegensatz dazu bildet eine kritische Energie in drei Dimensionen eine Phasengrenze, die erweiterte Zust?nde von lokalisierten Zust?nden trennt, was als Mobilit?tskante bezeichnet wird.

Das Verst?ndnis dieser Mobilit?tskanten ist entscheidend für die Erkl?rung verschiedener grundlegender Ph?nomene wie Metall-Isolator-überg?nge in Festk?rpern und des Lokalisierungseffekts von Licht in photonischen Ger?ten.

Der Autor hat durch Untersuchungen herausgefunden, dass KANs es sehr einfach machen, Mobilit?tskanten zu extrahieren, sei es numerisch oder symbolisch.

Offensichtlich ist KAN zu einem leistungsstarken Assistenten und wichtigen Mitarbeiter für Wissenschaftler geworden.

Alles in allem wird KAN dank seiner Vorteile in Bezug auf Genauigkeit, Parametereffizienz und Interpretierbarkeit ein nützliches Modell/Werkzeug für KI+Wissenschaft sein.

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Zukünftige weitere Anwendungen von KAN im wissenschaftlichen Bereich müssen noch erforscht werden.

MLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren

Das obige ist der detaillierte Inhalt vonMLP wurde über Nacht get?tet! MIT Caltech und andere revolution?re KANs brechen Rekorde und entdecken mathematische Theoreme, die DeepMind zerst?ren. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erkl?rung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Hei?e KI -Werkzeuge

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?e Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Hei?e Themen

PHP-Tutorial
1502
276
Was ist Ethereum? Wie k?nnen die Ethereum -ETH ETHE -ETH erhalten? Was ist Ethereum? Wie k?nnen die Ethereum -ETH ETHE -ETH erhalten? Jul 31, 2025 pm 11:00 PM

Ethereum ist eine dezentrale Anwendungsplattform, die auf intelligenten Vertr?gen basiert, und seine native Token -ETH kann auf verschiedene Weise erhalten werden. 1. Registrieren Sie ein Konto über zentralisierte Plattformen wie Binance und Ouyiok, vervollst?ndigen Sie die KYC -Zertifizierung und kaufen Sie ETH mit Stablecoins. 2. Einschalten Sie mit dezentralen Plattformen mit digitalem Speicher und tauschen Sie die ETH mit Stablecoins oder anderen Token direkt aus. 3.. Nehmen Sie an Netzwerkversprechen teil, und Sie k?nnen die unabh?ngige Verpf?ndung (ben?tigt 32 ETH), Liquid Pledge Services oder One-Click-Versprechen auf der zentralisierten Plattform, um Belohnungen zu erhalten. 4. Verdienen Sie ETH, indem Sie Dienstleistungen für Web3 -Projekte erstellen, Aufgaben erledigen oder Airdrops erhalten. Es wird empfohlen, dass Anf?nger mit zentralisierten Mainstream -Plattformen beginnen, schrittweise zu dezentralen Methoden übergehen und immer Bedeutung für die Sicherheit von Verm?genswerten und die unabh?ngigen Forschung beibringen

Wie w?hle ich eine freie Marktwebsite im W?hrungskreis aus? Die umfassendste überprüfung im Jahr 2025 Wie w?hle ich eine freie Marktwebsite im W?hrungskreis aus? Die umfassendste überprüfung im Jahr 2025 Jul 29, 2025 pm 06:36 PM

Die am besten geeigneten Tools zur Abfrage von Stablecoin -M?rkten im Jahr 2025 sind: 1. Binance, mit ma?geblichen Daten und reichhaltigen Handelspaaren sowie integrierten TradingView -Diagrammen, die für die technische Analyse geeignet sind. 2. Ouyi, mit klarer Schnittstelle und starker funktionaler Integration, und unterstützt den One-Stop-Betrieb von Web3-Konten und Defi; 3. Coinmarketcap mit vielen W?hrungen und der Stablecoin -Sektor k?nnen die Marktwert -Rangliste und -Dekane betrachten. 4. Coingecko mit umfassenden Datenabmessungen bietet Vertrauenswerte und Aktivit?tsindikatoren der Community und hat eine neutrale Position. 5. Huobi (HTX) mit stabilen Marktbedingungen und freundlichen Gesch?ftst?tigkeit, geeignet für Mainstream -Anfragen; 6. Gate.io mit der schnellsten Sammlung neuer Münzen und Nischenw?hrungen und ist die erste Wahl für Projekte, um das Potenzial zu untersuchen. 7. Tra

Die Strategie von Ethena Treasury: Der Aufstieg des dritten Reiches von Stablecoin Die Strategie von Ethena Treasury: Der Aufstieg des dritten Reiches von Stablecoin Jul 30, 2025 pm 08:12 PM

Der wahre Einsatz von Battle Royale im Dual -W?hrungssystem ist noch nicht stattgefunden. Schlussfolgerung Im August 2023 gab der Protokollfunke des Makerdao Ecological Lending eine annualisierte Rendite von 8 USD%. Anschlie?end trat Sun Chi in Chargen ein und investierte insgesamt 230.000 $ Steth, was mehr als 15% der Einlagen von Spark ausmacht und Makerdao dazu zwang, einen Notfallvorschlag zu treffen, um den Zinssatz auf 5% zu senken. Die ursprüngliche Absicht von Makerdao war es, die Nutzungsrate von $ dai zu "subventionieren" und fast zu Justin Suns Soloertrag wurde. Juli 2025, Ethe

Was ist Binance Treehouse (Baummünze)? überblick über das kommende Baumhausprojekt, Analyse der Token -Wirtschaft und zukünftige Entwicklung Was ist Binance Treehouse (Baummünze)? überblick über das kommende Baumhausprojekt, Analyse der Token -Wirtschaft und zukünftige Entwicklung Jul 30, 2025 pm 10:03 PM

Was ist Baumhaus (Baum)? Wie funktioniert Baumhaus (Baum)? Treehouse Products Tethdor - Dezentrale Anführungsquote Gonuts Points System Treeehouse Highlights Tree Tokens und Token Economics übersicht über das dritte Quartal des Roadmap -Entwicklungsteams von 2025, Investoren und Partners Treehouse Gründungsteam Investmentfonds Partner Zusammenfassung, da Defi weiter expandiert. Auf Blockchain bauen jedoch

Ethereum (ETH) NFT verkaufte in sieben Tagen fast 160 Millionen US Ethereum (ETH) NFT verkaufte in sieben Tagen fast 160 Millionen US Jul 30, 2025 pm 10:06 PM

Inhaltsverzeichnis Kryptomarkt Panorama -Nugget Popul?r Token Vinevine (114,79%, Kreismarktwert 144 Millionen US -Dollar) Zorazora (16,46%, Kreismarktwert 290 Millionen US -Dollar US -Dollar) Navxnaviprotokoll (10,36%, kreisf?rmiger Marktwert 35,7624 Millionen US -Dollar). Cryptopunks starteten den ersten Platz im dezentralen Prover -Netzwerk, das die Loccinte Foundation gestartet hat, die m?glicherweise das Token tge sein k?nnte

Solana und die Gründer von Base Coin starten eine Debatte: Der Inhalt von Zora hat 'Grundwert'. Solana und die Gründer von Base Coin starten eine Debatte: Der Inhalt von Zora hat 'Grundwert'. Jul 30, 2025 pm 09:24 PM

Ein verbaler Kampf um den Wert von "Sch?pfer -Token" fegte über den Krypto -sozialen Kreis. Die beiden gro?en Helmans von Base und Solana hatten eine seltene Frontalkonfrontation und eine heftige Debatte um Zora und Pump. Woher kam diese mit Schie?pulver gefüllte Konfrontation? Lassen Sie uns herausfinden. Die Kontroverse brach aus: Die Sicherung von Sterling Crispins Angriff auf Zora war Delcomplex -Forscher Sterling Crispin, das Zora auf sozialen Plattformen ?ffentlich bombardierte. Zora ist ein soziales Protokoll in der Basiskette, das sich auf die Tokenisierung der Benutzer -Homepage und des Inhalts konzentriert

Was ist Zircuit (ZRC -W?hrung)? Wie arbeite ich? ZRC -Projektübersicht, Token Economy und Prospect Analysis Was ist Zircuit (ZRC -W?hrung)? Wie arbeite ich? ZRC -Projektübersicht, Token Economy und Prospect Analysis Jul 30, 2025 pm 09:15 PM

Verzeichnis Wie ist Zirkan. SCHLUSSFOLGERUNG In den letzten Jahren ist der Nischenmarkt der Layer2 -Blockchain -Plattform, die Dienste für das Ethereum -Layer1 -Netzwerk erbringt, vor allem aufgrund von Netzwerküberlastungen, hohen Abhandlungsgebühren und schlechter Skalierbarkeit floriert. Viele dieser Plattformen verwenden die Hochvolumentechnologie, mehrere Transaktionsstapel verarbeitet abseits der Kette

Warum f?llt die Registrierung von Binance -Konto fehl? Ursachen und L?sungen Warum f?llt die Registrierung von Binance -Konto fehl? Ursachen und L?sungen Jul 31, 2025 pm 07:09 PM

Das Vers?umnis, ein Binance -Konto zu registrieren, wird haupts?chlich durch regionale IP -Blockade, Netzwerkanomalien, KYC -Authentifizierungsfehler, Kontoverdünnung, Probleme mit Ger?tekompatibilit?t und Systemwartung verursacht. 1. Verwenden Sie uneingeschr?nkte regionale Knoten, um die Netzwerkstabilit?t zu gew?hrleisten. 2. Senden Sie klare und vollst?ndige Zertifikatsinformationen und übereinstimmen die Nationalit?t; 3. Registrieren Sie sich mit ungebundener E -Mail -Adresse; 4. Reinigen Sie den Browser -Cache oder ersetzen Sie das Ger?t. 5. Wartungsphase vermeiden und auf die offizielle Ankündigung achten; 6. Nach der Registrierung k?nnen Sie 2FA sofort aktivieren, den Whitelist und den Anti-Phishing-Code adressieren, der die Registrierung innerhalb von 10 Minuten abschlie?en und die Sicherheit um mehr als 90%verbessern und schlie?lich eine Compliance- und Sicherheits-geschlossene Schleife aufbauen kann.

See all articles