Einführung von NVLM 1.0: NVIDIAs Ansatz für multimodale LLMs
Apr 09, 2025 am 09:22 AMNVIDIAs bahnbrechender NVLM 1.0: eine multimodale Open-Source-LLM
Dieser Artikel befasst sich mit NVIDIAs kürzlich vorgestellter NVLM 1.0, einer Familie von Open-Source-Modellen (Multimodal gro?er Sprache) (LLMs). Diese Modelle erzielen eine modernste Leistung bei Visionsprachenaufgaben, die mit Top-propriet?ren und offenen Zugriffsmodellen wie LLAMA 3-V 405B und Internvl 2 konkurrieren. Ein bemerkenswertes Merkmal ist NVLM 1.0-Verbesserung nach multimodalem Training, ein signifikanter Vorteil gegenüber dem LLM-Backbone. Die Modellgewichte und der Code sind ?ffentlich verfügbar und f?rdern Community -Beitr?ge.
Nvidia verglichen mit Cross-Attentention-basierten Modellen (z. B. Flamingo) und decoder nur multimodaler LLMs (z. B. LLAVA). Sie nutzten die St?rken und Schw?chen der einzelnen Angaben und entwickelten eine einzigartige Architektur, die sowohl die Trainingseffizienz als auch die multimodalen Argumentationsfunktionen verbessert.
Schlüsselmerkmale von NVLM 1.0:
- Open-Source Multimodal LLM Familie Excelling in Visionsprach- und nur Textaufgaben.
- Drei architektonische Variationen: Nur Decoder (NVLM-D), Cross-Tention (NVLM-X) und ein Hybrid (NVLM-H).
- überlegene Leistung in OCR, multimodales Denken und hochaufl?sende Bildverarbeitung.
- Beh?lt eine starke Leistung von nur Text bei und befasst sich mit einer gemeinsamen Schw?che in multimodalen Modellen.
- Betont hochwertige und vielf?ltige Daten sowohl für die Vorab- als auch für die beaufsichtigte Feinabstimmung.
- Open-Source-Verfügbarkeit von Modellgewichten und Code.
Architektonische Innovationen und Schulungsmethoden:
Um die Einschr?nkungen bei vorhandenen multimodalen LLMs (inkonsistente Architekturvergleiche, hochaufl?sende Bildhandhabung und Nur-Text-Leistungsabbau) zu überwinden, führt NVLM 1.0 drei Architekturen ein: NVLM-D (Decodierer), NVLM-X (Cross-Tention) und NVLM-H (Hybrid). Alle sind auf demselben kuratierten Datensatz geschult und bieten Flexibilit?t und Leistung. Ein neuartiges Fliesenmarkierungsdesign verbessert die hochaufl?sende Bildverarbeitung. Der Schulungsprozess umfasst die Vorbereitung (Einfrieren des Visionscodierers und LLM), gefolgt von überwachten Feinabstimmungen (SFT) sowohl der LLM- als auch der Modalit?t der Modalit?t. Dieser Ansatz, verbunden mit einem Fokus auf die Datenqualit?t über schiere Quantit?t, führt zu einer robusten Leistung in verschiedenen Aufgaben.
Leistung und Benchmarks:
NVLM 1.0 zeigt eine wettbewerbsf?hige oder überlegene Leistung im Vergleich zu führenden Modellen für mehrere Benchmarks. NVLM-D ist in OCR-Aufgaben ausgestattet, NVLM-H. Entscheidend ist, dass alle Modelle nach multimodalem Training nur die Leistung von Text beibehalten oder verbessern.
Zugriff und Verwendung von NVLM-D 72B:
Die bereitgestellten Code-Snippets zeigen, wie Sie auf das NVLM-D 72B-Modell mit der Umarmungsgesicht und der Transformers-Bibliothek zugreifen und das Modell Sharding für eine effiziente Verwendung von Multi-GPU, Bildvorverarbeitung, dynamische Bildflilung und Beispielcode für Text und bildbasierte Konversationen verwenden. Beachten Sie, dass dies ein gro?es Modell ist (150 GB).
Abschluss:
NVLM 1.0 stellt einen signifikanten Sprung nach vorne in multimodalen Open-Source-LLMs dar. Seine überlegene Leistung, architektonische Innovationen und das Engagement für die Zug?nglichkeit von Open-Source machen es zu einer wertvollen Ressource für Forscher und Entwickler. Die Betonung der Datenqualit?t und die Erhaltung von Funktionen nur für Textbeschwerden betrifft die wichtigsten Einschr?nkungen früherer multimodaler Modelle. Die detaillierte Dokumentation und der leicht verfügbare Code erm?glichen weitere Forschung und Entwicklung innerhalb der Community.
Das obige ist der detaillierte Inhalt vonEinführung von NVLM 1.0: NVIDIAs Ansatz für multimodale LLMs. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Hei?e KI -Werkzeuge

Undress AI Tool
Ausziehbilder kostenlos

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?er Artikel

Hei?e Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Erinnern Sie sich an die Flut chinesischer Open-Source-Modelle, die die Genai-Industrie Anfang dieses Jahres gest?rt haben? W?hrend Deepseek die meisten Schlagzeilen machte, war Kimi K1.5 einer der herausragenden Namen in der Liste. Und das Modell war ziemlich cool.

Bis Mitte 2025 heizt sich das KI ?Wettret“ auf, und Xai und Anthropic haben beide ihre Flaggschiff-Modelle GROK 4 und Claude 4 ver?ffentlicht. Diese beiden Modelle befinden

Aber wir müssen wahrscheinlich nicht einmal 10 Jahre warten, um einen zu sehen. Was als erste Welle wirklich nützlicher, menschlicher Maschinen angesehen werden k?nnte, ist bereits da. In den letzten Jahren wurden eine Reihe von Prototypen und Produktionsmodellen aus t herausgezogen

Aufgebaut auf Leia's propriet?rer neuronaler Tiefenmotor verarbeitet die App still Bilder und fügt die natürliche Tiefe zusammen mit simulierten Bewegungen hinzu - wie Pfannen, Zoome und Parallaxeffekte -, um kurze Video -Rollen zu erstellen, die den Eindruck erwecken, in die SCE einzusteigen

Bis zum Vorjahr wurde eine schnelle Engineering als entscheidende F?higkeit zur Interaktion mit gro?artigen Modellen (LLMs) angesehen. In jüngster Zeit sind LLM jedoch in ihren Argumentations- und Verst?ndnisf?higkeiten erheblich fortgeschritten. Natürlich unsere Erwartung

Stellen Sie sich vor, dass etwas Geformtes, wie ein KI -Motor, der bereit ist, ein detailliertes Feedback zu einer neuen Kleidungssammlung von Mailand oder automatische Marktanalyse für ein weltweit betriebenes Unternehmen zu geben, oder intelligentes Systeme, das eine gro?e Fahrzeugflotte verwaltet.

Eine neue Studie von Forschern am King's College London und der University of Oxford teilt die Ergebnisse dessen, was passiert ist, als OpenAI, Google und Anthropic in einem Cutthroat -Wettbewerb zusammengeworfen wurden, der auf dem iterierten Dilemma des Gefangenen basiert. Das war nein

Wissenschaftler haben eine clevere, aber alarmierende Methode aufgedeckt, um das System zu umgehen. Juli 2025 markierte die Entdeckung einer aufw?ndigen Strategie, bei der Forscher unsichtbare Anweisungen in ihre akademischen Einreichungen eingefügt haben - diese verdeckten Richtlinien waren Schwanz
