


GPT-4O und Langgraph Tutorial: Erstellen Sie eine TNT-Llm-Anwendung
Mar 05, 2025 am 10:56 AMMicrosofts TNT-LlM: Revolutionierung der Taxonomiegenerierung und Textklassifizierung
Microsoft hat TNT-LLM vorgestellt, ein bahnbrechendes System, das die Erstellung von Taxonomie und die Textklassifizierung automatisiert und herk?mmliche Methoden sowohl in Geschwindigkeit als auch in Genauigkeit übertrifft. Dieser innovative Ansatz nutzt die Kraft von Gro?sprachenmodellen (LLMs), um die Erzeugung von Taxonomien und Klassifikatoren zu optimieren und zu skalieren, wodurch manuelle Eingriffe minimieren. Dies ist besonders vorteilhaft für Anwendungen wie Bing Copilot, bei denen die Verwaltung dynamischer und vielf?ltiger Textdaten von gr??ter Bedeutung ist.
Dieser Artikel zeigt die Implementierung von TNT-LLM mit GPT-4O und Langgraph für effizientes Nachrichtenartikel-Clustering. Weitere Informationen zu GPT-4O und Langgraph finden Sie unter folgende Ressourcen:
- Was ist OpenAs GPT-4O?
- GPT-4O-API-Tutorial: Erste Schritte mit Openais API
- Langgraph Tutorial: Was ist Langgraph und wie kann man es verwenden?
Das ursprüngliche TNT-LlM-Forschungsarbeit, "TNT-LlM: Textmining in Skala mit gro?en Sprachmodellen", enth?lt umfassende Details zum System.
TNT-llm
verstehenTNT-LlM (Taxonomie und Textklassifizierung mit gro?er Sprachmodellen) ist ein zweistufiges Framework, das zum Generieren und Klassifizieren von Taxonomien aus Textdaten entwickelt wurde.
Phase 1: Taxonomieerzeugung
Diese Anfangsphase verwendet eine Stichprobe von Textdokumenten und eine bestimmte Anweisung (z. B. "generieren Sie eine Taxonomie zu Cluster -Nachrichtenartikeln"). Ein LLM fasst jedes Dokument zusammen und extrahiert wichtige Informationen. Durch die iterative Verfeinerung erstellt, modifiziert und verfeinert das LLM die Taxonomie, was zu einer strukturierten Hierarchie von Labels und Beschreibungen für die Kategorisierung eines effektiven Nachrichtenartikels führt.
Quelle: Menging Wan et al.
Phase 2: Textklassifizierung
Die zweite Phase verwendet die generierte Taxonomie, um einen gr??eren Datensatz zu kennzeichnen. Das LLM wendet diese Etiketten an und erstellt Trainingsdaten für einen leichten Klassifikator (wie logistische Regression). Dieser geschulte Klassifikator bezeichnet effizient den gesamten Datensatz oder führt eine Echtzeitklassifizierung durch.
Quelle: Menging Wan et al.
Die anpassungsf?hige Natur vonTNT-LLM ist für verschiedene Textklassifizierungsaufgaben geeignet, einschlie?lich Absichtserkennung und Themenkategorisierung.
Vorteile von TNT-Llm
tnt-llm bietet erhebliche Vorteile für das gro? angelegte Textabbau und die Klassifizierung:
- Automatisierte Taxonomiegenerierung: automatisiert die Erstellung detaillierter und interpretierbarer Taxonomien aus dem Rohtext, wodurch die Notwendigkeit einer umfangreichen manuellen Anstrengung und Domain -Expertise beseitigt wird.
- Skalierbare Klassifizierung: Erm?glicht die skalierbare Textklassifizierung mit Leichtgewichtsmodellen, die gro?e Datens?tze und Echtzeit-Klassifizierung effizient verarbeiten.
- Kosteneffizienz: optimiert die Ressourcenverbrauch durch abgestufte LLM-Nutzung (z. B. GPT-4 für die Taxonomiegenerierung, GPT-3,5-Turbo für die Zusammenfassung und logistische Regression für die endgültige Klassifizierung). .
- . Hochwertige Ausgaben: iterative Taxonomiegenerierung sorgt für hochwertige, relevante und genaue Kategorisierungen.
- Minimale menschliche Intervention: reduziert den manuellen Eingang und minimiert m?gliche Verzerrungen und Inkonsistenzen.
- Flexibilit?t: passt sich an verschiedene Textklassifizierungsaufgaben und -Dom?nen an und unterstützt die Integration mit verschiedenen LLMs, Einbettungsmethoden und Klassifikatoren.
Implementieren von TNT-Llm
Ein Schritt-für-Schritt-Implementierungshandbuch folgt:
Installation:
Installieren Sie die erforderlichen Pakete:
pip install langgraph langchain langchain_openai
Umgebungsvariablen für API -Schlüssel und Modellnamen festlegen:
export AZURE_OPENAI_API_KEY='your_api_key_here' export AZURE_OPENAI_MODEL='your_deployment_name_here' export AZURE_OPENAI_ENDPOINT='deployment_endpoint'
Kernkonzepte:
-
Dokumente:
Doc
Rohtextdaten (Artikel, Chat -Protokolle) mithilfe der -Kl?ufe strukturiert. -
Taxonomien:
TaxonomyGenerationState
Cluster kategorisierter Absichten oder Themen, verwaltet von der -Klassel.
Erstellen einer einfachen TNT-Llm-Anwendung:
In den folgenden Abschnitten werden die Implementierungsschritte beschrieben, wobei Code -Snippets verwendet werden, um Schlüsselprozesse zu veranschaulichen. Aufgrund der L?nge des ursprünglichen Codes ist hier eine vollst?ndige Reproduktion unpraktisch. Das Folgende bietet jedoch einen strukturierten überblick über den Prozess:
-
Schritt 0: Definieren Sie die Grafikzustandsklasse, laden Sie Datens?tze und initialisieren Sie GPT-4O:
Dies umfasst das Definieren der Datenstrukturen und das Laden des Datensatzes für Nachrichtenartikel. Ein GPT-4O-Modell wird für die Verwendung in der gesamten Pipeline initialisiert. -
Schritt 1: Fassen Sie Dokumente zusammen:
Jedes Dokument wird mit einer LLM -Eingabeaufforderung zusammengefasst. -
Schritt 2: Erstellen Sie Minibatches:
zusammengefasste Dokumente werden zur parallele Verarbeitung in Minibatches unterteilt. -
Schritt 3: Erstellen Sie die erste Taxonomie:
Eine erste Taxonomie wird aus dem ersten Minibatch erstellt. -
Schritt 4: Taxonomie aktualisieren:
Die Taxonomie wird iterativ aktualisiert, wenn die nachfolgenden Minibatches verarbeitet werden. -
Schritt 5: Taxonomie überprüfen:
Die endgültige Taxonomie wird auf Genauigkeit und Relevanz überprüft. -
Schritt 6: orchestrieren die TNT-Llm-Pipeline mit Staategraphen: Ein Staategraph orchestriert die Ausführung der verschiedenen Schritte.
-
Schritt 7: Clustering und Anzeige von TNT-Llms News-Artikel Taxonomie: Die endgültige Taxonomie wird angezeigt, wobei die Cluster von Nachrichtenartikeln angezeigt werden.
Schlussfolgerung
TNT-LlM bietet eine leistungsstarke und effiziente L?sung für einen gro?fl?chigen Textmining und -klassifizierung. Die Automatisierungsfunktionen verkürzt die Zeit und die Ressourcen, die für die Analyse unstrukturierter Textdaten erforderlich sind, erheblich, wodurch datengesteuerte Entscheidungen in verschiedenen Dom?nen erm?glicht werden. Das Potenzial für weitere Entwicklung und Anwendung in der gesamten Branche ist erheblich. Für diejenigen, die an einer weiteren LLM -Anwendungsentwicklung interessiert sind, wird ein Kurs über "Entwicklung von LLM -Anwendungen mit Langchain" empfohlen.
Das obige ist der detaillierte Inhalt vonGPT-4O und Langgraph Tutorial: Erstellen Sie eine TNT-Llm-Anwendung. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Hei?e KI -Werkzeuge

Undress AI Tool
Ausziehbilder kostenlos

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?er Artikel

Hei?e Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Erinnern Sie sich an die Flut chinesischer Open-Source-Modelle, die die Genai-Industrie Anfang dieses Jahres gest?rt haben? W?hrend Deepseek die meisten Schlagzeilen machte, war Kimi K1.5 einer der herausragenden Namen in der Liste. Und das Modell war ziemlich cool.

Bis Mitte 2025 heizt sich das KI ?Wettret“ auf, und Xai und Anthropic haben beide ihre Flaggschiff-Modelle GROK 4 und Claude 4 ver?ffentlicht. Diese beiden Modelle befinden

Aber wir müssen wahrscheinlich nicht einmal 10 Jahre warten, um einen zu sehen. Was als erste Welle wirklich nützlicher, menschlicher Maschinen angesehen werden k?nnte, ist bereits da. In den letzten Jahren wurden eine Reihe von Prototypen und Produktionsmodellen aus t herausgezogen

Bis zum Vorjahr wurde eine schnelle Engineering als entscheidende F?higkeit zur Interaktion mit gro?artigen Modellen (LLMs) angesehen. In jüngster Zeit sind LLM jedoch in ihren Argumentations- und Verst?ndnisf?higkeiten erheblich fortgeschritten. Natürlich unsere Erwartung

Viele Menschen haben leidenschaftlich ins Fitnessstudio gegangen und glauben, dass sie auf dem richtigen Weg sind, um ihre Fitnessziele zu erreichen. Die Ergebnisse sind jedoch nicht aufgrund schlechter Di?tplanung und mangelnder Richtung vorhanden. Einstellung eines Personal Trainer Al

Ich bin sicher, Sie müssen über den allgemeinen KI -Agenten Manus wissen. Es wurde vor einigen Monaten auf den Markt gebracht, und im Laufe der Monate haben sie ihrem System mehrere neue Funktionen hinzugefügt. Jetzt k?nnen Sie Videos erstellen, Websites erstellen und viel MO machen

Aufgebaut auf Leia's propriet?rer neuronaler Tiefenmotor verarbeitet die App still Bilder und fügt die natürliche Tiefe zusammen mit simulierten Bewegungen hinzu - wie Pfannen, Zoome und Parallaxeffekte -, um kurze Video -Rollen zu erstellen, die den Eindruck erwecken, in die SCE einzusteigen

Stellen Sie sich vor, dass etwas Geformtes, wie ein KI -Motor, der bereit ist, ein detailliertes Feedback zu einer neuen Kleidungssammlung von Mailand oder automatische Marktanalyse für ein weltweit betriebenes Unternehmen zu geben, oder intelligentes Systeme, das eine gro?e Fahrzeugflotte verwaltet.
