


Feinabstimmung gro?er Sprachmodelle (LLMs) mit .NET Core, Python und Azure
Jan 14, 2025 am 07:11 AMInhaltsverzeichnis
- Einführung
- Warum gro?e Sprachmodelle verfeinern?
- L?sungsübersicht
- Umgebungseinstellungen
- Training und Feinabstimmung mit Python
- Integrieren Sie fein abgestimmte Modelle in .NET Core
- Bereitstellung in Azure
- Best Practices
- Fazit
-
Einführung
Gro? angelegte Sprachmodelle (LLMs) haben aufgrund ihrer F?higkeit, menschen?hnlichen Text zu verstehen und zu generieren, gro?e Aufmerksamkeit erhalten. Allerdings verfügen viele Organisationen über einzigartige, dom?nenspezifische Datens?tze und Vokabulare, die von generischen Modellen m?glicherweise nicht vollst?ndig erfasst werden. Feinabstimmung erm?glicht es Entwicklern, diese gro?en Modelle an bestimmte Umgebungen oder Branchen anzupassen und so die Genauigkeit und Relevanz zu verbessern.
In diesem Artikel wird erl?utert, wie man ein LLM mit Python verfeinert und dann das resultierende Modell in eine .NET Core C#-Anwendung integriert und bereitstellt, alles auf Microsoft Azure für Skalierbarkeit und Komfort.
-
Warum gro?e Sprachmodelle verfeinern?
-
Dom?nenspezifit?t: LLM kann auf die Verwendung branchenspezifischer Terminologie, Produktnamen oder Fachsprache abgestimmt werden.
-
Leistungsverbesserungen: Durch Feinabstimmung werden h?ufig Fehler reduziert und die Relevanz in Anwendungsf?llen wie Kundenservice, Forschung und Analyse verbessert.
-
Kosten senken: Anstatt ein Modell von Grund auf neu zu erstellen, k?nnen Sie ein vorhandenes leistungsstarkes LLM anpassen.
-
Verbesserung der Effizienz: Sie nutzen vorab trainierte Gewichte und passen nur die letzte Ebene oder Parameter an, wodurch der Prozess beschleunigt wird.
-
L?sungsübersicht
Komponenten und Technologien
-
Python zur Feinabstimmung
- H?ufig verwendete Bibliotheken (z. B. Hugging Face Transformers, PyTorch)
- Der Prozess des Ladens und Optimierens vorab trainierter Modelle wurde vereinfacht
-
.NET Core C# für die Integration
- Stellen Sie einen Backend-Dienst oder eine API zur Feinabstimmung des Modells bereit
- Stark typisierte Sprache, die vielen Unternehmensentwicklern vertraut ist
-
Azure Services
- Azure Machine Learningfür Training und Modellmanagement
- Azure Storage für Daten und Modellartefakte
- Azure App Service oder Azure Function zum Hosten von .NET Core-Anwendungen
- Azure Key Vault (optional) zum Schutz von Anmeldeinformationen
-
Umgebungseinstellungen
Voraussetzungen
- Azure-Abonnement: Erforderlich zum Erstellen von Ressourcen wie Machine Learning Workspace und App Service.
- Python 3.8 : Zur Feinabstimmung des Modells lokal installiert.
- .NET 6/7/8 SDK: Zum Erstellen und Ausführen von .NET Core C#-Anwendungen.
- Visual Studio 2022 oder Visual Studio Code: Empfohlene IDE.
- Azure CLI: Wird zum Konfigurieren und Verwalten von Azure-Diensten über das Terminal verwendet.
- Docker (optional): Kann bei Bedarf zum Containerisieren Ihrer Anwendung verwendet werden.
-
Training und Feinabstimmung mit Python
In diesem Beispiel werden Hugging Face Transformers verwendet – eine der am weitesten verbreiteten LLM-Feinabstimmungsbibliotheken.
5.1 Virtuelle Umgebung einrichten
<code>python -m venv venv source venv/bin/activate # 在 Windows 上:venv\Scripts\activate</code>
5.2 Abh?ngigkeiten installieren
<code>pip install torch transformers azureml-sdk</code>
5.3 Erstellen Sie einen Azure Machine Learning-Arbeitsbereich
- Ressourcengruppe und Arbeitsbereich:
<code> az group create --name LLMFinetuneRG --location eastus az ml workspace create --name LLMFinetuneWS --resource-group LLMFinetuneRG</code>
- Konfigurieren Sie die lokale Umgebung für die Verbindung mit dem Arbeitsbereich (mithilfe einer config.json-Datei oder Umgebungsvariablen).
5.4 Feinabstimmungsskript (train.py)
<code>import os import torch from transformers import AutoModelForCausalLM, AutoTokenizer, TrainingArguments, Trainer from azureml.core import Workspace, Run # 連接到 Azure ML ws = Workspace.from_config() run = Run.get_context() model_name = "gpt2" # 示例模型 tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name) # 加載自定義數(shù)據(jù)集(本地或來(lái)自 Azure 存儲(chǔ)) # 示例:Azure ML 中的文本文件或數(shù)據(jù)集 train_texts = ["此處輸入您的特定領(lǐng)域文本..."] # 簡(jiǎn)化版 train_encodings = tokenizer(train_texts, truncation=True, padding=True) class CustomDataset(torch.utils.data.Dataset): def __init__(self, encodings): self.encodings = encodings def __len__(self): return len(self.encodings["input_ids"]) def __getitem__(self, idx): return {k: torch.tensor(v[idx]) for k, v in self.encodings.items()} train_dataset = CustomDataset(train_encodings) training_args = TrainingArguments( output_dir="./results", num_train_epochs=3, per_device_train_batch_size=2, save_steps=100, logging_steps=100 ) trainer = Trainer( model=model, args=training_args, train_dataset=train_dataset, ) trainer.train() # 保存微調(diào)后的模型 trainer.save_model("./fine_tuned_model") tokenizer.save_pretrained("./fine_tuned_model")</code>
5.5 Modell in Azure registrieren
<code>from azureml.core.model import Model model = Model.register( workspace=ws, model_path="./fine_tuned_model", model_name="myFineTunedLLM" )</code>
Zu diesem Zeitpunkt wird Ihr fein abgestimmtes Modell für einfachen Zugriff und Versionskontrolle in Azure Machine Learning gespeichert.
-
Feinabgestimmte Modelle in .NET Core integrieren
6.1 .NET Core Web API-Projekt erstellen
<code>dotnet new webapi -n FineTunedLLMApi cd FineTunedLLMApi</code>
6.2 Abh?ngigkeiten hinzufügen
- HttpClient zum Aufrufen von Azure-Endpunkten oder der lokalen Inferenz-API
- Newtonsoft.Json (wenn Sie JSON.NET für die Serialisierung bevorzugen)
- Azure.Storage.Blobs oder Azure.Identity für sicheren Zugriff auf Azure-Ressourcen
<code>dotnet add package Microsoft.Extensions.Http dotnet add package Microsoft.Azure.Storage.Blob dotnet add package Newtonsoft.Json</code>
6.3 ModelConsumerService.cs
Angenommen, Sie haben Ihr fein abgestimmtes Modell als Webdienst bereitgestellt (z. B. mithilfe von Azure Container Instance oder einem benutzerdefinierten Endpunkt in Azure ML). Der folgende Codeausschnitt ruft den Dienst auf, um Abschlussergebnisse abzurufen.
<code>using Newtonsoft.Json; using System.Net.Http; using System.Text; using System.Threading.Tasks; public class ModelConsumerService { private readonly HttpClient _httpClient; public ModelConsumerService(IHttpClientFactory httpClientFactory) { _httpClient = httpClientFactory.CreateClient("FineTunedModel"); } public async Task<string> GetCompletionAsync(string prompt) { var requestBody = new { prompt = prompt }; var content = new StringContent( JsonConvert.SerializeObject(requestBody), Encoding.UTF8, "application/json"); var response = await _httpClient.PostAsync("/predict", content); response.EnsureSuccessStatusCode(); return await response.Content.ReadAsStringAsync(); } }</code>
6.4 LLMController.cs
<code>using Microsoft.AspNetCore.Mvc; using System.Threading.Tasks; [ApiController] [Route("[controller]")] public class LLMController : ControllerBase { private readonly ModelConsumerService _modelService; public LLMController(ModelConsumerService modelService) { _modelService = modelService; } [HttpPost("complete")] public async Task<IActionResult> CompletePrompt([FromBody] PromptRequest request) { var result = await _modelService.GetCompletionAsync(request.Prompt); return Ok(new { Completion = result }); } } public class PromptRequest { public string Prompt { get; set; } }</code>
6.5 Konfigurieren von .NET Core-Anwendungen
In Program.cs oder Startup.cs:
<code>var builder = WebApplication.CreateBuilder(args); // 注冊(cè) HttpClient builder.Services.AddHttpClient("FineTunedModel", client => { client.BaseAddress = new Uri("https://your-model-endpoint/"); }); // 注冊(cè) ModelConsumerService builder.Services.AddTransient<ModelConsumerService>(); builder.Services.AddControllers(); var app = builder.Build(); app.MapControllers(); app.Run();</code>
-
Bereitstellung in Azure
-
Azure App Service:
- Für viele .NET Core-Anwendungen ist dies der einfachste Weg.
- Erstellen Sie eine neue Web-App über das Azure-Portal oder über die CLI.
<code>python -m venv venv source venv/bin/activate # 在 Windows 上:venv\Scripts\activate</code>
-
Azure-Funktion (optional):
- Ideal für die Ausführung serverloser, ereignisgesteuerter Logik, wenn Ihre Nutzung zeitweise oder geplant ist.
-
Azure Kubernetes Service (AKS) (Erweitert):
- Ideal für den Einsatz in gro?em Ma?stab.
- Containerisieren Sie Ihre Anwendung mit Docker und übertragen Sie sie an Azure Container Registry (ACR).
-
Best Practices
-
Datenschutz: Sorgen Sie für einen verantwortungsvollen Umgang mit sensiblen oder geschützten Daten, insbesondere w?hrend der Modellschulung.
-
überwachung und Protokollierung: Integrieren Sie mit Azure Application Insights, um die Leistung zu überwachen, die Nutzung zu verfolgen und Anomalien zu erkennen.
-
Sicherheit: Verwenden Sie Azure Key Vault zum Speichern von Schlüsseln (API-Schlüssel, Verbindungszeichenfolgen).
-
Modellversionierung: Verfolgen Sie bei Bedarf verschiedene optimierte Versionen Ihres Modells in Azure ML;
-
Hint Engineering: Verfeinern Sie Ihre Hinweise, um die besten Ergebnisse mit Ihrem fein abgestimmten Modell zu erzielen.
-
Fazit
Optimieren Sie LLM mit Python und Azure Machine Learning und integrieren Sie sie dann in .NET Core-Anwendungen, sodass Sie leistungsstarke dom?nenspezifische KI erstellen k?nnen L?sungen. Diese Kombination ist eine ausgezeichnete Wahl für Unternehmen, die das KI-?kosystem von Python und die Unternehmensfunktionen von .NET nutzen m?chten, alles unterstützt durch die Erweiterbarkeit von Azure.
Mit sorgf?ltiger Planung für Sicherheit, Datenverwaltung und DevOps k?nnen Sie eine produktionsbereite L?sung auf den Markt bringen, die reale Anforderungen erfüllt und genaue dom?nenspezifische Sprachfunktionen in einem leistungsstarken und einfach zu wartenden Framework bereitstellt.
Das obige ist der detaillierte Inhalt vonFeinabstimmung gro?er Sprachmodelle (LLMs) mit .NET Core, Python und Azure. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Hei?e KI -Werkzeuge

Undress AI Tool
Ausziehbilder kostenlos

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?er Artikel

Hei?e Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Der Schlüssel zum Umgang mit der API -Authentifizierung besteht darin, die Authentifizierungsmethode korrekt zu verstehen und zu verwenden. 1. Apikey ist die einfachste Authentifizierungsmethode, die normalerweise in den Anforderungsheader- oder URL -Parametern platziert ist. 2. BasicAuth verwendet Benutzername und Kennwort für die Basis64 -Codierungsübertragung, die für interne Systeme geeignet ist. 3.. OAuth2 muss das Token zuerst über Client_id und Client_secret erhalten und dann das BearerToken in den Anforderungsheader bringen. V. Kurz gesagt, die Auswahl der entsprechenden Methode gem?? dem Dokument und das sichere Speichern der Schlüsselinformationen ist der Schlüssel.

Assert ist ein Inssertion -Tool, das in Python zum Debuggen verwendet wird, und wirft einen Assertionerror aus, wenn der Zustand nicht erfüllt ist. Die Syntax ist eine geltende Bedingung sowie optionale Fehlerinformationen, die für die interne Logiküberprüfung geeignet sind, z. B. Parameterprüfung, Statusbest?tigung usw., k?nnen jedoch nicht für die Sicherheits- oder Benutzereingabeprüfung verwendet werden und sollten in Verbindung mit klaren Eingabeaufforderungen verwendet werden. Es ist nur zum Hilfsdebuggen in der Entwicklungsphase verfügbar, anstatt die Ausnahmebehandlung zu ersetzen.

Eine gemeinsame Methode, um zwei Listen gleichzeitig in Python zu durchqueren, besteht darin, die Funktion ZIP () zu verwenden, die mehrere Listen in der Reihenfolge und die kürzeste ist. Wenn die Listenl?nge inkonsistent ist, k?nnen Sie iTertools.zip_longest () verwenden, um die l?ngste zu sein und die fehlenden Werte auszufüllen. In Kombination mit Enumerate () k?nnen Sie den Index gleichzeitig erhalten. 1.zip () ist pr?gnant und praktisch, geeignet für die Iteration gepaarte Daten; 2.zip_longest () kann den Standardwert beim Umgang mit inkonsistenten L?ngen einfüllen. 3.Enumerate (ZIP ()) kann w?hrend des Durchlaufens Indizes erhalten und die Bedürfnisse einer Vielzahl komplexer Szenarien erfüllen.

TypHintsinpythonsolvetheProblemofAmbiguityAndpotentialbugsindynamicalpedCodeByAllowingDevelopstospecifyexpectypes

INPYTHON, ITERATORATORSAROBJECTSHATALWOULOUPING ThroughCollections Byimplementing__iter __ () und __Next __ (). 1) IteratorsworkviATheiterProtocol, verwendete __iter __ () toreturn thiteratorand__Next __ () torethentexteemtemuntemuntilstoperationSaised.2) und

Um moderne und effiziente APIs mit Python zu schaffen, wird Fastapi empfohlen. Es basiert auf Eingabeaufforderungen an Standardpython -Typ und kann automatisch Dokumente mit ausgezeichneter Leistung generieren. Nach der Installation von Fastapi und ASGI Server Uvicorn k?nnen Sie Schnittstellencode schreiben. Durch das Definieren von Routen, das Schreiben von Verarbeitungsfunktionen und die Rückgabe von Daten kann schnell APIs erstellt werden. Fastapi unterstützt eine Vielzahl von HTTP -Methoden und bietet automatisch generierte Swaggerui- und Redoc -Dokumentationssysteme. URL -Parameter k?nnen durch Pfaddefinition erfasst werden, w?hrend Abfrageparameter durch Einstellen von Standardwerten für Funktionsparameter implementiert werden k?nnen. Der rationale Einsatz pydantischer Modelle kann dazu beitragen, die Entwicklungseffizienz und Genauigkeit zu verbessern.

Um die API zu testen, müssen Sie Pythons Anfragebibliothek verwenden. In den Schritten werden die Bibliothek installiert, Anfragen gesendet, Antworten überprüfen, Zeitüberschreitungen festlegen und erneut werden. Installieren Sie zun?chst die Bibliothek über PipinstallRequests. Verwenden Sie dann Requests.get () oder Requests.Post () und andere Methoden zum Senden von GET- oder Post -Anfragen. überprüfen Sie dann die Antwort. Fügen Sie schlie?lich Zeitüberschreitungsparameter hinzu, um die Zeitüberschreitungszeit festzulegen, und kombinieren Sie die Wiederholungsbibliothek, um eine automatische Wiederholung zu erreichen, um die Stabilit?t zu verbessern.

In Python sind Variablen, die in einer Funktion definiert sind, lokale Variablen und sind nur innerhalb der Funktion gültig. Extern definiert sind globale Variablen, die überall gelesen werden k?nnen. 1. lokale Variablen werden zerst?rt, wenn die Funktion ausgeführt wird. 2. Die Funktion kann auf globale Variablen zugreifen, kann jedoch nicht direkt ge?ndert werden, sodass das globale Schlüsselwort erforderlich ist. 3. Wenn Sie die ?u?eren Funktionsvariablen in verschachtelten Funktionen ?ndern m?chten, müssen Sie das nichtlokale Schlüsselwort verwenden. 4.. Variablen mit demselben Namen beeinflussen sich in verschiedenen Bereichen nicht gegenseitig; 5. Global muss bei der Modifizierung globaler Variablen deklariert werden, ansonsten werden ungebundener Fehler aufgeworfen. Das Verst?ndnis dieser Regeln hilft bei der Vermeidung von Fehler und zum Schreiben zuverl?ssigerer Funktionen.
