Construire un système RQA avec Deepseek R1 et rationaliser
Mar 07, 2025 am 10:43 AMDeepseek R1: révolutionner les applications d'IA avec des questions basées sur la récupération répondant
Deepseek R1, un modèle de raisonnement open source révolutionnaire, gagne rapidement du terrain pour son efficacité et sa précision dans la construction d'applications d'IA. Cet article détaille la construction d'un système de réponse aux questions basé sur la récupération (RQA) utilisant Deepseek R1, Langchain et Streamlit. Nous explorerons ses capacités dans des taches de raisonnement réel, présentant son pouvoir dans une application pratique.
Résultats d'apprentissage clés:
- Saisissez les capacités améliorées de raisonnement et de résolution de problèmes d'un système RQA alimenté par Deepseek R1.
- Comprendre l'architecture et les fonctionnalités de Deepseek R1 pour les questions et réponses basées sur l'IA.
- Apprenez à intégrer Deepseek R1 dans les systèmes de réponse aux questions basés sur la récupération.
- Voir comment l'apprentissage du renforcement améliore la précision des réponses profondes R1.
- Analyser les applications R1 profondes du monde réel dans le codage, les mathématiques et le raisonnement logique.
(Cet article fait partie du blogathon de la science des données.)
Table des matières:
- Comprendre Deepseek R1
- Formation Deepseek R1-Zero et R1
- Les quatre étapes de formation de Deepseek R1
- Fonctionnalités clés de Deepseek R1
- Déploiement local de Deepseek R1
- Construire un système RQA avec Deepseek R1
- Les questions fréquemment posées
Comprendre Deepseek R1
Dans le domaine dynamique de l'IA, les modèles de fondation open source transforment le développement de l'IA d'entreprise. Deepseek R1, développé par la société d'IA chinois Deepseek, est un modèle de raisonnement open-source con?u pour exceller aux taches nécessitant un raisonnement logique, une résolution de problèmes mathématiques et une prise de décision en temps réel. Son efficacité et ses performances s'étendent sur diverses applications, du raisonnement général à la génération de code.
Deepseek R1-Zero et R1 Formation
Alors que de nombreux modèles de grande langue (LLMS) suivent un processus de formation en trois étapes (pré-formation, réglage fin supervisé et apprentissage du renforcement), Deepseek R1-Zero utilise une approche différente. Il exploite un modèle de base profonde-V3 (671 milliards de paramètres) et saute un réglage fin supervisé, en utilisant directement une technique d'apprentissage de renforcement à grande échelle appelée optimisation relative de politique de groupe (GRPO).
GRPO, basé sur l'optimisation proximale des politiques (PPO), simplifie la formation en éliminant le besoin d'un modèle de fonction de valeur. Cependant, la production de Deepseek R1-Zero a souffert de problèmes de lisibilité. Deepseek R1 aborde ces lacunes.
Les quatre étapes de formation de Deepseek R1
Deepseek R1 s'appuie sur la fondation de Deepseek R1-Zero, incorporant quatre étapes de formation clés:
- Démarrage à froid: Fonctionnement sur un sous-ensemble de haute qualité de données R1-zéro Deepseek pour améliorer la lisibilité.
- Raisonnement Apprentissage du renforcement: Améliorer les compétences de raisonnement grace à l'apprentissage du renforcement à grande échelle dans les domaines de codage, de mathématiques, de sciences et de logique.
- échantillonnage de rejet et réglage fin supervisé: Génération de plusieurs échantillons, ne conservant que les bons et lisibles via un échantillonnage de rejet, suivi d'un autre réglage fin avec un modèle de récompense génératif.
- Apprentissage du renforcement diversifié: Utiliser des récompenses basées sur des règles pour des taches telles que les mathématiques et le rétroaction du modèle de langue pour s'aligner sur les préférences humaines.
Fonctionnalités clés de Deepseek R1
- open source (licence MIT): facilite l'inspection, la modification et l'intégration dans divers projets. Disponible sur des plates-formes comme Github et Azure AI Foundry.
- Haute performance: comparable au GPT-4 d'OpenAI sur divers repères (mathématiques, génération de code, raisonnement complexe).
- Mélange d'experts (MOE) Architecture: Un modèle de paramètres de 671 milliards d'activation seulement 37 milliards de paramètres par passe-avant, optimisation de l'efficacité.
- Modèles distillés: propose des modèles plus petits et plus déployables (par exemple, Deepseek-R1-Distill-Qwen-32B, Qwen-1.5b, 7b, 14b).
Déploiement local de Deepseek R1
Le déploiement est simple en utilisant Olllama:
- Installer Olllama.
- Exécutez la commande suivante dans votre terminal (la sélection de la taille du modèle est possible):
ollama run deepseek-r1 # Default 7B model ollama run deepseek-r1:1.5b # Specific model
Construire un système RQA avec Deepseek R1
Construisons un système RQA à l'aide de Langchain et Deepseek R1:
étape 1: Importer les bibliothèques
import streamlit as st from langchain_community.document_loaders.csv_loader import CSVLoader from langchain_community.embeddings import HuggingFaceEmbeddings from langchain_community.vectorstores import FAISS from langchain_community.llms import Ollama from langchain.prompts import PromptTemplate from langchain.chains import LLMChain from langchain.chains.combine_documents.stuff import create_stuff_documents_chain from langchain.chains import RetrievalQA
(étapes 2-10: les étapes restantes pour construire l'application Streamlit, y compris le téléchargement de fichiers, la création d'intégration, la génération de magasins vectoriels, la configuration de récupération, la définition LLM, la création du modèle d'invite, la définition de la cha?ne QA et l'implémentation de l'interface utilisateur, sont identiques à la réponse originale.
Exemple de sortie:(illustre la fonctionnalité de l'application avec un exemple de requête et de réponse.)
Deepseek R1 représente un progrès significatif dans les modèles de raisonnement IA. Sa combinaison de techniques sophistiquées et d'accessibilité open source en fait un outil puissant pour les développeurs. L'exemple du système RQA démontre son application pratique et son potentiel d'innovation future.
Prise des clés:
- Deepseek R1 est un modèle de raisonnement open-source haute performance.
- Le système RQA exploite les capacités de Deepseek R1 pour répondre à des questions efficaces.
- La formation de Deepseek R1 améliore l'explication et la précision.
- L'architecture MOE optimise l'utilisation des ressources.
Références:
- grpo
- AI PAPERS ACADEMY
Questions fréquemment posées:
(La section FAQ reste identique à la réponse d'origine.)
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undress AI Tool
Images de déshabillage gratuites

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
échangez les visages dans n'importe quelle vidéo sans effort grace à notre outil d'échange de visage AI entièrement gratuit?!

Article chaud

Outils chauds

Bloc-notes++7.3.1
éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Rappelez-vous le flot de modèles chinois open source qui a perturbé l'industrie du Genai plus t?t cette année? Alors que Deepseek a fait la majeure partie des titres, Kimi K1.5 était l'un des noms importants de la liste. Et le modèle était assez cool.

à la mi-2025, l'AI ?Arme Race? se réchauffe, et Xai et Anthropic ont tous deux publié leurs modèles phares, Grok 4 et Claude 4.

Mais nous n'aurons probablement pas à attendre même 10 ans pour en voir un. En fait, ce qui pourrait être considéré comme la première vague de machines vraiment utiles, de type humain, est déjà là. Les dernières années ont vu un certain nombre de prototypes et de modèles de production sortant de T

Construit sur le moteur de profondeur neuronale propriétaire de Leia, l'application traite des images fixes et ajoute de la profondeur naturelle avec un mouvement simulé - comme les casseroles, les zooms et les effets de parallaxe - pour créer de courts bobines vidéo qui donnent l'impression de pénétrer dans le SCE

Jusqu'à l'année précédente, l'ingénierie rapide était considérée comme une compétence cruciale pour interagir avec les modèles de langage grand (LLM). Récemment, cependant, les LLM ont considérablement progressé dans leurs capacités de raisonnement et de compréhension. Naturellement, nos attentes

Imaginez quelque chose de sophistiqué, comme un moteur d'IA prêt à donner des commentaires détaillés sur une nouvelle collection de vêtements de Milan, ou une analyse de marché automatique pour une entreprise opérant dans le monde entier, ou des systèmes intelligents gérant une grande flotte de véhicules.

Une nouvelle étude de chercheurs du King’s College de Londres et de l’Université d’Oxford partage les résultats de ce qui s'est passé lorsque Openai, Google et Anthropic ont été jetés ensemble dans un concours fardé basé sur le dilemme du prisonnier itéré. Ce n'était pas

Les scientifiques ont découvert une méthode intelligente mais alarmante pour contourner le système. Juillet 2025 a marqué la découverte d'une stratégie élaborée où les chercheurs ont inséré des instructions invisibles dans leurs soumissions académiques - ces directives secrètes étaient la queue
