国产av日韩一区二区三区精品,成人性爱视频在线观看,国产,欧美,日韩,一区,www.成色av久久成人,2222eeee成人天堂

Table des matières
Table des matières
Qu'est-ce que Qwen3?
Caractéristiques clés de Qwen3
Comment accéder aux modèles QWEN3 via API
Utilisation de Qwen3 pour alimenter vos solutions AI
Condition préalable
Construire un agent d'IA à l'aide de Qwen3
étape 1: Configuration des bibliothèques et des outils
étape 2: Création de l'agent
étape 3: Initialisation de l'agent
Sortir
Construire un système de chiffon à l'aide de Qwen3
étape 2: Création des intérêts
étape 3: Initialisation du système de chiffon
Applications de Qwen3
Conclusion
Questions fréquemment posées
Maison Périphériques technologiques IA Comment construire des systèmes de chiffon et des agents de l'IA avec QWEN3

Comment construire des systèmes de chiffon et des agents de l'IA avec QWEN3

May 07, 2025 am 09:10 AM

Qwen vient de publier 8 nouveaux modèles dans le cadre de sa dernière famille - Qwen3, présentant des capacités prometteuses. Le modèle phare, QWEN3-235B-A22B, a surpassé la plupart des autres modèles, notamment Deepseek-R1, Openai, O1, O3-Mini, Grok 3 et Gemini 2.5-Pro, dans des références standard. Pendant ce temps, le petit QWEN3-30B-A3B a surpassé le QWQ-32B qui a environ 10 fois les paramètres activés comme nouveau modèle. Avec ces capacités avancées, ces modèles s'avèrent être un excellent choix pour un large éventail d'applications. Dans cet article, nous explorerons les caractéristiques de tous les modèles QWEN3 et apprendrons à les utiliser pour construire des systèmes de chiffon et des agents d'IA.

Table des matières

  • Qu'est-ce que Qwen3?
  • Caractéristiques clés de Qwen3
  • Comment accéder aux modèles QWEN3 via API
  • Utilisation de Qwen3 pour alimenter vos solutions AI
    • Condition préalable
    • Construire un agent d'IA à l'aide de Qwen3
    • Construire un système de chiffon à l'aide de Qwen3
  • Applications de Qwen3
  • Conclusion
  • Questions fréquemment posées

Qu'est-ce que Qwen3?

Qwen3 est la dernière série de modèles de grande langue (LLMS) dans la famille Qwen, composé de 8 modèles différents. Il s'agit notamment de QWEN3-235B-A22B, QWEN3-30B-A3B, QWEN3-32B, QWEN3-14B, QWEN3-8B, QWEN3-4B, QWEN3-1.7B et QWEN3-0.6B. Tous ces modèles sont publiés sous la licence Apache 2.0, ce qui les rend gratuitement à la disposition des individus, des développeurs et des entreprises.

Alors que 6 de ces modèles sont denses, ce qui signifie qu'ils utilisent activement tous les paramètres pendant la période d'inférence et de formation, 2 d'entre eux sont à l'ouverture:

  • QWEN3-235B-A22B: un grand modèle avec 235 milliards de paramètres, dont 22 milliards sont des paramètres activés.
  • QWEN3-30B-A3B: un MOE plus petit avec 30 milliards de paramètres totaux et 3 milliards de paramètres activés.

Voici une comparaison détaillée de tous les 8 modèles QWEN3:

Modèles Couches Têtes (q / kv) Cravate Durée du contexte
Qwen3-0.6b 28 16/8 Oui 32k
Qwen3-1.7b 28 16/8 Oui 32k
Qwen3-4b 36 32/8 Oui 32k
Qwen3-8b 36 32/8 Non 128K
Qwen3-14b 40 40/8 Non 128K
Qwen3-32b 64 64/8 Non 128K
QWEN3-30B-A3B 48 32/4 Non 128K
QWEN3-235B-A22B 94 64/4 Non 128K

Voici ce que dit la table:

  • Couches: Les couches représentent le nombre de blocs de transformateurs utilisés. Il comprend un mécanisme d'auto-atténuation multiples, des réseaux à l'avance des aliments, un codage positionnel, une normalisation de la couche et des connexions résiduelles. Ainsi, lorsque je dis que QWEN3-30B-A3B a 48 couches, cela signifie que le modèle utilise 48 blocs de transformateurs, empilés séquentiellement ou en parallèle.
  • Têtes: Les transformateurs utilisent une attention multiples, ce qui divise son mécanisme d'attention en plusieurs têtes, chacune pour apprendre un nouvel aspect à partir des données. Ici, Q / KV représente:
    • Q (têtes de requête): Nombre total de têtes d'attention utilisées pour générer des requêtes.
    • KV (clé et valeur): le nombre de têtes de clé / valeur par bloc d'attention.

Remarque: Ces têtes d'attention pour la clé, la requête et la valeur sont complètement différentes de la clé, de la requête et du vecteur de valeur généré par une auto-attention.

Lire aussi: Modèles Qwen3: Comment accéder, performances, fonctionnalités et applications

Caractéristiques clés de Qwen3

Voici quelques-unes des principales caractéristiques des modèles QWEN3:

  1. Pré-formation: le processus de pré-formation se compose de trois étapes:
    • Dans la première étape, le modèle a été pré-entra?né sur plus de 30 billions de jetons avec une longueur de contexte de jetons 4K. Cela a enseigné les compétences linguistiques de base du modèle et les connaissances générales.
    • Dans la deuxième étape, la qualité des données a été améliorée en augmentant la proportion de données à forte intensité de connaissances comme les taches STEM, codage et raisonnement. Le modèle a ensuite été formé sur 5 billions de jetons supplémentaires.
    • Dans le stade final, des données de contexte long de haute qualité ont été utilisées en augmentant la longueur du contexte à 32k jetons. Cela a été fait pour garantir que le modèle peut gérer efficacement les entrées plus longues.
  1. Après la formation: Pour développer un modèle hybride capable à la fois d'un raisonnement étape par étape et de réponses rapides, un pipeline de formation en 4 étapes a été mis en ?uvre. Cela consistait à:
    • Longue cha?ne de réflexion (COT)
    • Apprentissage du renforcement basé sur le raisonnement (RL)
    • Fusion de mode de réflexion
    • RL général
  1. Modes de pensée hybride: les modèles QWEN3 utilisent une approche hybride pour la résolution de problèmes, avec deux nouveaux modes:
    • Mode de réflexion: Dans ce mode, les modèles prennent du temps en divisant une déclaration de problème complexe en étapes petites et procédurales pour la résoudre.
    • Mode non pensant: dans ce mode, le modèle fournit des résultats rapides et convient principalement à des questions plus simples.
  1. Prise en charge multilingue: les modèles QWEN3 prennent en charge 119 langues et dialectes. Cela aide les utilisateurs du monde entier à bénéficier de ces modèles.
  2. Capacités agentiques improvisées: QWEN a optimisé les modèles QWEN3 pour de meilleures capacités de codage et d'agence, le protocole de contexte de modèle de support (MCP).

Comment accéder aux modèles QWEN3 via API

Pour utiliser les modèles QWEN3, nous y accéderons via l'API à l'aide de l'API OpenRouter. Voici comment le faire:

  1. Créez un compte sur OpenRouter et accédez à la barre de recherche de modèle pour trouver l'API pour ce modèle.

Comment construire des systèmes de chiffon et des agents de l'IA avec QWEN3

  1. Sélectionnez le modèle de votre choix et cliquez sur ?Créer une clé API? sur la page de destination pour générer une nouvelle API.

Comment construire des systèmes de chiffon et des agents de l'IA avec QWEN3

Utilisation de Qwen3 pour alimenter vos solutions AI

Dans cette section, nous passerons par le processus de création d'applications d'IA à l'aide de QWEN3. Nous allons d'abord créer un agent de planificateur de voyage alimenté en AI utilisant le modèle, puis un bot de chiffon Q / A utilisant Langchain.

Condition préalable

Avant de construire des solutions d'IA du monde réel avec Qwen3, nous devons d'abord couvrir les conditions de base comme:

  • Familiarité avec l'invite de commande ou le terminal et la possibilité de les exécuter via le terminal.
  • Capacité à configurer des variables d'environnement.
  • Python doit être installé: https://www.python.org/downloads/
  • Connaissances sur les bases de Langchain: https://www.langchain.com/

Construire un agent d'IA à l'aide de Qwen3

Dans cette section, nous utiliserons Qwen3 pour créer un agent de voyage alimenté par l'IA qui donnera les principaux places de voyage pour la ville ou l'endroit que vous visitez. Nous permettons également à l'agent de rechercher sur Internet pour trouver des informations mises à jour et ajouter un outil qui permet la conversion de devises.

étape 1: Configuration des bibliothèques et des outils

Tout d'abord, nous installerons et importerons les bibliothèques et outils nécessaires nécessaires pour créer l'agent.

 ! PIP installer Langchain Langchain-Community Openai Duckduckgo-Search
De Langchain.chat_models importent Chatopenai
à partir de Langchain.agents Import Tool
de Langchain.tools Import DuckDuckgosearchrun
de Langchain.agents Import Initialize_agent


llm = chatopenai (
   base_url = "https://openrouter.ai/api/v1",
   api_key = "your_api_key",
   Model = "Qwen / Qwen3-235B-A22B: gratuit"
)
# Outil de recherche Web
Search = DuckDuckGosearchRun ()


# Outil pour DestinationAgentnt
Def Get_Destinations (destination):
   return search.run (f "Top 3 des spots touristiques dans {Destination}")


DestinationTool = Tool (
   name = "destination recommandeur",
   func = get_destinations,
   Description = "Finds les meilleurs endroits à visiter dans une ville"
)


# Outil pour les devises
def convert_usd_to_inr (requête):
   quantité = [float (s) pour s dans query.split () si s.replace ('.', '', 1) .isdigit ()]
   Si le montant:
       return f "{montant [0]} usd = {montant [0] * 83.2: .2f} inr"
   retourner "ne pouvait pas analyser le montant."


CurrencyTool = Tool (
   name = "Convertisseur de devises",
   func = convert_usd_to_inr,
   Description = "Converties USD en INR en fonction du taux statique"
)
  • Search_tool: DuckDuckGosearchrun () permet à l'agent d'utiliser la recherche Web pour obtenir des informations en temps réel sur les spots touristiques populaires.
  • DestinationTool: applique la fonction get_destinations (), qui utilise l'outil de recherche pour obtenir les 3 meilleurs spots touristiques dans une ville donnée.
  • CurrencyTool: utilise la fonction convert_usd_to_inr () pour convertir les prix de l'USD en INR. Vous pouvez modifier ?INR? dans la fonction pour le convertir en une devise de votre choix.

Lire aussi: Construisez un chatbot assistant de voyage avec HuggingFace, Langchain et Mistralai

étape 2: Création de l'agent

Maintenant que nous avons initialisé tous les outils, procédons à la création d'un agent qui utilisera les outils et nous donnera un plan pour le voyage.

 outils = [DestinationTool, CurrencyTool]


agent = initialize_agent (
   outils = outils,
   llm = llm,
   agent_type = "zéro-shot-react-description",
   Verbose = vrai
)
DEF TRIP_PLANNER (CITY, USD_BUDGET):
   dest = get_destinations (ville)
   INR_BUDGET = CONVERT_USD_TO_INR (F "{USD_BUDGET} USD à INR")
   Retour f "" "Voici votre plan de voyage:


* Top Spots dans {City} *:
{dest}
*Budget*:
{INR_BUDGET}
Profitez de votre excursion d'une journée! "" "
  • Initialize_agent: cette fonction crée un agent avec Langchain en utilisant une approche de réaction zéro-shot, qui permet à l'agent de comprendre les descriptions d'outils.
  • Agent_Type: ?Zero-shot-react-description? permet à l'agent LLM de décider de quel outil il doit utiliser dans une certaine situation sans connaissance préalable, en utilisant la description et l'entrée de l'outil.
  • Verbose: Verbose permet la journalisation du processus de réflexion de l'agent, afin que nous puissions surveiller chaque décision que l'agent prend, y compris toutes les interactions et outils invoqués.
  • TRIP_PLANNER: Il s'agit d'une fonction Python qui appelle manuellement des outils au lieu de compter sur l'agent. Il permet à l'utilisateur de sélectionner le meilleur outil pour un problème particulier.

étape 3: Initialisation de l'agent

Dans cette section, nous initialiserons l'agent et observerons sa réponse.

 # Initialiser l'agent
City = "Delhi"
USD_BUDGET = 8500


# Exécutez le planificateur multi-agents
réponse = agent.run (f "Planifier une excursion d'une journée à {City} avec un budget de {USD_BUDGET} USD")
à partir d'Ipython.Display Import Markdown, affichage
Affichage (Markdown (réponse))
  • Invocation de l'agent: agent.run () utilise l'intention de l'utilisateur via l'invite et prévoit le voyage.

Sortir

Comment construire des systèmes de chiffon et des agents de l'IA avec QWEN3

Construire un système de chiffon à l'aide de Qwen3

Dans cette section, nous créerons un bot de chiffon qui répond à toute requête dans le document d'entrée pertinent de la base de connaissances. Cela donne une réponse informative en utilisant QWEN / QWEN3-235B-A22B. Le système utiliserait également Langchain, pour produire des réponses précises et consacrées au contexte.

étape 1: Configuration des bibliothèques et des outils

Tout d'abord, nous installerons et importerons les bibliothèques et outils nécessaires nécessaires pour créer le système de chiffon.

 ! Pip installer Langchain Langchain-Community Langchain-Core Openai Tiktoken Chromadb Transformateurs de phrase Duckduckgo-Search
à partir de Langchain_community.Document_loaders Importer Textloader
à partir de Langchain.Text_Splitter Importer le caractères
De Langchain_community.VectorStores Import Chrom
De Langchain.embeddings Import HuggingFaceMedddings
De Langchain.Chains Import Retrievalqa
De Langchain.chat_models importent Chatopenai
# Chargez votre document
Loader = Textloader ("/ Content / my_docs.txt")
docs = loder.load ()
  • Documents de chargement: la classe ?Textloader? de Langchain charge le document comme un fichier PDF, TXT ou DOC qui sera utilisé pour la récupération Q / A. Ici, j'ai téléchargé my_docs.txt.
  • Sélection de la configuration du vecteur: J'ai utilisé ChromAdB pour stocker et rechercher les intégres dans notre base de données vectorielle pour le processus Q / A.

étape 2: Création des intérêts

Maintenant que nous avons chargé notre document, procédons à la création d'incorporation, ce qui aidera à atténuer le processus de récupération.

 # Split en morceaux
Splitter = CaractTextStSlitter (Chunk_Size = 300, Chunk_overlap = 50)
Chunks = Splitter.Split_Documents (Docs)


# ENCHED avec un modèle HuggingFace
Embeddings = HuggingFaceMedDings (Model_Name = "All-Minilm-L6-V2")
db = chroma.from_documents (morceaux, intégration = intégres)


# Configuration Qwen LLM d'OpenRouter
llm = chatopenai (
   base_url = "https://openrouter.ai/api/v1",
   api_key = "your_api_key",
   Model = "Qwen / Qwen3-235B-A22B: gratuit"
)


# Créer une cha?ne de chiffon
retriever = db.as_retriever (search_kwargs = {"k": 2})
rag_chain = retrievalqa.from_chain_type (llm = llm, retriever = retriever)
  • Diffusion de documents: le personnageTextSsplitter () divise le texte en morceaux plus petits, ce qui aidera principalement en deux choses. Tout d'abord, il facilite le processus de récupération, et deuxièmement, il aide à conserver le contexte de la partie précédente via Chunk_overlap.
  • Documents d'incorporation: les intégres convertissent le texte en vecteurs d'incorporation d'une dimension définie pour chaque jeton. Ici, nous avons utilisé Chunk_Size de 300, ce qui signifie que chaque mot / jeton sera converti en un vecteur de 300 dimensions. Maintenant, ce vecteur incorporera toutes les informations contextuelles de ce mot par rapport aux autres mots du morceau.
  • Cha?ne de chiffon: la cha?ne de chiffon combine le chromadb avec le LLM pour former un chiffon. Cela nous permet d'obtenir des réponses contextuellement conscientes du document ainsi que du modèle.

étape 3: Initialisation du système de chiffon

 # Posez une question
réponse = rag_chain.invoke ({"Query": "Comment puis-je utiliser Qwen avec MCP. Veuillez me donner un guide pas à pas avec les extraits de code nécessaires"})
affichage (Markdown (réponse ['résultat']))
  • Exécution de la requête: La méthode RAG_CHAIN_INVOKE () enverra la requête de l'utilisateur au système RAG, qui récupère ensuite les morceaux pertinents de contexte de la boutique de documents (Vector DB) et génère une réponse contextuelle.

Sortir

Comment construire des systèmes de chiffon et des agents de l'IA avec QWEN3

Comment construire des systèmes de chiffon et des agents de l'IA avec QWEN3

Comment construire des systèmes de chiffon et des agents de l'IA avec QWEN3

Vous pouvez trouver le code complet ici.

Applications de Qwen3

Voici quelques autres applications de Qwen3 dans toutes les industries:

  • Codage automatisé: Qwen3 peut générer, déboguer et fournir une documentation pour le code, ce qui aide les développeurs à résoudre les erreurs sans effort manuel. Son modèle de paramètres 22B excelle dans le codage, avec des performances comparables à des modèles comme Deepseek-R1, Gemini 2.5 Pro et O3-MinI d'OpenAI.
  • éducation et recherche: Qwen3 archite la haute précision en mathématiques, en physique et en résolution de problèmes de raisonnement logique. Il rivalise également avec le Gemini 2.5 Pro, tout en excelle avec des modèles tels que Openai O1, O3-Mini, Deepseek-R1 et Grok 3 Beta.
  • Intégration d'outils basée sur l'agent: Qwen3 mène également dans les taches d'agent AI en permettant l'utilisation d'outils externes, d'API et de MCP pour les flux de travail multi-étapes et multi-agents avec son modèle d'appel d'outils, ce qui simplifie encore l'interaction agentique.
  • Taches de raisonnement avancé: QWEN3 utilise une grande capacité de réflexion pour fournir des réponses optimales et précises. Le modèle utilise un raisonnement en cha?ne de pensées pour des taches complexes et un mode non pensant pour une vitesse optimisée.

Conclusion

Dans cet article, nous avons appris à construire des systèmes d'IA et de chiffon agentiques alimentés par QWEN3. Les performances élevées de QWEN3, le support multilingue et la capacité de raisonnement avancé en font un choix fort pour la récupération des connaissances et les taches basées sur les agents. En intégrant Qwen3 dans des ragas et des pipelines agentiques, nous pouvons obtenir des réponses précises, respectueuses de contextes et lisses, ce qui en fait un concurrent solide pour les applications du monde réel pour les systèmes alimentés par l'IA.

Questions fréquemment posées

Q1. En quoi Qwen3 diffère-t-il des autres LLM pour le chiffon?

A. Qwen3 a une capacité de raisonnement hybride qui lui permet d'apporter des changements dynamiques dans les réponses, ce qui lui permet d'optimiser les flux de travail de chiffon pour la récupération et l'analyse complexe.

Q2. Quels sont les outils nécessaires pour intégrer le chiffon?

A. Il comprend principalement la base de données vectorielle, les modèles d'intégration, le flux de travail Langchain et une API pour accéder au modèle.

Q3. Qwen3 peut-il autoriser le cha?nage d'outils multi-étapes dans le flux de travail de l'agent?

Oui, avec les modèles d'appel d'outils intégrés Qwen-Agent, nous pouvons analyser et activer les opérations d'outils séquentielles comme la recherche Web, l'analyse des données et la génération de rapports.

Q4. Comment réduire la latence dans les réponses des agents QWEN3?

A. On peut réduire la latence à bien des égards, certains d'entre eux sont:
1. Utilisation de modèles MOE comme QWEN3-30B-A3B, qui n'ont que 3 milliards de paramètres actifs.
2. En utilisant des inférences optimisées au GPU.

Q5. Quelles sont les erreurs courantes lors de la mise en ?uvre d'agents QWEN3?

A. L'erreur commune comprend:
1. échecs d'initialisation du serveur MCP, comme JSON Formatting et init.
2. Erreurs d'appariement de la réponse à l'outil.
3. Débordement de fenêtre de contexte.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefa?on, veuillez contacter admin@php.cn

Outils d'IA chauds

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

échangez les visages dans n'importe quelle vidéo sans effort grace à notre outil d'échange de visage AI entièrement gratuit?!

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Top 7 Alternatives Notebooklm Top 7 Alternatives Notebooklm Jun 17, 2025 pm 04:32 PM

Notebooklm de Google est un outil de prise de notes SMART IA propulsé par Gemini 2.5, qui excelle à résumer les documents. Cependant, il a toujours des limites dans l'utilisation des outils, comme les bouchons de source, la dépendance au nuage et la fonction récentes ?Discover?

De l'adoption à l'avantage: 10 tendances fa?onnant les LLM de l'entreprise en 2025 De l'adoption à l'avantage: 10 tendances fa?onnant les LLM de l'entreprise en 2025 Jun 20, 2025 am 11:13 AM

Voici dix tendances convaincantes qui remodèlent le paysage de l'IA de l'entreprise. L'engagement financier de la lancement envers les organisations LLMS augmente considérablement leurs investissements dans les LLM, 72% s'attendant à ce que leurs dépenses augmentent cette année. Actuellement, près de 40% A

L'investisseur de l'IA est resté à l'arrêt? 3 chemins stratégiques pour acheter, construire ou s'associer avec les fournisseurs d'IA L'investisseur de l'IA est resté à l'arrêt? 3 chemins stratégiques pour acheter, construire ou s'associer avec les fournisseurs d'IA Jul 02, 2025 am 11:13 AM

L'investissement est en plein essor, mais le capital seul ne suffit pas. Avec la montée et la décoloration des évaluations, les investisseurs dans les fonds de capital-risque axés sur l'IA doivent prendre une décision clé: acheter, construire ou partenaire pour gagner un avantage? Voici comment évaluer chaque option et PR

La croissance imparable de l'IA générative (Perspectives de l'IA partie 1) La croissance imparable de l'IA générative (Perspectives de l'IA partie 1) Jun 21, 2025 am 11:11 AM

Divulgation: mon entreprise, Tirias Research, a consulté IBM, NVIDIA et d'autres sociétés mentionnées dans cet article.Les moteurs de croissance La poussée de l'adoption générative de l'IA était plus dramatique que même les projections les plus optimistes ne pourraient prévoir. Ensuite, un

Ces startups aident les entreprises à se présenter dans des résumés de recherche d'IA Ces startups aident les entreprises à se présenter dans des résumés de recherche d'IA Jun 20, 2025 am 11:16 AM

Ces jours sont comptés, grace à l'IA. Le trafic de recherche pour des entreprises comme le site de voyage Kayak et Edtech Company Chegg en baisse, en partie parce que 60% des recherches sur des sites comme Google ne font pas que les utilisateurs cliquent sur des liens, selon un étalon

Nouveau rapport Gallup: la préparation à la culture de l'IA exige de nouveaux mentalités Nouveau rapport Gallup: la préparation à la culture de l'IA exige de nouveaux mentalités Jun 19, 2025 am 11:16 AM

L'écart entre l'adoption généralisée et la préparation émotionnelle révèle quelque chose d'essentiel sur la fa?on dont les humains s'engagent avec leur gamme croissante de compagnons numériques. Nous entrons dans une phase de coexistence où les algorithmes se tissent dans notre quotidien en direct

AGI et AI Superintelligence vont fortement frapper la barrière d'hypothèse du plafond humain AGI et AI Superintelligence vont fortement frapper la barrière d'hypothèse du plafond humain Jul 04, 2025 am 11:10 AM

Parlons-en. Cette analyse d'une percée innovante de l'IA fait partie de ma couverture de colonne Forbes en cours sur les dernières personnes en IA, notamment en identifiant et en expliquant diverses complexités d'IA percutantes (voir le lien ici). Se dirigeant vers Agi et

Cisco traque son voyage d'origine AI chez Cisco Live U.S.2025 Cisco traque son voyage d'origine AI chez Cisco Live U.S.2025 Jun 19, 2025 am 11:10 AM

Examinons de plus près ce que j'ai trouvé le plus important - et comment Cisco pourrait s'appuyer sur ses efforts actuels pour réaliser davantage ses ambitions. (Remarque: Cisco est un client consultatif de mon entreprise, Moor Insights & Strategy.)

See all articles