国产av日韩一区二区三区精品,成人性爱视频在线观看,国产,欧美,日韩,一区,www.成色av久久成人,2222eeee成人天堂

??
BFS? ??? ??? ?? ? ???? ?? ?? AI ????
? ?? ???? ?? ?? ???? ??? ?? ????? ?? ??? ??

???? ??? ?? ????? ?? ??? ??

Mar 07, 2025 am 09:11 AM

???? ??? ???? ???? ???? ???? ?? ??? ???? ??? ????? ???? ???? ???? ?????. ???? ????? ?? ??? ???? ???? ?? ??? ??? ??????. ???? AI? ?? ? ? RAG (Recreved-Augmented Generation) ???? ?? ??? ?? ??? ??? ???? ?? ???? ????? ???? ?? ????? ??? ?????. ? ??? ????? ??? ??? ????? ???? ?? ??, ?? ? ??? ?? ???? ???? ??? ????? ?? ? ????. ag? ???? AI? ?????? ??? ?? ??? ????? ?? ? ???? ??? ?????? ?? ? ? ????. ? ???? ???? AI? ???? Rag Pipeline? ???? ????? ???? ???? ??? ?? ??? ???? ?? ??? ? ??? ? ?? ??? ?????.

?? ??

Python ? Scraping Tools? ???? ?? ? ???? ?? ???? ???? ???? ?? ?? ?? ?? ????? ???? ??? ???? ??? ?????. AI ?? ??? ???? ?? ??, ?? ? ?? ?? ??? ?? ?? ???? ???? ??? ?? ??? ????? ???? ???? ????? ???? ??? ?????. RAG? ?? ?? ? ??? ??? ???? ??? ??? ???? ???? ?? ??? ??? ??? ??? ?? ???? ???? ??? ?????. ??? ????, ?? ?? ? ??? ?? ??? ??? ???? AI ???? ???? ??? ???? ????? ?? ??? ???? ????? ?? ? ? ??????. ???? ??? ? ?? ????? ???? ??? ???? ???? ???? ??? ???? ?? ??? ??? ?? ????? ????? ?? ? ? ????????.

? ??? ??? ?? ??? ??
  • ? ??? ???????. ??

    BFS? ??? ??? ?? ? ???? ?? ?? AI ????

    ? ?? ??? ???? ??? ??
      ?? ?? ?? ??? ?? ??
    • BFS? ??? ??? ?? ? ???? ???? ??? ?? ?? ???????? ??? ?? ???? ???? ? ?? ??? ??? ???? ???? ????. ???? ??? ? ???? ?? ? ???? ????? ???? ???? ?? ?????. ?? ???? ???? ???? ???? ?? ? ??? BFS (Brodth First Search)???. BFS? ?? ????? ???? ??? ?? ??? ???? ?? ??? ? ?? ???? ???? ? ??????. ?? ?? ???? ???? ???? ???? ?? ?? ?? ???? ?? ? ? ????. ? ????? BFS? ???? ? ????? ??? ??? ?? ?? ????? ???? ???? ??? ?? ???. BFS? ???? ? ???? ????? ?? ??? ???? ???? RAG ??? ???? ?????? ???? ??? ??? ????. 1 ?? : BFS? ??? ?? ?? ????? ??? ? ????? ?? ?? ??? ???????. BFS? ???? ????? ??? ?? ? ? ??? ????? ?? ???? ??? ?? ??? ???? ????. ? ??? ?? ??, ?? ?? ?? ?? ?? ??? ?? ?? ?? ???? ?? ? ??? ??? ?? ???? ?? ? ? ????. ?? ??? BFS? ???? ?? URL?? ?? ??? ?????. ?? ???? ??? ?? ?? (& lt; a & gt; ????? ??)? ??? ?? ?? ??? ?? ?? ???? ?? ??? ?? ??? ???? ??? ?? ??? ?????.
    • . ?? ??? ???? ??? ??? ????
    • ??? ?? ??? ?? ?? ? URL? ???? ???? ??? ?????? ???? ?????. ?? ? ??? ??? URL? ?? ? ?? ???? ?? ???? ? ?????. ? URL? ?? BeautifulSoup? ???? HTML? ?? ???? ?? ?? (HREF ????? ??)? ?????. ? ????? BFS Traversal? ???? ? URL? ???? ?? ??? ???? ??? ???? ?? ??? ?? ? ??? ? ?????. ? ???? ??? ????? ?? ????? ?? ? ? ??????.
    • ?? ? ??? ? ????? ??? ?? ??? ??? ???? ?????.
    ??? ???? ?? ? ????? 1500 ?? ??? ?? ? ????? ?? 3? ??? ?? ????? ?????. https://www.example.com? ?? ?? URL? ?????. ??? ?? ??? ?? ??? ????. ???? ???? ?? ??? ??? ??????2 ?? : ?? ? ???? ???? ????? BFS? ???? ?? ??? ???? ?? ???? ????? ??? ???? ????. RAG ?????? ??? ? ??? ??? ???? ? ????? ?? ??, ?? ? ?? ?? ???? ?? ?? ??? ?? ????. ? ????? ?? ? ?? ??? ???? ??? ?? ? ?? ???? ?? ?? ???? ??????. ??? ?? ?? ??? ??? (? : ?? ??, ?? ?? FAQ ??)? ?? ?? ??? ??? ??? ? ????.

    ??? ? URL? ?? HTTP ??? ?? ???? ???? ???? BeautifulSoup? ???? ??? ?? ???? ?????. ?? ? ???? ?? URL, ?? ? ???? ???? ?? ??? ?????. ?????, ??? ? ???? JSON ??? ???? RAG ??? ???? ??? ?? ? ? ????????. ? ????? ?? ??? ?? ?? ???? ???? ?? ? ??? ?????.

    ?? ? ??? ??? ???? ???? ???? ???? ??? JSON ?? (scraped_data.json)???. ??? ??? ?? ??? ?? ?? ? ????.

    ? JSON ???? ?? ? ???? URL, ?? ? ??? ???? ????. ? ??? ? ???? ?? RAG ???? ??? ?? ? ?? ??? ?? ?? ??? ??? ? ????. ??? ?? ??? ?? ??? ????. ???? ???? ?? ??? ??? ??????

    ai ????

    ? ?? ?? ???
    ?? ????? BFS (Brad First Search) ??? ???? ??? ???? ?? ? ???? ???? ????? ??????. ??? ???? ???? ?? ????? ?? ??? ???? ???? ?????? ??? ???? ?????. ??? ???? AI? ???? ????. ??? ? ???? ?????? ??? ???? ???? ?? ?????. ? ????? ???? AI? ???? ????? ?? ?? ??? ???? ?? ??? ??? ???? ??? ??? ???. ??????? ??? ????? ??? ?? ??? ????? ????? ??? ??? ? ???? ?????. 1 ?? : ??? ? ????? ? ??? ? ?? ??? ?? ?? ???? ???????? ????. ??? ?? ?? ???? ???? JSON ???? ???? ? ???? URL ? ?? ???? ?????. ???? ???? AI? ????? ??? ???? ???????.
    import requests
    from bs4 import BeautifulSoup
    from collections import deque
    
    # Function to extract links using BFS
    def bfs_link_extraction(start_url, max_depth=3):
        visited = set()  # To track visited links
        queue = deque([(start_url, 0)])  # Queue to store URLs and current depth
        all_links = []
    
        while queue:
            url, depth = queue.popleft()
    
            if depth > max_depth:
                continue
    
            # Fetch the content of the URL
            try:
                response = requests.get(url)
                soup = BeautifulSoup(response.content, 'html.parser')
    
                # Extract all links in the page
                links = soup.find_all('a', href=True)
                for link in links:
                    full_url = link['href']
                    if full_url.startswith('http') and full_url not in visited:
                        visited.add(full_url)
                        queue.append((full_url, depth + 1))
                        all_links.append(full_url)
            except requests.exceptions.RequestException as e:
                print(f"Error fetching {url}: {e}")
    
        return all_links
    
    # Start the BFS from the homepage
    start_url = 'https://www.example.com'  # Replace with the actual homepage URL
    all_extracted_links = bfs_link_extraction(start_url)
    print(f"Extracted {len(all_extracted_links)} links.")

    ?? ? ?? :

    import requests
    from bs4 import BeautifulSoup
    from collections import deque
    
    # Function to extract links using BFS
    def bfs_link_extraction(start_url, max_depth=3):
        visited = set()  # To track visited links
        queue = deque([(start_url, 0)])  # Queue to store URLs and current depth
        all_links = []
    
        while queue:
            url, depth = queue.popleft()
    
            if depth > max_depth:
                continue
    
            # Fetch the content of the URL
            try:
                response = requests.get(url)
                soup = BeautifulSoup(response.content, 'html.parser')
    
                # Extract all links in the page
                links = soup.find_all('a', href=True)
                for link in links:
                    full_url = link['href']
                    if full_url.startswith('http') and full_url not in visited:
                        visited.add(full_url)
                        queue.append((full_url, depth + 1))
                        all_links.append(full_url)
            except requests.exceptions.RequestException as e:
                print(f"Error fetching {url}: {e}")
    
        return all_links
    
    # Start the BFS from the homepage
    start_url = 'https://www.example.com'  # Replace with the actual homepage URL
    all_extracted_links = bfs_link_extraction(start_url)
    print(f"Extracted {len(all_extracted_links)} links.")
    ????? Python? ?? JSON ?????? ???? ?? ??? ??? ?????????. ??? ??? ? ???? ??? URL? Text_Content ??? ???? ???,? ??? ?? ??? ? ???? ?????. ? ??? ?? ???? ?? ? ????.

    2 ?? : ?? ??? ??? ?? ??, ??? ??? ??? ???? ? ??? ?? ?? Text_content? ?????. ?? ?? ??? ???? ?? ? ??? ?? ? ?? ? ? ????. ????? ???? ???? ?? ???? ??? ???? ??? ?? ???.

    ?? ? ?? :

    ? ???? input_text ???? ?? ??? ?? AI ??? ?? ?? ??? ???? ???? ????. ? ??? ???? ?? ??? ?? ??? ???? ?? ?????.

    3 ?? : ??? ?? AI ????? ???? ????? ?? ??? ??? ? ??? ? ??? ?? ???? AI ??? ????. ??? Groq API? ?? ???? ?? ?? ? ????? ???? ??? ? ???? ?????. AI ??? ???? ???? ?? ??, ?? ? ?? ?? ??? ?? ?? ??? ??? ??? ? ??? ?????.

    ?? ? ?? :

    ???, ??? GROQ? API ??? ???? input_text? ??? ??? ????? ??? ??? ????. ??? ???? ??? ??? ?? AI ??? ???? ??? ???? ?? ? ???? ?????. ??? ??, max_tokens ? top_p ?? ??? ???? ?? ? ??? ????? ??? ?????. API ?? ?? : <b> </b>

    ?? :
    Extracted 1500 links.

    ??? ??? ?????. ? ?? ??? ???? ???? ??? ?? ? ? ??? ?? ??? ?????.

    ?? :

    ? ??? ???? ?????. ??? ???? ? ??? ? ??? ?? ?? ??, ? ?? ?? ? ?? ???? ????.

    max_tokens :

    ?? ? ??? ?? ??? ????? top_p :

    ?? ??? ?? ?? ?? ??? ???? ??? ???? ?????.
    import json
    
    # Function to scrape and extract data from the URLs
    def scrape_data_from_links(links):
        scraped_data = []
    
        for link in links:
            try:
                response = requests.get(link)
                soup = BeautifulSoup(response.content, 'html.parser')
    
                # Example: Extract 'title' and 'content' (modify according to your needs)
                title = soup.find('title').get_text()
                content = soup.find('div', class_='content').get_text()  # Adjust selector
    
                # Store the extracted data
                scraped_data.append({
                    'url': link,
                    'title': title,
                    'content': content
                })
            except requests.exceptions.RequestException as e:
                print(f"Error scraping {link}: {e}")
    
        return scraped_data
    
    # Scrape data from the extracted links
    scraped_contents = scrape_data_from_links(all_extracted_links)
    
    # Save scraped data to a JSON file
    with open('/content/scraped_data.json', 'w') as outfile:
        json.dump(scraped_contents, outfile, indent=4)
    
    print("Data scraping complete.")
    4 ?? : ?? ?? ? ?? ??

    ?? AI ??? ???? ???? ??? ? ??? ???? ?????. ???? ??? ???? ???? ?? ?? ??? ???? ???? ???? ?? ?? ??? ????????.

    .

    ?? ? ?? :

    import requests
    from bs4 import BeautifulSoup
    from collections import deque
    
    # Function to extract links using BFS
    def bfs_link_extraction(start_url, max_depth=3):
        visited = set()  # To track visited links
        queue = deque([(start_url, 0)])  # Queue to store URLs and current depth
        all_links = []
    
        while queue:
            url, depth = queue.popleft()
    
            if depth > max_depth:
                continue
    
            # Fetch the content of the URL
            try:
                response = requests.get(url)
                soup = BeautifulSoup(response.content, 'html.parser')
    
                # Extract all links in the page
                links = soup.find_all('a', href=True)
                for link in links:
                    full_url = link['href']
                    if full_url.startswith('http') and full_url not in visited:
                        visited.add(full_url)
                        queue.append((full_url, depth + 1))
                        all_links.append(full_url)
            except requests.exceptions.RequestException as e:
                print(f"Error fetching {url}: {e}")
    
        return all_links
    
    # Start the BFS from the homepage
    start_url = 'https://www.example.com'  # Replace with the actual homepage URL
    all_extracted_links = bfs_link_extraction(start_url)
    print(f"Extracted {len(all_extracted_links)} links.")
    ? ?? ? ??? ? ???? pm_points

    ??? ??? ???? ????? ??? ? ??? ??? ?????. ?? ???? ?? ??? ?? ?? ????? ??? ??? ???? ??? ???? ?????. ??? ?? ??? ?? ??? ???, ???? ???? ?? ??? ??? ????????. 5 ?? : ?? ?? ? ??? ??? ?? ???? ?? ???? ??? ?? ???? ??? ?? ??? ??? ???? ?? ????. ?? ?? ????? ???? ?? ??? ??? ?? ????? ???? ????????. ?? ? ?? :

    ? ?? ?? ??? ??? ?? ???? ???? ?? ??? ?? ?? ? ? ????????. ?? ??? ??? ???? ?? ???? ?? ????? ???? ?? ?? ? ? ????. 6 ?? : ?? ? ??? ?? AI? ???? ???? ??? ? ???? ?? ? ? ??? ??? ??? ???? ??? ???? ???? ????. ??? ??? ? ??? JSON ??? ?? ???? ?? ??? ?? ??? ?? ?? ?? ? ??? ?????.

    ?? ? ?? :

    ? ??? ?? ? ???? ????? ???? ??? ?? ??? ? ? ????. ? ??? ??? ??? ? ???? ???? ?? ? ??? ???? ?????.

    ?? ?? ??? ?? ? ? ?? ? JSON ???? ? ??? ?? ?? ? ???? ?????. Fields PM_Points? ?? ??, ??, ?? ?? ?? ?? ??? ??? ? ??? ?????.

    ??? ?? ??? ?? ??? ????. ???? ???? ?? ??? ??? ??????

    ??? ?? ?? ? ?? ??? ?? ??

    ?? ????? ? ???? ??? ??? ????? JSON? ?? ??? ???? ??????. ?? ?? ???? ???? ???? ??? ???? ? ?? ????? ??? ??? ?? ? ? ????. ? ?????? ????, ??? RAG (Respreval-Augmented Generation) ??? ??? ??? ????.? ??? ??? ?? ?? ? ?? ?? ??? ???? ?? ? ??? ???? ??? ?????. ??? ??? ?? ?? ? ??? ? ???? ?? ????? RAG ??? ??? ?? ???? ?? ?? ??? ?? ??? ??? ?? ????? ?? ???? ????? ??? ?????.
    . 1 ?? : ?? ?? ?? Rag ??? ??? ??? ?? ???? ???????.

    ? ???? Langchain ?? ?? ??, ??? ? OpenAI ??? ???? ? ?????. JQ? ?? JSON ?????? Langchain? ?? ?? ??? ??? ???? ?? ??? ?? ??????. Langchain-Openai? GPT? ?? OpenAI ??? ??? ?????? Langchain-Chroma? ?? ???? ?????? ??? ?? ?? ???? ?????. ??, ??? ?? ???? ???? ?? ?? ? ??? ??? ??? ???? ???? ???? ?? ?? ? ??? ???????. 2 ?? : ?? ? ????? ?? JSONLOADER? ???? ?? ???? ?? ? ?? ? ??? ? ?????????. ?? ??? ???? ? ????? ??? ? JSON?? ?? ???, ?? ?? ? ??? ??? ? ? ?? ????.

    ? ????? ??? ?? ? ??? (??? ?? ??, ?? ? ?? ??)? ?? ??? ?????????. 3 ?? : ??? ?? ???? ?? ?? ?? ???? ???? RecursiveCharacterTexTsplitter? ???? ??? ?? ???? ????. ????? ?? ??? ?? ??? ?? ??? ?? ? ? ????.

    recursiveCharacterTextSplitter? ??? ? ?? ????? ??? ?? ??? ? ?? ??? ?? ??? ?? ????????. chunk_size ?? ??? ? ??? ??? ???? chunk_overlap? ??? ??? ??? ??? ????????. ?? add_start_index? ???? ???? ??? ??? ???? ? ?????? ? ??? ?? ???? ??? ??? ?? ?? ? ? ????. 4 ?? : ?? ??? ?? ??? ?? ??, ??? sentencetransformer? ???? ? ??? ???? ????? ?????. ??? ???? ??? ?? ???? ???? ??? ????, ?? ??? ?? ??? ???? ???? ? ?????.

    import requests
    from bs4 import BeautifulSoup
    from collections import deque
    
    # Function to extract links using BFS
    def bfs_link_extraction(start_url, max_depth=3):
        visited = set()  # To track visited links
        queue = deque([(start_url, 0)])  # Queue to store URLs and current depth
        all_links = []
    
        while queue:
            url, depth = queue.popleft()
    
            if depth > max_depth:
                continue
    
            # Fetch the content of the URL
            try:
                response = requests.get(url)
                soup = BeautifulSoup(response.content, 'html.parser')
    
                # Extract all links in the page
                links = soup.find_all('a', href=True)
                for link in links:
                    full_url = link['href']
                    if full_url.startswith('http') and full_url not in visited:
                        visited.add(full_url)
                        queue.append((full_url, depth + 1))
                        all_links.append(full_url)
            except requests.exceptions.RequestException as e:
                print(f"Error fetching {url}: {e}")
    
        return all_links
    
    # Start the BFS from the homepage
    start_url = 'https://www.example.com'  # Replace with the actual homepage URL
    all_extracted_links = bfs_link_extraction(start_url)
    print(f"Extracted {len(all_extracted_links)} links.")
    sentencetransformer? ??? ??? ?? ???? ???? ? ???? ?? ??? ???? ??? ?? ?? ??? ????. embed_documents ??? ?? ??? ???? ???? ???? ?? embed_query? ??? ??? ?? ???? ?????. ?? ??? ? Chroma? ??? ??? ???? ???? ???? ???? ??? ?????? ??? ??? ?? ?? ?? ??? ?????. 5 ?? : ???? ?? ?? ????? ?????. ? ?? ??? ??? ??? ???? ?? ???? ?? ??? ??? ?????. ??? ?? ??? ?? ??? ?????.

    ????? ??? ??? ???? ?? ????? ?? ???? ?? ???? ????. k = 6? ??? ?? ????? ?? 6 ? ??? ????? ?? ?????.

    6 ?? : ???? ??? ??
    import requests
    from bs4 import BeautifulSoup
    from collections import deque
    
    # Function to extract links using BFS
    def bfs_link_extraction(start_url, max_depth=3):
        visited = set()  # To track visited links
        queue = deque([(start_url, 0)])  # Queue to store URLs and current depth
        all_links = []
    
        while queue:
            url, depth = queue.popleft()
    
            if depth > max_depth:
                continue
    
            # Fetch the content of the URL
            try:
                response = requests.get(url)
                soup = BeautifulSoup(response.content, 'html.parser')
    
                # Extract all links in the page
                links = soup.find_all('a', href=True)
                for link in links:
                    full_url = link['href']
                    if full_url.startswith('http') and full_url not in visited:
                        visited.add(full_url)
                        queue.append((full_url, depth + 1))
                        all_links.append(full_url)
            except requests.exceptions.RequestException as e:
                print(f"Error fetching {url}: {e}")
    
        return all_links
    
    # Start the BFS from the homepage
    start_url = 'https://www.example.com'  # Replace with the actual homepage URL
    all_extracted_links = bfs_link_extraction(start_url)
    print(f"Extracted {len(all_extracted_links)} links.")
    ??, ?? ??? ??? ????? ???? ???? ????. ? ????? ???? (??? ??)? ??? ??? ?? ???? ??? ??? ??????? ?? ????? ??? ?????.
    • ChatPromptTemplate? ??? ?????? ??? ??? ? ???? ???? ???? ??? ??? ??????. {context}? ?? ??? ??? ???? {Question}? ??? ??? ?????.
    • 7 ?? : ?? ?? ?? ? ????? OpenAI GPT ??? ??????. ? ??? ????? ???? ??? ? ????? ???? ??? ?????.
    • ??? chatopenai ??? ????? ????? ???? ?? ?????. ??? ???? ??? ?? ? ?? ?? ?“GPT-4O-MINI”? ????? ? ??? ???? ? ??? ??? ? ????.
    8 ?? : ?? ??? ?? ??

    ???, ??? ?? ?? ?? (Retriever, Prompt, LLM)? ????? ?? ??? ??? ?????. ? ??? ??? ??? ??? ?? ????? ???? ??? ???? ??? ?????.

    runnablePassthrough? ??? ????? ?? ????????. Stroutputparser? ???? ??? ??? ???? ???? ????? ? ?????.

    9 ?? : ?? ??? ?? ???
    Extracted 1500 links.
    ????? ??? ??? ??? ??? ??? ??????. ? ??? ?? ???? ?? ?? ??? ???? ?? ??? ?? ???? ??? ?????.
    • ???? ? ??? ?? ???? ??? ??? ???? ?? ? ??? ?????. ? ??? ?? ??? ??? ????? ???? ????? ??? ??? ?????.
    • ??? ?? ??? ?? ??? ??? ????. ???? ???? ?? ??? ??? ??????
    • ? ????, ??? ?? ? ?? ?? ?? ?? (RAG) ??? ???? ?? ???????? ???? ?? ??? ??? ??? ??????. ??? ???? ???? ???? ? ?? ??? ??? ?? ? ?? ??? ?? ? ? ??????. ? ?? ??? ?? ?? ?? ?? ??? ???? ? ??? ?? ?????? ?? ?????? ?? ? ? ??????.

      ?????, RAG? ???? ??? ??? ???? ?? ??? ???? ???? ??? ??? ???? ?? ? ? ????. ??? ?? ??? ?? ??? ?? ?? ??? ???? ??, ?? ? ?? ? ??? ???? ???? ???? ? ??? ??? ??? ? ??? ?????. ? ??? ??? ?? ????? ???? ?????? ?? ??? ? ? ???, ??? ?? ??? ????? ?? ??? ?????? ?? ??? ?? ??? ??? ? ??? ? ? ????. ?? ? ???? ?? ?? ????? ???? ???? ?? ??? ?? ??? ?? ???? ???? ????. ??? ? ?? ?? ?? AWS ?? GCP? ?? ???? ???? ???? ????? ??? ?? ??? ?? ?? ? ?? ? ???? ???? ??? ? ????. ?????? ??? ????? ???? ???? ???? ?? ???? ???? ?? ?? ? ??? ??? API ?? UI? ???? ?? ??????. ???? ? ? ??? ??? ? ?? ????? ???? ???? ????? ???????.

      ??? ?? ?? ???? ???? ?? ????? ??????? ?? ? ? ???, ?? ??? ??? ?? ???? ??? ??? ????????. ??? ??? ? ??? ??? ?? ???? ???? ??? ??? ???? ?? ???? ??? ???? ???? ?? ?????? ?? ??? ??? ? ????.

      ?? ???? ??? ?? ???? ????? ?? ?? ????? ?? ??? ???? ???? ?? ?????. RAG (Resprieved-Augmented Generation) ???? ??? ????, ??? ?? ? ??? ??? ???? ?? ???????? ??? ???? ????. Rag Systems? ?? ??? ???? ???, ?? ? ??? ???????? ???? ??? ?? ??? ???? ????? ???? ???? ?? ??? ?? ??? ?? ? ??? ?????. ? ?? ??? ???? ???? ????? ??? ?? ? ? ? ??? ??? ???? ??? ?? ????. ??? ???? ??? AI ?? ???? ? ??? ????? ????? ??? ??? ??? ?? ??? ?? ???? ???? ???? ???? ??? ?? ? ? ????. ? ??? ??

      ?? ?? ? ? ????? ???? ???? ?? ??? ????? ???? ??? ??? ?????? ?? ?????? ??????. ?? ??? ??? ??? ????? ?? ???? ????? ?? ??? ???? ???? AI ??? ?????? ?? ?????? ?????. RAG? ??? ?? ???? ??? ? ????? ???? ? ?? ?? ????? ????? ??? ???? ??? ?????. ???? ?? ??? ? ?? ?? ???? ?? ???? ? ? ??? ?? ? ????? ????? ??????. RAG ??? ??? ??? ??? ???? ?? ???? ?? ??? ???? ?????.

      ??? :
        ???? ?? ? ?? ??? ?? ???? ?????. ? ???? ?? ?? ?? ????? ? 4 ?? ???? ??? ? ????. ??? ??, ?? ? ??? ????????! ?? ?? ??
      • q 1.?? ???? RAG (Retrieval-Augmented Generation)? ???? ??? ??????
      • ?? ????? ? ???? ????? ???, ?? ??? ???? ?? ? ? ??????. ?? ?????? ???? ???? ??? ?????? ??? ????? ??? ?? ? ?? ??? ?? ?? ???? ??? ??? ???? ???? ???
      • ?? ?????
      • ???? ???? ? ??????.? ??? ???? ???? Analytics Vidhya? ???? ??? ??? ??? ?? ?????.

? ??? ???? ??? ?? ????? ?? ??? ??? ?? ?????. ??? ??? PHP ??? ????? ?? ?? ??? ?????!

? ????? ??
? ?? ??? ????? ???? ??? ??????, ???? ?????? ????. ? ???? ?? ???? ?? ??? ?? ????. ???? ??? ???? ???? ??? ?? admin@php.cn?? ?????.

? AI ??

Undresser.AI Undress

Undresser.AI Undress

???? ?? ??? ??? ?? AI ?? ?

AI Clothes Remover

AI Clothes Remover

???? ?? ???? ??? AI ?????.

Video Face Swap

Video Face Swap

??? ??? AI ?? ?? ??? ???? ?? ???? ??? ?? ????!

???

??? ??

???++7.3.1

???++7.3.1

???? ?? ?? ?? ???

SublimeText3 ??? ??

SublimeText3 ??? ??

??? ??, ???? ?? ????.

???? 13.0.1 ???

???? 13.0.1 ???

??? PHP ?? ?? ??

???? CS6

???? CS6

??? ? ?? ??

SublimeText3 Mac ??

SublimeText3 Mac ??

? ??? ?? ?? ?????(SublimeText3)

???

??? ??

?? ????
1783
16
Cakephp ????
1723
56
??? ????
1577
28
PHP ????
1440
31
???
?? 7 ?? ??? ?? ?? 7 ?? ??? ?? Jun 17, 2025 pm 04:32 PM

Google? Notebooklm? Gemini 2.5? ???? ??? AI ?? ??? ??? ??? ???? ? ?????. ??? ?? ?, ???? ??? ? ?? "??"??? ?? ?? ???? ??? ??? ????.

???? ???? : 2025 ? ?????? LLM? ???? 10 ??? ???? ???? : 2025 ? ?????? LLM? ???? 10 ??? Jun 20, 2025 am 11:13 AM

LLMSORGANATIONS? ?? ??? ??? LLM? ?? ??? ?? ????? ??? 72%? ?? ??? ?? ? ??? ???? ???, ?? ??? ?? ? ??? ???? ????. ?? ?? 40% a

AI ???? ?? ??? ?????? AI ?? ??? ??, ?? ?? ?????? 3 ?? ??? ?? AI ???? ?? ??? ?????? AI ?? ??? ??, ?? ?? ?????? 3 ?? ??? ?? Jul 02, 2025 am 11:13 AM

??? ?????? ?????? ???? ????. AI ?? ?? ??? ??? ???? ???? ?? ???? ?? ??? ??????. ??, ?? ?? ???? ??? ?? ? ????? ? ??? PR? ???? ??? ??? ????

?? AI? ?? ??? ?? (AI Outlook Part 1) ?? AI? ?? ??? ?? (AI Outlook Part 1) Jun 21, 2025 am 11:11 AM

?? : ?? ?? ? Tirias Research?? ???? ?? ? IBM, NVIDIA ? ?? ??? ?? ??????. ?? ?? ?? AI ??? ??? ?? ??? ? ???? ??? ??? ??? ? ???????. ?? ?? a

??? ?? ??? ??? AI ?? ??? ????? ?? ????. ??? ?? ??? ??? AI ?? ??? ????? ?? ????. Jun 20, 2025 am 11:16 AM

? ??? AI ??? ??? ?????. ?? ??? Kayak ? Edtech ?? ? Chegg? ?? ????? ?? ???? ????? Google? ?? ???? ??? 60%? ???? ??? ???? ?? ??? ???? ????.

??? ?? ??? : AI ?? ??? ??? ?? ??? ????? ??? ?? ??? : AI ?? ??? ??? ?? ??? ????? Jun 19, 2025 am 11:16 AM

???? ??? ??? ?? ??? ??? ??? ?? ? ?? ??? ???? ??? ???? ???? ?? ???? ?? ?????. ??? ????? ??? ?? ???? ?? ?? ??? ???? ????.

AGI? AI Superintelligence? ?? ?? ?? ??? ?? ?????. AGI? AI Superintelligence? ?? ?? ?? ??? ?? ?????. Jul 04, 2025 am 11:10 AM

??? ?? ??????. ???? AI ??? ??? ??? ??? ??? AI ???? ???? ???? ?? ???? AI? ?? Forbes ? ??? ????? (?? ?? ??). AGI? ??? ????

Cisco? Cisco Live U.S. 2025?? ???? AI ??? ?? Cisco? Cisco Live U.S. 2025?? ???? AI ??? ?? Jun 19, 2025 am 11:10 AM

?? ?? ??? ?? ?? ?? ??? ???? Cisco? ??? ?? ????? ??? ??? ??? ?? ? ? ???? ??? ?? ?????. (?? : Cisco

See all articles