国产av日韩一区二区三区精品,成人性爱视频在线观看,国产,欧美,日韩,一区,www.成色av久久成人,2222eeee成人天堂

目錄
使用 ngx_cache_purge 模塊
手動刪除緩存文件(適用于臨時排查)
利用腳本自動清理緩存
首頁 運(yùn)維 nginx 如何清除或清除特定URL的NGINX緩存?

如何清除或清除特定URL的NGINX緩存?

Jul 17, 2025 am 02:32 AM
url nginx緩存

要清除Nginx緩存,推薦使用ngx_cache_purge模塊,其次可手動刪除緩存文件或編寫腳本自動清理。1. 使用ngx_cache_purge模塊:需在Nginx編譯時加入該模塊,并在配置中為/purge路徑添加權(quán)限控制和緩存清除規(guī)則,之后通過發(fā)送PURGE請求如curl -X PURGE http://127.0.0.1/purge/path/to/resource來清除指定URL緩存;2. 手動刪除緩存文件:根據(jù)proxy_cache_path設(shè)置找到緩存目錄,通過計算目標(biāo)URL的MD5哈希值查找并刪除對應(yīng)文件;3. 利用腳本自動清理:編寫腳本接收URL參數(shù),生成MD5并查找刪除緩存文件,適合頻繁操作且可擴(kuò)展支持批量處理或日志記錄。

How to clear or purge the Nginx cache for a specific URL?

如果你在使用 Nginx 作為反向代理或靜態(tài)資源服務(wù)器,并啟用了緩存功能,有時候你可能需要手動清除某個特定 URL 的緩存內(nèi)容。不像一些應(yīng)用層緩存系統(tǒng)提供了清理接口,Nginx 原生的緩存機(jī)制沒有直接命令來“刪除”某條緩存,但你可以通過一些技巧實現(xiàn)類似的效果。


使用 ngx_cache_purge 模塊

這是最直接、推薦的方式。ngx_cache_purge 是一個第三方模塊,允許你通過發(fā)送一個特殊的 HTTP 請求(通常是 PURGE 方法)來清除指定 URL 的緩存。

前提條件:

  • 你的 Nginx 需要編譯時加上這個模塊。
  • 配置中為對應(yīng)的 location 添加 cache purge 支持。

配置示例:

location / {
    proxy_pass http://backend;
    proxy_cache my_cache;
    proxy_cache_key $host$uri$is_args$args;
}

location ~ /purge(/.*) {
    allow 127.0.0.1; # 限制訪問權(quán)限
    deny all;
    proxy_cache_purge my_cache "$host$1$is_args$args";
}

這樣,當(dāng)你想清除 http://example.com/path/to/resource 的緩存時,就可以用 curl 發(fā)送請求:

curl -X PURGE http://127.0.0.1/purge/path/to/resource

注意:這個方法只適用于你有權(quán)限修改并重載 Nginx 配置的情況,而且必須確認(rèn)模塊已經(jīng)正確加載。


手動刪除緩存文件(適用于臨時排查)

如果你無法使用 ngx_cache_purge 模塊,也可以考慮直接刪除緩存文件。Nginx 緩存是基于路徑哈希存儲的,所以你需要知道目標(biāo) URL 的緩存路徑。

步驟如下:

  • 查看你的 proxy_cache_path 設(shè)置,例如:

    proxy_cache_path /data/nginx/cache levels=1:2 keys_zone=my_cache:10m max_size=1g inactive=60m use_temp_path=off;
  • URL 對應(yīng)的緩存文件名是通過對 proxy_cache_key 做 MD5 計算得到的。

比如你的 key 是 example.com/path/to/resource,那么可以使用命令生成對應(yīng)的 hash:

echo -n 'example.com/path/to/resource' | md5sum
# 輸出類似:9dc3a99b4f8e5b7d0c0e3f5a3b7c0d1f

然后進(jìn)入緩存目錄查找:

cd /data/nginx/cache
find . -name "9dc3a99b4f8e5b7d0c0e3f5a3b7c0d1f"

找到后手動刪除即可。

?? 這種方式比較繁瑣,適合調(diào)試或臨時處理問題,不適合頻繁操作。


利用腳本自動清理緩存

如果你經(jīng)常需要清理緩存,可以寫一個簡單的腳本來自動化上面的過程。

思路:

  1. 接收一個 URL 參數(shù)。
  2. 構(gòu)造出對應(yīng)的 cache key。
  3. 生成 MD5。
  4. 在緩存目錄中查找并刪除。

示例腳本(bash):

#!/bin/bash
URL="$1"
CACHE_DIR="/data/nginx/cache"

KEY=$(echo -n "$URL" | md5sum | awk '{print $1}')
LEVELS="2"
DIR1=${KEY: -2:1}/${KEY: -1:1}
DIR2=${KEY: -3:1}/$DIR1

find "$CACHE_DIR" -name "$KEY" -exec rm -f {} \;

執(zhí)行方式:

./clear_cache.sh http://example.com/path/to/resource

腳本可以根據(jù)實際需求調(diào)整,比如支持批量刪除、添加日志等。


基本上就這些方法了。如果你只是偶爾清緩存,可以用腳本;如果頻率較高,建議啟用 ngx_cache_purge 模塊。雖然過程看起來有點繞,但只要配置一次,后續(xù)操作就很方便了。

以上是如何清除或清除特定URL的NGINX緩存?的詳細(xì)內(nèi)容。更多信息請關(guān)注PHP中文網(wǎng)其他相關(guān)文章!

本站聲明
本文內(nèi)容由網(wǎng)友自發(fā)貢獻(xiàn),版權(quán)歸原作者所有,本站不承擔(dān)相應(yīng)法律責(zé)任。如您發(fā)現(xiàn)有涉嫌抄襲侵權(quán)的內(nèi)容,請聯(lián)系admin@php.cn

熱AI工具

Undress AI Tool

Undress AI Tool

免費脫衣服圖片

Undresser.AI Undress

Undresser.AI Undress

人工智能驅(qū)動的應(yīng)用程序,用于創(chuàng)建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用于從照片中去除衣服的在線人工智能工具。

Clothoff.io

Clothoff.io

AI脫衣機(jī)

Video Face Swap

Video Face Swap

使用我們完全免費的人工智能換臉工具輕松在任何視頻中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的代碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

功能強(qiáng)大的PHP集成開發(fā)環(huán)境

Dreamweaver CS6

Dreamweaver CS6

視覺化網(wǎng)頁開發(fā)工具

SublimeText3 Mac版

SublimeText3 Mac版

神級代碼編輯軟件(SublimeText3)

熱門話題

Laravel 教程
1601
29
PHP教程
1502
276
為什么NameResolutionError(self.host, self, e) from e,怎么解決 為什么NameResolutionError(self.host, self, e) from e,怎么解決 Mar 01, 2024 pm 01:20 PM

報錯的原因NameResolutionError(self.host,self,e)frome是由urllib3庫中的異常類型,這個錯誤的原因是DNS解析失敗,也就是說,試圖解析的主機(jī)名或IP地址無法找到。這可能是由于輸入的URL地址不正確,或者DNS服務(wù)器暫時不可用導(dǎo)致的。如何解決解決此錯誤的方法可能有以下幾種:檢查輸入的URL地址是否正確,確保它是可訪問的確保DNS服務(wù)器可用,您可以嘗試在命令行中使用"ping"命令來測試DNS服務(wù)器是否可用嘗試使用IP地址而不是主機(jī)名來訪問網(wǎng)站如果是在代理

怎樣透過幾個步驟獲取您的 Steam ID? 怎樣透過幾個步驟獲取您的 Steam ID? May 08, 2023 pm 11:43 PM

現(xiàn)在很多熱愛游戲的windows用戶都進(jìn)入了Steam客戶端,可以搜索、下載和玩任何好游戲。但是,許多用戶的個人資料可能具有完全相同的名稱,這使得查找個人資料或什至將Steam個人資料鏈接到其他第三方帳戶或加入Steam論壇以共享內(nèi)容變得困難。為配置文件分配了一個唯一的17位id,它保持不變,用戶無法隨時更改,而用戶名或自定義URL可以更改。無論如何,一些用戶并不知道他們的Steamid,這對于了解這一點非常重要。如果您也不知道如何找到您帳戶的Steamid,請不要驚慌。在這篇文

PHP函數(shù)介紹—get_headers(): 獲取URL的響應(yīng)頭信息 PHP函數(shù)介紹—get_headers(): 獲取URL的響應(yīng)頭信息 Jul 25, 2023 am 09:05 AM

PHP函數(shù)介紹—get_headers():獲取URL的響應(yīng)頭信息概述:在PHP開發(fā)中,我們經(jīng)常需要獲取網(wǎng)頁或遠(yuǎn)程資源的響應(yīng)頭信息。PHP函數(shù)get_headers()能夠方便地獲取目標(biāo)URL的響應(yīng)頭信息,并以數(shù)組形式返回。本文將介紹get_headers()函數(shù)的用法,以及提供一些相關(guān)的代碼示例。get_headers()函數(shù)的用法:get_header

html和url的區(qū)別是什么 html和url的區(qū)別是什么 Mar 06, 2024 pm 03:06 PM

區(qū)別:1、定義不同,url是是統(tǒng)一資源定位符,而html是超文本標(biāo)記語言;2、一個html中可以有很多個url,而一個url中只能存在一個html頁面;3、html指的是網(wǎng)頁,而url指的是網(wǎng)站地址。

如何在Java中使用URL編碼和解碼 如何在Java中使用URL編碼和解碼 May 08, 2023 pm 05:46 PM

使用url進(jìn)行編碼和解碼編碼和解碼的類java.net.URLDecoder.decode(url,解碼格式)解碼器.解碼方法。轉(zhuǎn)化成普通字符串,URLEncoder.decode(url,編碼格式)將普通字符串變成指定格式的字符串packagecom.zixue.springbootmybatis.test;importjava.io.UnsupportedEncodingException;importjava.net.URLDecoder;importjava.net.URLEncoder

Nginx緩存清理配置,保持網(wǎng)站內(nèi)容更新 Nginx緩存清理配置,保持網(wǎng)站內(nèi)容更新 Jul 05, 2023 pm 10:28 PM

Nginx緩存清理配置,保持網(wǎng)站內(nèi)容更新在建立一個網(wǎng)站時,我們經(jīng)常會使用Nginx作為反向代理服務(wù)器,用于加速網(wǎng)站訪問和緩存靜態(tài)文件。但是,當(dāng)我們更新了網(wǎng)站內(nèi)容時,需要及時清理Nginx的緩存,以保持用戶訪問的是最新的內(nèi)容。本文將介紹如何配置Nginx緩存清理,以保持網(wǎng)站內(nèi)容的更新。一、配置緩存路徑首先,我們需要配置Nginx的緩存路徑。打開Nginx的配置

SpringBoot多controller如何添加URL前綴 SpringBoot多controller如何添加URL前綴 May 12, 2023 pm 06:37 PM

前言在某些情況下,服務(wù)的controller中前綴是一致的,例如所有URL的前綴都為/context-path/api/v1,需要為某些URL添加統(tǒng)一的前綴。能想到的處理辦法為修改服務(wù)的context-path,在context-path中添加api/v1,這樣修改全局的前綴能夠解決上面的問題,但存在弊端,如果URL存在多個前綴,例如有些URL需要前綴為api/v2,就無法區(qū)分了,如果服務(wù)中的一些靜態(tài)資源不想添加api/v1,也無法區(qū)分。下面通過自定義注解的方式實現(xiàn)某些URL前綴的統(tǒng)一添加。一、

Scrapy優(yōu)化技巧:如何減少重復(fù)URL的爬取,提高效率 Scrapy優(yōu)化技巧:如何減少重復(fù)URL的爬取,提高效率 Jun 22, 2023 pm 01:57 PM

Scrapy是一個功能強(qiáng)大的Python爬蟲框架,可以用于從互聯(lián)網(wǎng)上獲取大量的數(shù)據(jù)。但是,在進(jìn)行Scrapy開發(fā)時,經(jīng)常會遇到重復(fù)URL的爬取問題,這會浪費大量的時間和資源,影響效率。本文將介紹一些Scrapy優(yōu)化技巧,以減少重復(fù)URL的爬取,提高Scrapy爬蟲的效率。一、使用start_urls和allowed_domains屬性在Scrapy爬蟲中,可

See all articles