1.?response.content和response.text的區(qū)別
response.content是編碼后的byte類型(“str”數(shù)據(jù)類型),response.text是unicode類型。這兩種方法的使用要視情況而定。注意:unicode -> str 是編碼過程(encode()); str -> unicode 是解碼過程(decode())。示例如下:
# --coding:utf-8-- # import requests response = requests.get("https://baidu.com/") print response.url print type(response.content) with open("C:\\Users\\Administrator\\Desktop\\content.html", "w") as f: f.write(response.content) print "content保存成功" print type(response.text) with open("C:\\Users\\Administrator\\Desktop\\text.html", "w") as f: # 返回url的編碼方式 print response.encoding f.write(response.text.encode("ISO-8859-1")) print "text保存成功"
2. 發(fā)送get請求,直接調(diào)用“resquests.get" 就可以了。response的一些屬性:response.text; response.content; response.url; response.encoding; response.status_code
# --coding:utf-8-- # import requests params = { "wd": "中國" } headers = { "User-Agent": "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.62 Safari/537.36" } response = requests.get("https://baidu.com/s", params=params, headers=headers) print response.url with open("C:\\Users\\Administrator\\Desktop\\get.html", "w") as f: f.write(response.content) print "保存成功"
3. 發(fā)送post請求:傳入data信息。注意get請求傳入的是params信息。示例如下:
# --coding:utf-8-- # import requests data = { "first": "true", "pn": "1", "wd": "python" } headers = { "Referer": "https://www.lagou.com/jobs/list_python?labelWords=&fromSearch=true&suginput=", "User-Agent": "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.62 Safari/537.36" } response = requests.post("https://www.lagou.com/jobs/positionAjax.json?needAddtionalResult=false", data=data, headers=headers) print response.encoding print type(response.content) with open("C:\\Users\\Administrator\\Desktop\\post.html", "w") as f: f.write(response.content) print "保存成功"
4. 使用代理。在get方法中增加proxy參數(shù)即可。示例代碼如下:
# --coding:utf-8-- # import requests proxy = { "http": "124.42.7.103" } response = requests.get("http://httpbin.org/ip", proxies=proxy) print response.content
5. requests處理cookies信息。使用requests.Session()方法即可。示例代碼如下:
# --coding:utf-8-- # import requests url = "http://www.renren.com/PLogin.do" # url = "http://www.renren.com/SysHome.do" data = {"email": "賬號", "password": "密碼"} headers = { "User-Agent": "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.62 Safari/537.36" } session = requests.Session() session.post(url, data=data, headers=headers) response = session.get("http://www.renren.com/543484094/profile") with open("C:\\Users\\Administrator\\Desktop\\Liwei.html", "w") as fp: fp.write(response.content) print "保存成功"
6. 處理不信任的SSL證書。與上面的代碼相比,多了一個verify=False參數(shù),為了處理SSL證書不受信用的問題。
示例代碼如下:
response = session.get("http://www.renren.com/543484094/profile", verify=False)
以上就是關于requests庫的基本使用。
本文講解了requests庫的基本使用 ,更多相關內(nèi)容請關注php中文網(wǎng)。
相關推薦:
Das obige ist der detaillierte Inhalt vonGrundlegende Verwendung der Anforderungsbibliothek. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Hei?e KI -Werkzeuge

Undress AI Tool
Ausziehbilder kostenlos

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?er Artikel

Hei?e Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Sowohl Curl als auch Pythonrequests sind leistungsstarke Tools zum Senden von HTTP-Anfragen. W?hrend Curl ein Befehlszeilentool ist, mit dem Sie Anfragen direkt vom Terminal aus senden k?nnen, bietet die Requests-Bibliothek von Python eine eher programmatische M?glichkeit, Anfragen aus Python-Code zu senden. Die grundlegende Syntax zum Konvertieren des Curl-Befehls in den Pythonrequestscurl-Befehl lautet wie folgt: curl[OPTIONS]URL Beim Konvertieren des Curl-Befehls in eine Python-Anfrage müssen wir die Optionen und die URL in Python-Code konvertieren. Hier ist ein Beispiel für einen CurlPOST-Befehl: curl-XPOST https://example.com/api

1. Installieren Sie die Anforderungsbibliothek. Python muss vorab installiert werden. Sie k?nnen die installierte Python-Version überprüfen, indem Sie den Befehl python --version ausführen um Python 3.X oder h?her zu installieren. Nach der Installation von Python k?nnen Sie die Anforderungsbibliothek über den folgenden Befehl direkt installieren. pipinstallrequestsPs: Sie k?nnen zu inl?ndischen Pip-Quellen wie Alibaba und Douban wechseln, die schnell sind. Um die Funktion zu demonstrieren, habe ich Nginx verwendet, um eine einfache Website zu simulieren. Führen Sie nach dem Herunterladen einfach das Programm nginx.exe im Stammverzeichnis aus.

Python simuliert den Browser, der Post-Anfragen im Importrequests-Format sendet request.postrequest.post(url,data,json,kwargs)#Post-Anforderungsformat request.get(url,params,kwargs)#Im Vergleich zur Get-Anfrage sind die Parameter für das Senden von Post-Anfragen unterteilt Der Datenparameter ?forms“ (x-www-form-urlencoded) unterstützt das W?rterbuchformat und das Zeichenfolgenformat. Das W?rterbuchformat verwendet die Methode json.dumps(), um die Daten in eine Zeichenfolge im legalen JSON-Format zu konvertieren

Requests erbt alle Funktionen von urllib2. Requests unterstützt HTTP-Verbindungspersistenz und Verbindungspooling, unterstützt die Verwendung von Cookies zur Aufrechterhaltung von Sitzungen, unterstützt das Hochladen von Dateien, unterstützt die automatische Bestimmung der Kodierung von Antwortinhalten und unterstützt internationalisierte URLs und die automatische Kodierung von POST-Daten. Die Installationsmethode verwendet pip, um $pipinstallrequests zu installieren. Grundlegende GET-Anforderungen (Header- und Parmas-Parameter) anfordern. 1. Die grundlegendste GET-Anfrage kann direkt mit der Get-Methode ?response=requests.get(“http://www.baidu.com/“ verwendet werden. "

Request und BeautifulSoup sind Python-Bibliotheken, die jede Datei oder jedes PDF online herunterladen k?nnen. Die Anforderungsbibliothek wird zum Senden von HTTP-Anforderungen und zum Empfangen von Antworten verwendet. Die BeautifulSoup-Bibliothek wird verwendet, um den in der Antwort empfangenen HTML-Code zu analysieren und den herunterladbaren PDF-Link zu erhalten. In diesem Artikel erfahren Sie, wie Sie PDFs mit Request und BeautifulSoup in Python herunterladen. Abh?ngigkeiten installieren Bevor wir die BeautifulSoup- und Request-Bibliotheken in Python verwenden, müssen wir diese Bibliotheken mit dem Befehl pip im System installieren. Um request und die BeautifulSoup- und Request-Bibliotheken zu installieren,

Requests ist ein Python-Modul, mit dem verschiedene HTTP-Anfragen gesendet werden k?nnen. Es handelt sich um eine benutzerfreundliche Bibliothek mit vielen Funktionen, von der übergabe von Parametern in URLs über das Senden benutzerdefinierter Header bis hin zur SSL-überprüfung. In diesem Tutorial erfahren Sie, wie Sie diese Bibliothek verwenden, um einfache HTTP-Anfragen in Python zu senden. Sie k?nnen Anfragen in den Python-Versionen 2.6–2.7 und 3.3–3.6 verwenden. Bevor Sie fortfahren, sollten Sie wissen, dass es sich bei Requests um ein externes Modul handelt. Sie müssen es also installieren, bevor Sie die Beispiele in diesem Tutorial ausprobieren. Sie k?nnen es installieren, indem Sie den folgenden Befehl im Terminal ausführen: pipinstallrequests Sobald das Modul installiert ist, k?nnen Sie es mit dem folgenden Befehl importieren

1. Einführung Das Implementierungsprinzip von Webcrawlern l?sst sich in den folgenden Schritten zusammenfassen: Senden von HTTP-Anfragen: Webcrawler erhalten Webinhalte, indem sie HTTP-Anfragen (normalerweise GET-Anfragen) an die Zielwebsite senden. In Python k?nnen HTTP-Anfragen über die Requests-Bibliothek gesendet werden. HTML analysieren: Nachdem der Crawler die Antwort von der Zielwebsite erhalten hat, muss er den HTML-Inhalt analysieren, um nützliche Informationen zu extrahieren. HTML ist eine Auszeichnungssprache, die zur Beschreibung der Struktur von Webseiten verwendet wird. Sie besteht aus einer Reihe verschachtelter Tags. Der Crawler kann die erforderlichen Daten anhand dieser Tags und Attribute finden und extrahieren. In Python k?nnen Sie Bibliotheken wie BeautifulSoup und lxml zum Parsen von HTML verwenden. Datenextraktion: Nach dem Parsen des HTML-Codes

1. Vorbereitungsarbeiten Zun?chst müssen wir sicherstellen, dass wir die Anforderungsbibliothek bereits installiert haben. Wenn sie nicht installiert ist, führen Sie die folgenden Schritte aus, um die Bibliothek zu installieren. pip-Installation Unabh?ngig davon, ob es sich um Windows, Linux oder Mac handelt, kann es über das Pip-Paketverwaltungstool installiert werden. Führen Sie den folgenden Befehl in der Befehlszeile aus, um die Installation der Anforderungsbibliothek abzuschlie?en: pip3installrequests Dies ist die einfachste Installationsmethode und wird empfohlen. Installation überprüfen Um zu überprüfen, ob die Bibliothek erfolgreich installiert wurde, k?nnen Sie sie in der Befehlszeile testen: importrequestsres=requests.get('https://www.baidu
