


Exploitez la puissance du Web Scraping avec Python et Beautiful Soup?: un exemple de musique MIDI
Internet est un trésor d'informations, mais y accéder par programmation peut s'avérer difficile sans API dédiées. La bibliothèque Beautiful Soup de Python offre une solution puissante, vous permettant d'extraire et d'analyser des données directement à partir de pages Web.
Explorons cela en récupérant des données MIDI pour entra?ner un réseau neuronal Magenta afin de générer de la musique classique de style Nintendo. Nous nous procurerons des fichiers MIDI à partir des archives de musique de jeux vidéo (VGM).
Configuration de votre environnement
Assurez-vous que Python 3 et pip sont installés. Il est crucial de créer et d'activer un environnement virtuel avant d'installer des dépendances?:
pip install requests==2.22.0 beautifulsoup4==4.8.1
Nous utilisons Beautiful Soup 4 (Beautiful Soup 3 n'est plus maintenu).
Grattage et analyse avec des requêtes et une belle soupe
Tout d'abord, récupérons le code HTML et créons un objet BeautifulSoup?:
import requests from bs4 import BeautifulSoup vgm_url = 'https://www.vgmusic.com/music/console/nintendo/nes/' html_text = requests.get(vgm_url).text soup = BeautifulSoup(html_text, 'html.parser')
L'objet soup
permet la navigation dans le HTML. soup.title
donne le titre de la page ; print(soup.get_text())
affiche tout le texte.
Ma?triser le pouvoir de la belle soupe
Les méthodes find()
et find_all()
sont indispensables. soup.find()
cible des éléments uniques (par exemple, soup.find(id='banner_ad').text
obtient le texte de la bannière publicitaire). soup.find_all()
parcourt plusieurs éléments. Par exemple, ceci imprime toutes les URL de liens hypertexte?:
for link in soup.find_all('a'): print(link.get('href'))
find_all()
accepte des arguments tels que des expressions régulières ou des attributs de balise pour un filtrage précis. Reportez-vous à la documentation de Beautiful Soup pour les fonctionnalités avancées.
Navigation et analyse HTML
Avant d'écrire du code d'analyse, examinez le HTML rendu par le navigateur. Chaque page Web est unique?; l'extraction de données nécessite souvent de la créativité et de l'expérimentation.
Notre objectif est de télécharger des fichiers MIDI uniques, à l'exclusion des doublons et des remix. Les outils de développement du navigateur (clic droit, ??Inspecter??) aident à identifier les éléments HTML pour un accès par programmation.
Utilisons find_all()
avec des expressions régulières pour filtrer les liens contenant des fichiers MIDI (à l'exclusion de ceux avec des parenthèses dans leur nom)?:
Créer nes_midi_scraper.py
?:
import re import requests from bs4 import BeautifulSoup vgm_url = 'https://www.vgmusic.com/music/console/nintendo/nes/' html_text = requests.get(vgm_url).text soup = BeautifulSoup(html_text, 'html.parser') if __name__ == '__main__': attrs = {'href': re.compile(r'\.mid$')} tracks = soup.find_all('a', attrs=attrs, string=re.compile(r'^((?!\().)*$')) count = 0 for track in tracks: print(track) count += 1 print(len(tracks))
Ceci filtre les fichiers MIDI, imprime leurs balises de lien et affiche le nombre total. Courez avec python nes_midi_scraper.py
.
Téléchargement des fichiers MIDI
Maintenant, téléchargeons les fichiers MIDI filtrés. Ajoutez la fonction download_track
à nes_midi_scraper.py
?:
pip install requests==2.22.0 beautifulsoup4==4.8.1
Cette fonction télécharge chaque piste et l'enregistre sous un nom de fichier unique. Exécutez le script à partir du répertoire de sauvegarde souhaité. Vous devez télécharger environ 2230 fichiers MIDI (selon le contenu actuel du site).
Explorer le potentiel du Web
Le Web scraping ouvre les portes à de vastes ensembles de données. N'oubliez pas que les modifications apportées aux pages Web peuvent casser votre code?; gardez vos scripts à jour. Utilisez des bibliothèques comme Mido (pour le traitement des données MIDI) et Magenta (pour la formation aux réseaux neuronaux) pour vous appuyer sur cette base.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undress AI Tool
Images de déshabillage gratuites

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
échangez les visages dans n'importe quelle vidéo sans effort grace à notre outil d'échange de visage AI entièrement gratuit?!

Article chaud

Outils chauds

Bloc-notes++7.3.1
éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

La clé pour gérer l'authentification de l'API est de comprendre et d'utiliser correctement la méthode d'authentification. 1. Apikey est la méthode d'authentification la plus simple, généralement placée dans l'en-tête de demande ou les paramètres d'URL; 2. BasicAuth utilise le nom d'utilisateur et le mot de passe pour la transmission de codage Base64, qui convient aux systèmes internes; 3. OAuth2 doit d'abord obtenir le jeton via client_id et client_secret, puis apporter le Bearertoken dans l'en-tête de demande; 4. Afin de gérer l'expiration des jetons, la classe de gestion des jetons peut être encapsulée et rafra?chie automatiquement le jeton; En bref, la sélection de la méthode appropriée en fonction du document et le stockage en toute sécurité des informations clés sont la clé.

Assert est un outil d'affirmation utilisé dans Python pour le débogage et lance une affirmation d'établissement lorsque la condition n'est pas remplie. Sa syntaxe est affirmer la condition plus les informations d'erreur facultatives, qui conviennent à la vérification de la logique interne telle que la vérification des paramètres, la confirmation d'état, etc., mais ne peuvent pas être utilisées pour la sécurité ou la vérification des entrées des utilisateurs, et doit être utilisée en conjonction avec des informations d'invite claires. Il n'est disponible que pour le débogage auxiliaire au stade de développement plut?t que pour remplacer la manipulation des exceptions.

TypeHintsInpythonsolvetheproblebandofambigu?té et opposant à un montant de type de type parallèlement au développement de l'aménagement en fonction des types de type.

Une méthode courante pour parcourir deux listes simultanément dans Python consiste à utiliser la fonction zip (), qui appariera plusieurs listes dans l'ordre et sera la plus courte; Si la longueur de liste est incohérente, vous pouvez utiliser itertools.zip_langest () pour être le plus long et remplir les valeurs manquantes; Combiné avec enumerate (), vous pouvez obtenir l'index en même temps. 1.zip () est concis et pratique, adapté à l'itération des données appariées; 2.zip_langest () peut remplir la valeur par défaut lorsqu'il s'agit de longueurs incohérentes; 3. L'énumération (zip ()) peut obtenir des indices pendant la traversée, en répondant aux besoins d'une variété de scénarios complexes.

Inpython, itérateurslawjectsThatallowloopingthroughCollectionsbyImpleting __iter __ () et__Next __ (). 1) iteratorsworkVeatheitorat

Pour créer des API modernes et efficaces à l'aide de Python, FastAPI est recommandé; Il est basé sur des invites de type Python standard et peut générer automatiquement des documents, avec d'excellentes performances. Après avoir installé FastAPI et ASGI Server Uvicorn, vous pouvez écrire du code d'interface. En définissant les itinéraires, en écrivant des fonctions de traitement et en renvoyant des données, les API peuvent être rapidement construites. Fastapi prend en charge une variété de méthodes HTTP et fournit des systèmes de documentation SwaggerUI et Redoc générés automatiquement. Les paramètres d'URL peuvent être capturés via la définition du chemin, tandis que les paramètres de requête peuvent être implémentés en définissant des valeurs par défaut pour les paramètres de fonction. L'utilisation rationnelle des modèles pydantiques peut aider à améliorer l'efficacité du développement et la précision.

Pour tester l'API, vous devez utiliser la bibliothèque des demandes de Python. Les étapes consistent à installer la bibliothèque, à envoyer des demandes, à vérifier les réponses, à définir des délais d'attente et à réessayer. Tout d'abord, installez la bibliothèque via PiPinstallRequests; Utilisez ensuite les demandes.get () ou les demandes.Post () et d'autres méthodes pour envoyer des demandes GET ou POST; Vérifiez ensuite la réponse.status_code et la réponse.json () pour vous assurer que le résultat de retour est en conformité avec les attentes; Enfin, ajoutez des paramètres de délai d'expiration pour définir l'heure du délai d'expiration et combinez la bibliothèque de réessayer pour obtenir une nouvelle tentative automatique pour améliorer la stabilité.

Dans Python, les variables définies à l'intérieur d'une fonction sont des variables locales et ne sont valides que dans la fonction; Les variables globales sont définies à l'extérieur qui peuvent être lues n'importe où. 1. Les variables locales sont détruites lors de l'exécution de la fonction; 2. La fonction peut accéder aux variables globales mais ne peut pas être modifiée directement, donc le mot-clé global est requis; 3. Si vous souhaitez modifier les variables de fonction externes dans les fonctions imbriquées, vous devez utiliser le mot-clé non local; 4. Les variables avec le même nom ne se affectent pas dans différentes lunettes; 5. Global doit être déclaré lors de la modification des variables globales, sinon une erreur non liée à la dorsale sera augmentée. Comprendre ces règles permet d'éviter les bogues et d'écrire des fonctions plus fiables.
