Lors du traitement de grandes quantités de données, il est courant de rencontrer des erreurs réseau ou d'autres circonstances imprévues. Requests, une bibliothèque HTTP populaire, fournit un mécanisme robuste de gestion des erreurs pour atténuer ces problèmes.
Pour résoudre l'erreur « Nombre maximal de tentatives dépassé avec l'URL dans les requêtes », vous pouvez introduire un mécanisme de nouvelle tentative. Cela implique de configurer les requêtes pour réessayer automatiquement les requêtes ayant échoué jusqu'à un nombre de fois spécifié.
Pour implémenter cela, exploitez la puissante classe HTTPAdapter :
import requests from requests.adapters import HTTPAdapter from urllib3.util.retry import Retry # Create a session object session = requests.Session() # Define the retry settings retry = Retry(connect=3, backoff_factor=0.5) # Retry up to 3 times with a 50% backoff # Create an HTTP adapter with the retry settings adapter = HTTPAdapter(max_retries=retry) # Mount the adapter to the session, associating it with all HTTP and HTTPS requests session.mount('http://', adapter) session.mount('https://', adapter) # Send the GET request with the retry mechanism enabled session.get(url)
Avec ce code révisé, les requêtes seront automatiquement réessayez les demandes ayant échoué jusqu'à 3 fois. De plus, le facteur d'attente ajoute un délai entre chaque tentative pour éviter des tentatives excessives. En intégrant cette stratégie, vous garantissez une récupération fiable des données même face à des perturbations du réseau.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!