


Introduction à l'environnement de test MySQL avec des millions de données
Mysql est largement utilisé comme une très excellente base de données gratuite. Habituellement, les données des projets que nous développons dépassent rarement le million. Récemment, j'ai consacré beaucoup de temps à des recherches approfondies sur l'optimisation de MySQL dans le cas de millions de données. J'ai rencontré de nombreux problèmes et les ai résolus, j'aimerais donc les partager avec vous. Vos précieux avis sont les bienvenus !
Recommandations associées : "Tutoriel MySQL"
Environnement de test
Le nombre total de données est de 3 millions, occupant environ 1 Go d'espace disque
Structure des données
表1 news [ 文章表 引擎 myisam 字符集 utf-8 ] ----------------------------------------------------- idint11主键自动增加 cateint11索引 titlevarchar200标题(便于基础搜索做了索引) contenttext文章正文 dateint11文章发布时间(时间戳形式)
表2 cate [ 文章分类表 引擎 myisam 字符集 utf-8 ] ----------------------------------------------------- cate_idint11主键自动增加 cate_namevarchar200文章标题
Nombre total de requêtes
myIsam 引擎下 select count(*) as total from news //耗时 0.001秒 极快 //带上条件 select count(*) as total from news where cate = 1 耗时 0.046秒 可以接受的速度 innodb 引擎下 select count(*) as total from news //耗时 0.7秒 很慢 select count(*) as total from news where cate = 1 耗时 0.7秒 很慢
Pourquoi 2 Y a-t-il une si grande différence de vitesse de requête entre les deux moteurs ?
InnoDB n'enregistre pas le nombre spécifique de lignes dans la table, c'est-à-dire que lors de l'exécution de select count(*) from table, InnoDB doit analyser la table entière pour calculer le nombre de lignes qu'elle contient. sont.
MyISAM lit simplement le nombre de lignes enregistrées.
Notez que lorsque l'instruction count(*) contient la condition Where, les opérations des deux tables sont quelque peu différentes. Les tables de type InnoDB utilisent count(*) ou count (clé primaire), plus la condition Where col. . La colonne col est une colonne avec un index de contrainte unique autre que la clé primaire de la table. De cette façon, la vitesse des requêtes sera très rapide. C'est pour éviter une analyse complète de la table.
Résumé
mysql utilise count(*) pour interroger le nombre total de données avec 3 millions de données (moteur myisam) et contient des conditions (les index sont définis correctement ) et la durée de fonctionnement est normale. Pour les données fréquemment lues, nous vous recommandons d'utiliser le moteur myIsam.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undress AI Tool
Images de déshabillage gratuites

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

ToseCuremysQleffectively, useobject-levelprivilestolimitreaccessbasedheirSpecificneeds.binbyranding comptabilisation de l'objectif-levelprivilegesapplytodatabases, des tables, des orcolumns

Lorsque vous traitez avec de grandes tables, les performances MySQL et la maintenabilité sont confrontées à des défis, et il est nécessaire de commencer à partir de la conception structurelle, de l'optimisation des index, de la stratégie de sous-table de tableau, etc. 1. Concevoir raisonnablement les clés et les index primaires: il est recommandé d'utiliser des entiers auto-incrémentés comme clés principales pour réduire les scintillement de pages; Utiliser les index de superposition pour améliorer l'efficacité de la requête; Analyser régulièrement les journaux de requête lents et supprimer les index non valides. 2. Utilisation rationnelle des tables de partition: partition en fonction de la plage de temps et d'autres stratégies pour améliorer l'efficacité de la requête et de la maintenance, mais l'attention devrait être accordée aux problèmes de partitionnement et de coupe. 3. Envisagez de lire et d'écrire la séparation et la séparation des bibliothèques: la séparation de lecture et d'écriture atténue la pression sur la bibliothèque principale. La séparation de la bibliothèque et la séparation des tableaux conviennent aux scénarios avec une grande quantité de données. Il est recommandé d'utiliser des middleware et d'évaluer les problèmes de requête des transactions et des magasins croisés. La planification précoce et l'optimisation continue sont la clé.

Le filtrage de réplication MySQL peut être configuré dans la bibliothèque principale ou la bibliothèque d'esclaves. La bibliothèque principale contrôle la génération de binlog via binlog-do-db ou binlog-ingniore-db, qui convient à la réduction du volume de journaux; L'application de données est contrôlée par reproduction-DO-DB, reproduction-ingnore-db, réplique-do-table, réplique-inigore-table et règles wildcard reprole-wild-table et reprole-wild-ingnore-table. Il est plus flexible et propice à la récupération des données. Lors de la configuration, vous devez prêter attention à l'ordre des règles, comportement de déclaration en magasin,

ToimproveMySQLperformanceforCMSplatformslikeWordPress,firstimplementacachinglayerusingpluginslikeRedisorMemcached,enableMySQLquerycaching(ifapplicable),andusepagecachingpluginstoservestaticfiles.Second,optimizeMySQLconfigurationbyincreasinginnodb_buf

Vérifiez si le service MySQL est en cours d'exécution, utilisez SudosystemctlStatusMysQL pour confirmer et démarrer; 2. Assurez-vous que Bind-Address est défini sur 0,0.0.0 pour permettre les connexions distantes et redémarrer le service; 3. Vérifiez si le port 3306 est ouvert, vérifiez et configurez les règles de pare-feu pour permettre le port; 4. Pour l'erreur "AccessEnedy", vous devez vérifier le nom d'utilisateur, le mot de passe et le nom d'hôte, puis vous connecter à MySQL et interroger la table MySQL.User pour confirmer les autorisations. Si nécessaire, créez ou mettez à jour l'utilisateur et autorisez-le, comme l'utilisation de «votre_user» @ «%»; 5. Si l'authentification est perdue à cause de Caching_Sha2_Password

DeleterMovesspecificorAllRows, KeepSableStructure, permet de faire des effectifs et de surgurer de manière

MySQL prend en charge les contraintes de contrôle pour forcer l'intégrité du domaine, efficace à partir de la version 8.0.16; 1. Ajoutez des contraintes lors de la création d'un tableau: utilisez crééTable pour définir les conditions de contrôle, telles que l'âge ≥ 18, salaire> 0, valeurs limites du département; 2. Modifiez le tableau pour ajouter des contraintes: utilisez alterTableAddConstraint pour limiter les valeurs de champ, telles que le nom non vide; 3. Utiliser des conditions complexes: Prise en charge la logique et les expressions multi-colonnes, telles que la date de fin ≥ Date et l'état d'achèvement doivent avoir une date de fin; 4. Supprimer les contraintes: utilisez alterTabledRopConstraint pour spécifier le nom à supprimer; 5. Remarques: MySQL8.0.16, Innodb ou Myisam doit être cité

Les méthodes de base pour réaliser le suivi des liens sanguins de données MySQL incluent: 1. Utilisez le binlog pour enregistrer la source de changement de données, activer et analyser le binlog et tracer des actions commerciales spécifiques en combinaison avec le contexte de la couche d'application; 2. Injecter les liens de sang dans le processus ETL et enregistrer la relation de mappage entre la source et la cible lors de la synchronisation de l'outil; 3. Ajouter des commentaires et des balises de métadonnées aux données, expliquez la source de champ lors de la construction du tableau et connectez-vous au système de gestion des métadonnées pour former une carte visuelle; 4. Faites attention à la cohérence de la clé primaire, évitez une dépendance excessive à l'égard de l'analyse SQL, des changements de modèle de données de contrôle de version et vérifiez régulièrement les données de liens sanguins pour assurer le suivi précis et fiable des liens de sang.
