Maison> interface Web> js tutoriel> le corps du texte

Approches QL pour la mise à jour groupée des enregistrements avec Knex.js

王林
Libérer: 2024-08-12 22:31:15
original
948 Les gens l'ont consulté

QL Approaches to Bulk Update Records with Knex.js

Dans le monde du développement Web, travailler efficacement avec des bases de données est crucial, en particulier lors de la gestion d'opérations groupées telles que la mise à jour de plusieurs enregistrements à la fois. Que vous gériez des stocks, traitiez des données utilisateur ou traitiez des transactions, la capacité d'effectuer des mises à jour groupées de manière à la fois efficace et fiable est essentielle.

Dans ce guide, nous détaillerons trois techniques SQL essentielles pour la mise à jour groupée des enregistrements avec Knex.js, un générateur de requêtes polyvalent pour Node.js. Chaque approche est adaptée à différents scénarios, offrant des avantages distincts en fonction de votre cas d'utilisation spécifique. Nous couvrirons :

  1. Mise à jour unique avec plusieurs conditions :Une méthode qui vous permet de mettre à jour plusieurs enregistrements en une seule requête, en utilisant une logique conditionnelle pour appliquer différentes mises à jour en fonction de critères spécifiques.

  2. Mises à jour par lots avec des requêtes individuelles dans une transaction :Cette approche exploite les transactions pour garantir l'atomicité, en exécutant plusieurs requêtes de mise à jour de manière sûre et efficace.

  3. Upsert (Insérer ou Mettre à jour) à l'aide de onConflict :Idéal pour les scénarios dans lesquels vous devez soit insérer de nouveaux enregistrements, soit mettre à jour des enregistrements existants sans risquer de dupliquer des données.

Dans les sections suivantes, nous approfondirons chacune de ces méthodes, en examinant leur mise en œuvre, leurs avantages et les meilleurs cas d'utilisation. En comprenant ces approches, vous pouvez choisir la technique la plus appropriée à vos besoins spécifiques, optimisant à la fois les performances et l'intégrité des données dans vos applications.


1. Mise à jour unique avec plusieurs conditions

Lorsqu'il s'agit de mettre à jour plusieurs enregistrements dans une base de données, l'efficacité est la clé. Une technique puissante consiste à utiliser une seule requête UPDATE avec plusieurs conditions. Cette méthode est particulièrement utile lorsque vous devez appliquer différentes mises à jour à différents enregistrements en fonction de critères spécifiques, le tout dans une seule instruction SQL.

Le concept :

L'idée principale derrière l'approche « Mise à jour unique avec plusieurs conditions » est d'utiliser une seule requête UPDATE pour modifier plusieurs lignes, chaque ligne recevant potentiellement des valeurs différentes en fonction de ses caractéristiques uniques. Ceci est réalisé grâce à l'utilisation d'instructions CASE dans la requête UPDATE, vous permettant de spécifier une logique conditionnelle pour chaque champ qui doit être mis à jour.

Pourquoi utiliser cette approche :

  • Efficacité :Pour un nombre faible à modéré d'enregistrements (par exemple, quelques dizaines à quelques centaines), la consolidation de plusieurs mises à jour en une seule requête peut améliorer considérablement les performances en réduisant le nombre d'allers-retours dans la base de données. Cela peut être particulièrement bénéfique lorsqu’il s’agit de mises à jour à haute fréquence. Toutefois, pour de très grands ensembles de données (des milliers ou plus), cette approche pourrait ne pas être aussi efficace. Nous discutons des méthodes alternatives pour gérer de grands ensembles de données plus loin dans ce guide.

  • Simplicité :La gestion des mises à jour avec une seule requête est souvent plus simple et plus maintenable que l'exécution de plusieurs requêtes distinctes. Cette approche réduit la complexité des interactions avec votre base de données et rend le code plus facile à comprendre, surtout lorsqu'il s'agit d'un nombre modéré de mises à jour.

  • Surcharge réduite :Moins de requêtes signifie moins de surcharge pour la base de données, ce qui peut conduire à de meilleures performances globales. Ceci est particulièrement important dans les scénarios où la latence du réseau ou la charge de la base de données pourraient avoir un impact sur la vitesse des opérations.
    Pour un très grand nombre d’enregistrements, nous explorons d’autres stratégies dans ce guide pour gérer plus efficacement les frais généraux potentiels.

Exemple de mise en œuvre :

Voici un exemple pratique de la façon dont vous pouvez mettre en œuvre cette approche à l'aide de Knex.js, un générateur de requêtes SQL populaire pour Node.js. Cet exemple montre comment mettre à jour plusieurs champs pour plusieurs enregistrements en une seule fois, en utilisant une logique conditionnelle pour appliquer différentes mises à jour en fonction de l'ID de l'enregistrement :

const queryHeaderProductUpdate = 'UPDATE products SET '; // Start of the SQL UPDATE query const updatesProductUpdate = []; // Array to hold the individual update statements const parametersProductUpdate = []; // Array to hold the parameters for the query const updateProducts = [ { product_id: 1, name: 'New Name 1', price: 100, status: 'Active' }, { product_id: 2, name: 'New Name 2', price: 150, status: 'Inactive' }, { product_id: 3, name: 'New Name 3', price: 200, status: 'Active' } ]; // Extract the product IDs to use in the WHERE clause const productIds = updateProducts.map(p => p.product_id); // Build the update statements for each field updateProducts.forEach((item) => { // Add conditional logic for updating the 'name' field updatesProductUpdate.push('name = CASE WHEN product_id = ? THEN ? ELSE name END'); parametersProductUpdate.push(item.product_id, item.name); // Add conditional logic for updating the 'price' field updatesProductUpdate.push('price = CASE WHEN product_id = ? THEN ? ELSE price END'); parametersProductUpdate.push(item.product_id, item.price); // Add conditional logic for updating the 'status' field updatesProductUpdate.push('status = CASE WHEN product_id = ? THEN ? ELSE status END'); parametersProductUpdate.push(item.product_id, item.status); // Add 'updated_at' field with the current timestamp updatesProductUpdate.push('updated_at = ?'); parametersProductUpdate.push(knex.fn.now()); // Add 'updated_by' field with the user ID updatesProductUpdate.push('updated_by = ?'); parametersProductUpdate.push(req.user.userId); }); // Construct the full query by joining the individual update statements and adding the WHERE clause const queryProductUpdate = `${queryHeaderProductUpdate + updatesProductUpdate.join(', ')} WHERE product_id IN (${productIds.join(', ')})`; // Execute the update query await db.raw(queryProductUpdate, parametersProductUpdate);
Copier après la connexion

Ce que fait ce code :

  1. Construit l'en-tête de requête : commence l'instruction UPDATE pour la table des produits.

  2. Construit des mises à jour conditionnelles : utilise les instructions CASE pour spécifier différentes mises à jour pour chaque champ en fonction du product_id.

  3. Génère la requête complète : combine les instructions de mise à jour et la clause WHERE.

  4. Exécute la requête : exécute la requête construite pour appliquer les mises à jour aux enregistrements spécifiés.

En mettant en œuvre cette technique, vous pouvez gérer efficacement les mises à jour groupées avec une logique conditionnelle, rendant ainsi les opérations de votre base de données plus rationalisées et plus efficaces.

Note: In the provided example, we did not use a transaction because the operation involves a single SQL query. Since a single query inherently maintains data integrity and consistency, there's no need for an additional transaction. Adding a transaction would only increase overhead without providing additional benefits in this context.

Having explored the "Single Update with Multiple Conditions" approach, which works well for a moderate number of records and provides simplicity and efficiency, we now turn our attention to a different scenario. As datasets grow larger or when atomicity across multiple operations becomes crucial, managing updates effectively requires a more robust approach.

Batch Updates with Individual Queries in a Transaction is a method designed to address these needs. This approach involves executing multiple update queries within a single transaction, ensuring that all updates are applied atomically. Let's dive into how this method works and its advantages.


2. Batch Updates with Individual Queries in a Transaction

When dealing with bulk updates, especially for a large dataset, managing each update individually within a transaction can be a robust and reliable approach. This method ensures that all updates are applied atomically and can handle errors gracefully.

Why Use This Approach:

  • Scalability:For larger datasets where Single Update with Multiple Conditions might become inefficient, batch updates with transactions offer better control. Each query is executed separately, and a transaction ensures that all changes are committed together, reducing the risk of partial updates.

  • Error Handling:Transactions provide a safety net by ensuring that either all updates succeed or none do. This atomicity guarantees data integrity, making it ideal for scenarios where you need to perform multiple related updates.

  • Concurrency Control:Using transactions can help manage concurrent modifications to the same records, preventing conflicts and ensuring consistency.

Code Example

Here’s how you can implement batch updates with individual queries inside a transaction using Knex.js:

const updateRecordsInBatch = async () => { // Example data to update const dataToUpdate = [ { id: 1, name: 'Updated Name 1', price: 100 }, { id: 2, name: 'Updated Name 2', price: 200 }, { id: 3, name: 'Updated Name 3', price: 300 } ]; // Start a transaction const trx = await db.transaction(); const promises = []; try { // Iterate over the data and push update queries to the promises array dataToUpdate.forEach(record => { promises.push( trx('products') .update({ name: record.name, price: record.price, updated_at: trx.fn.now() }) .where('id', record.id) ); }); // Execute all queries concurrently await Promise.all(promises); // Commit the transaction await trx.commit(); console.log('All records updated successfully.'); } catch (error) { // Rollback the transaction in case of error await trx.rollback(); console.error('Update failed:', error); } };
Copier après la connexion

Explanation

  1. Transaction Initialization: The transaction is started using db.transaction(), which ensures that all subsequent queries are executed within this transaction.

  2. Batch Updates: Each update query is constructed and added to an array of promises. This method allows for multiple updates to be performed concurrently.

  3. Executing Queries: Promise.all(promises) is used to execute all update queries concurrently. This approach ensures that all updates are sent to the database in parallel.

  4. Committing or Rolling Back: If all queries succeed, the transaction is committed with trx.commit(). If any query fails, the transaction is rolled back with trx.rollback(), ensuring that no partial updates are applied.

Using batch updates with individual queries inside a transaction provides a reliable way to manage large datasets. It ensures data integrity through atomic transactions and offers better control over concurrent operations. This method is especially useful whenSingle Update with Multiple Conditionsmay not be efficient for very large datasets.


3. Upsert (Insert or Update) Using onConflict

When you're working with data that might need to be inserted or updated depending on its existence in the database, an "upsert" operation is the ideal solution. This approach allows you to handle both scenarios—insert new records or update existing ones—in a single, streamlined operation. It's particularly useful when you want to maintain data consistency without having to write separate logic for checking whether a record exists.

Why Use This Approach:

  • Simplicity:An upsert enables you to combine the insert and update operations into a single query, simplifying your code and reducing the need for additional checks.

  • Efficiency:This method is more efficient than performing separate insert and update operations, as it minimizes database round-trips and handles conflicts automatically.

  • Conflict Handling:The onConflict clause lets you specify how to handle conflicts, such as when records with unique constraints already exist, by updating the relevant fields.

const productData = [ { product_id: 1, store_id: 101, product_name: 'Product A', price: 10.99, category: 'Electronics', }, { product_id: 2, store_id: 102, product_name: 'Product B', price: 12.99, category: 'Books', }, { product_id: 3, store_id: 103, product_name: 'Product C', price: 9.99, category: 'Home', }, { product_id: 4, store_id: 104, product_name: 'Product D', price: 15.49, category: 'Garden', }, ]; await knex('products') .insert(productData) .onConflict(['product_id', 'store_id']) .merge({ product_name: knex.raw('EXCLUDED.product_name'), price: knex.raw('EXCLUDED.price'), category: knex.raw('EXCLUDED.category'), });
Copier après la connexion

Explanation

  1. Définition des données : nous définissons productData, un tableau d'objets qui représentent les enregistrements de produits que nous souhaitons insérer ou mettre à jour. Chaque objet contient un product_id, un store_id, un product_name, un prix et une catégorie.

  2. Insérer ou mettre à jour : la fonction knex('products').insert(productData) tente d'insérer chaque enregistrement du tableau productData dans la table des produits.

  3. Gérer les conflits : la clause onConflict(['product_id', 'store_id']) spécifie que si un conflit se produit sur la combinaison de product_id et store_id, l'étape suivante doit être exécutée.

  4. Fusion (Mise à jour en cas de conflit) : lorsqu'un conflit est détecté, la méthode merge({...}) met à jour l'enregistrement existant avec les nouvelles valeurs product_name, prix et catégorie de productData. La syntaxe knex.raw('EXCLUDED.column_name') est utilisée pour faire référence aux valeurs qui auraient été insérées, permettant à la base de données de mettre à jour les enregistrements existants avec ces valeurs.

Pour que la clauseonConflictfonctionne correctement dans une opérationupsert, les colonnes impliquées doivent faire partie d'une contrainte unique. Voici comment cela fonctionne :

  • Colonne unique unique : si vous utilisez une seule colonne dans la clause onConflict, cette colonne doit être unique dans la table. Ce caractère unique garantit que la base de données peut détecter avec précision si un enregistrement existe déjà sur la base de cette colonne.
  • Plusieurs colonnes : lorsque plusieurs colonnes sont utilisées dans la clause onConflict, la combinaison de ces colonnes doit être unique. Cette unicité est renforcée par un index ou une contrainte unique, qui garantit que les valeurs combinées de ces colonnes sont uniques dans la table.

Index et contraintes :
Index :Un index unique sur une ou plusieurs colonnes permet à la base de données de vérifier efficacement l'unicité des valeurs. Lorsque vous définissez un index unique, la base de données l'utilise pour vérifier rapidement si les valeurs des colonnes spécifiées existent déjà. Cela permet à la clause onConflict de détecter et de gérer les conflits avec précision.

Contraintes :Une contrainte unique garantit que les valeurs d'une ou plusieurs colonnes doivent être uniques. Cette contrainte est cruciale pour le fonctionnement de la clause onConflict, car elle applique des règles qui empêchent les valeurs en double et permet à la base de données de détecter les conflits en fonction de ces colonnes.

Semblable à l'approche de mise à jour unique avec plusieurs conditions, une opération d'upsert ne nécessite pas de transaction. Puisqu'il s'agit d'une seule requête qui insère ou met à jour des enregistrements, il fonctionne efficacement sans la surcharge supplémentaire liée à la gestion d'une transaction.


Conclusion

Chaque technique offre des avantages distincts, depuis la simplification du code et la réduction des interactions avec les bases de données jusqu'à la garantie de l'intégrité des données et la gestion efficace des conflits. En sélectionnant la méthode la plus appropriée pour votre cas d'utilisation, vous pouvez obtenir des mises à jour plus efficaces et plus fiables dans vos applications.

Comprendre ces approches vous permet d'adapter vos opérations de base de données à vos besoins spécifiques, améliorant ainsi à la fois les performances et la maintenabilité. Qu'il s'agisse de mises à jour groupées ou de tâches complexes de gestion de données, le choix de la bonne stratégie est crucial pour optimiser vos flux de travail et obtenir de meilleurs résultats dans vos projets de développement.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

source:dev.to
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal
À propos de nous Clause de non-responsabilité Sitemap
Site Web PHP chinois:Formation PHP en ligne sur le bien-être public,Aidez les apprenants PHP à grandir rapidement!