QL-Ansätze zur Massenaktualisierung von Datensätzen mit Knex.js

王林
Freigeben: 2024-08-12 22:31:15
Original
947 Leute haben es durchsucht

QL Approaches to Bulk Update Records with Knex.js

Dans le monde du développement Web, travailler efficacement avec des bases de données est crucial, en particulier lors de la gestion d'opérations groupées telles que la mise à jour de plusieurs enregistrements à la fois. Que vous gériez des stocks, traitiez des données utilisateur ou traitiez des transactions, la capacité d'effectuer des mises à jour groupées de manière à la fois efficace et fiable est essentielle.

Dans ce guide, nous détaillerons trois techniques SQL essentielles pour la mise à jour groupée des enregistrements avec Knex.js, un générateur de requêtes polyvalent pour Node.js. Chaque approche est adaptée à différents scénarios, offrant des avantages distincts en fonction de votre cas d'utilisation spécifique. Nous couvrirons :

  1. Mise à jour unique avec plusieurs conditions :Une méthode qui vous permet de mettre à jour plusieurs enregistrements en une seule requête, en utilisant une logique conditionnelle pour appliquer différentes mises à jour en fonction de critères spécifiques.

  2. Mises à jour par lots avec des requêtes individuelles dans une transaction :Cette approche exploite les transactions pour garantir l'atomicité, en exécutant plusieurs requêtes de mise à jour de manière sûre et efficace.

  3. Upsert (Insérer ou Mettre à jour) à l'aide de onConflict :Idéal pour les scénarios dans lesquels vous devez soit insérer de nouveaux enregistrements, soit mettre à jour des enregistrements existants sans risquer de dupliquer des données.

Dans les sections suivantes, nous approfondirons chacune de ces méthodes, en examinant leur mise en œuvre, leurs avantages et les meilleurs cas d'utilisation. En comprenant ces approches, vous pouvez choisir la technique la plus appropriée à vos besoins spécifiques, optimisant à la fois les performances et l'intégrité des données dans vos applications.


1. Mise à jour unique avec plusieurs conditions

Lorsqu'il s'agit de mettre à jour plusieurs enregistrements dans une base de données, l'efficacité est la clé. Une technique puissante consiste à utiliser une seule requête UPDATE avec plusieurs conditions. Cette méthode est particulièrement utile lorsque vous devez appliquer différentes mises à jour à différents enregistrements en fonction de critères spécifiques, le tout dans une seule instruction SQL.

Le concept :

L'idée principale derrière l'approche « Mise à jour unique avec plusieurs conditions » est d'utiliser une seule requête UPDATE pour modifier plusieurs lignes, chaque ligne recevant potentiellement des valeurs différentes en fonction de ses caractéristiques uniques. Ceci est réalisé grâce à l'utilisation d'instructions CASE dans la requête UPDATE, vous permettant de spécifier une logique conditionnelle pour chaque champ qui doit être mis à jour.

Pourquoi utiliser cette approche :

  • Efficacité :Pour un nombre faible à modéré d'enregistrements (par exemple, quelques dizaines à quelques centaines), la consolidation de plusieurs mises à jour en une seule requête peut améliorer considérablement les performances en réduisant le nombre d'allers-retours dans la base de données. Cela peut être particulièrement bénéfique lorsqu’il s’agit de mises à jour à haute fréquence. Toutefois, pour de très grands ensembles de données (des milliers ou plus), cette approche pourrait ne pas être aussi efficace. Nous discutons des méthodes alternatives pour gérer de grands ensembles de données plus loin dans ce guide.

  • Simplicité :La gestion des mises à jour avec une seule requête est souvent plus simple et plus maintenable que l'exécution de plusieurs requêtes distinctes. Cette approche réduit la complexité des interactions avec votre base de données et rend le code plus facile à comprendre, surtout lorsqu'il s'agit d'un nombre modéré de mises à jour.

  • Surcharge réduite :Moins de requêtes signifie moins de surcharge pour la base de données, ce qui peut conduire à de meilleures performances globales. Ceci est particulièrement important dans les scénarios où la latence du réseau ou la charge de la base de données pourraient avoir un impact sur la vitesse des opérations.
    Pour un très grand nombre d’enregistrements, nous explorons d’autres stratégies dans ce guide pour gérer plus efficacement les frais généraux potentiels.

Exemple de mise en œuvre :

Voici un exemple pratique de la façon dont vous pouvez mettre en œuvre cette approche à l'aide de Knex.js, un générateur de requêtes SQL populaire pour Node.js. Cet exemple montre comment mettre à jour plusieurs champs pour plusieurs enregistrements en une seule fois, en utilisant une logique conditionnelle pour appliquer différentes mises à jour en fonction de l'ID de l'enregistrement :

const queryHeaderProductUpdate = 'UPDATE products SET '; // Start of the SQL UPDATE query const updatesProductUpdate = []; // Array to hold the individual update statements const parametersProductUpdate = []; // Array to hold the parameters for the query const updateProducts = [ { product_id: 1, name: 'New Name 1', price: 100, status: 'Active' }, { product_id: 2, name: 'New Name 2', price: 150, status: 'Inactive' }, { product_id: 3, name: 'New Name 3', price: 200, status: 'Active' } ]; // Extract the product IDs to use in the WHERE clause const productIds = updateProducts.map(p => p.product_id); // Build the update statements for each field updateProducts.forEach((item) => { // Add conditional logic for updating the 'name' field updatesProductUpdate.push('name = CASE WHEN product_id = ? THEN ? ELSE name END'); parametersProductUpdate.push(item.product_id, item.name); // Add conditional logic for updating the 'price' field updatesProductUpdate.push('price = CASE WHEN product_id = ? THEN ? ELSE price END'); parametersProductUpdate.push(item.product_id, item.price); // Add conditional logic for updating the 'status' field updatesProductUpdate.push('status = CASE WHEN product_id = ? THEN ? ELSE status END'); parametersProductUpdate.push(item.product_id, item.status); // Add 'updated_at' field with the current timestamp updatesProductUpdate.push('updated_at = ?'); parametersProductUpdate.push(knex.fn.now()); // Add 'updated_by' field with the user ID updatesProductUpdate.push('updated_by = ?'); parametersProductUpdate.push(req.user.userId); }); // Construct the full query by joining the individual update statements and adding the WHERE clause const queryProductUpdate = `${queryHeaderProductUpdate + updatesProductUpdate.join(', ')} WHERE product_id IN (${productIds.join(', ')})`; // Execute the update query await db.raw(queryProductUpdate, parametersProductUpdate);
Nach dem Login kopieren

Ce que fait ce code :

  1. Construit l'en-tête de requête : commence l'instruction UPDATE pour la table des produits.

  2. Construit des mises à jour conditionnelles : utilise les instructions CASE pour spécifier différentes mises à jour pour chaque champ en fonction du product_id.

  3. Génère la requête complète : combine les instructions de mise à jour et la clause WHERE.

  4. Exécute la requête : exécute la requête construite pour appliquer les mises à jour aux enregistrements spécifiés.

En mettant en œuvre cette technique, vous pouvez gérer efficacement les mises à jour groupées avec une logique conditionnelle, rendant ainsi les opérations de votre base de données plus rationalisées et plus efficaces.

Note: In the provided example, we did not use a transaction because the operation involves a single SQL query. Since a single query inherently maintains data integrity and consistency, there's no need for an additional transaction. Adding a transaction would only increase overhead without providing additional benefits in this context.

Having explored the "Single Update with Multiple Conditions" approach, which works well for a moderate number of records and provides simplicity and efficiency, we now turn our attention to a different scenario. As datasets grow larger or when atomicity across multiple operations becomes crucial, managing updates effectively requires a more robust approach.

Batch Updates with Individual Queries in a Transaction is a method designed to address these needs. This approach involves executing multiple update queries within a single transaction, ensuring that all updates are applied atomically. Let's dive into how this method works and its advantages.


2. Batch Updates with Individual Queries in a Transaction

When dealing with bulk updates, especially for a large dataset, managing each update individually within a transaction can be a robust and reliable approach. This method ensures that all updates are applied atomically and can handle errors gracefully.

Why Use This Approach:

  • Scalability:For larger datasets where Single Update with Multiple Conditions might become inefficient, batch updates with transactions offer better control. Each query is executed separately, and a transaction ensures that all changes are committed together, reducing the risk of partial updates.

  • Error Handling:Transactions provide a safety net by ensuring that either all updates succeed or none do. This atomicity guarantees data integrity, making it ideal for scenarios where you need to perform multiple related updates.

  • Concurrency Control:Using transactions can help manage concurrent modifications to the same records, preventing conflicts and ensuring consistency.

Code Example

Here’s how you can implement batch updates with individual queries inside a transaction using Knex.js:

const updateRecordsInBatch = async () => { // Example data to update const dataToUpdate = [ { id: 1, name: 'Updated Name 1', price: 100 }, { id: 2, name: 'Updated Name 2', price: 200 }, { id: 3, name: 'Updated Name 3', price: 300 } ]; // Start a transaction const trx = await db.transaction(); const promises = []; try { // Iterate over the data and push update queries to the promises array dataToUpdate.forEach(record => { promises.push( trx('products') .update({ name: record.name, price: record.price, updated_at: trx.fn.now() }) .where('id', record.id) ); }); // Execute all queries concurrently await Promise.all(promises); // Commit the transaction await trx.commit(); console.log('All records updated successfully.'); } catch (error) { // Rollback the transaction in case of error await trx.rollback(); console.error('Update failed:', error); } };
Nach dem Login kopieren

Explanation

  1. Transaction Initialization: The transaction is started using db.transaction(), which ensures that all subsequent queries are executed within this transaction.

  2. Batch Updates: Each update query is constructed and added to an array of promises. This method allows for multiple updates to be performed concurrently.

  3. Executing Queries: Promise.all(promises) is used to execute all update queries concurrently. This approach ensures that all updates are sent to the database in parallel.

  4. Committing or Rolling Back: If all queries succeed, the transaction is committed with trx.commit(). If any query fails, the transaction is rolled back with trx.rollback(), ensuring that no partial updates are applied.

Using batch updates with individual queries inside a transaction provides a reliable way to manage large datasets. It ensures data integrity through atomic transactions and offers better control over concurrent operations. This method is especially useful whenSingle Update with Multiple Conditionsmay not be efficient for very large datasets.


3. Upsert (Insert or Update) Using onConflict

When you're working with data that might need to be inserted or updated depending on its existence in the database, an "upsert" operation is the ideal solution. This approach allows you to handle both scenarios—insert new records or update existing ones—in a single, streamlined operation. It's particularly useful when you want to maintain data consistency without having to write separate logic for checking whether a record exists.

Why Use This Approach:

  • Simplicity:An upsert enables you to combine the insert and update operations into a single query, simplifying your code and reducing the need for additional checks.

  • Efficiency:This method is more efficient than performing separate insert and update operations, as it minimizes database round-trips and handles conflicts automatically.

  • Conflict Handling:The onConflict clause lets you specify how to handle conflicts, such as when records with unique constraints already exist, by updating the relevant fields.

const productData = [ { product_id: 1, store_id: 101, product_name: 'Product A', price: 10.99, category: 'Electronics', }, { product_id: 2, store_id: 102, product_name: 'Product B', price: 12.99, category: 'Books', }, { product_id: 3, store_id: 103, product_name: 'Product C', price: 9.99, category: 'Home', }, { product_id: 4, store_id: 104, product_name: 'Product D', price: 15.49, category: 'Garden', }, ]; await knex('products') .insert(productData) .onConflict(['product_id', 'store_id']) .merge({ product_name: knex.raw('EXCLUDED.product_name'), price: knex.raw('EXCLUDED.price'), category: knex.raw('EXCLUDED.category'), });
Nach dem Login kopieren

Explanation

  1. Datendefinition: Wir definieren Produktdaten, ein Array von Objekten, die die Produktdatensätze darstellen, die wir einfügen oder aktualisieren möchten. Jedes Objekt enthält eine Produkt-ID, eine Geschäfts-ID, einen Produktnamen, einen Preis und eine Kategorie.

  2. Einfügen oder Aktualisieren: Die Funktion knex('products').insert(productData) versucht, jeden Datensatz aus dem ProductData-Array in die Produkttabelle einzufügen.

  3. Konflikte behandeln: Die onConflict(['product_id', 'store_id'])-Klausel gibt an, dass bei einem Konflikt bei der Kombination von product_id und store_id der nächste Schritt ausgeführt werden soll.

  4. Zusammenführen (Aktualisierung bei Konflikt): Wenn ein Konflikt erkannt wird, aktualisiert die Methode merge({...}) den vorhandenen Datensatz mit den neuen Werten für Produktname, Preis und Kategorie aus Produktdaten. Die knex.raw('EXCLUDED.column_name')-Syntax wird verwendet, um auf die Werte zu verweisen, die eingefügt worden wären, sodass die Datenbank die vorhandenen Datensätze mit diesen Werten aktualisieren kann.

Damit dieonConflict-Klausel in einemUpsert-Vorgang ordnungsgemäß funktioniert, müssen die beteiligten Spalten Teil einer eindeutigen Einschränkung sein. So funktioniert es:

  • Einzelne eindeutige Spalte: Wenn Sie eine einzelne Spalte in der onConflict-Klausel verwenden, muss diese Spalte in der gesamten Tabelle eindeutig sein. Diese Einzigartigkeit stellt sicher, dass die Datenbank anhand dieser Spalte genau erkennen kann, ob bereits ein Datensatz vorhanden ist.
  • Mehrere Spalten: Wenn in der onConflict-Klausel mehrere Spalten verwendet werden, muss die Kombination dieser Spalten eindeutig sein. Diese Einzigartigkeit wird durch einen eindeutigen Index oder eine eindeutige Einschränkung erzwungen, die sicherstellt, dass die kombinierten Werte dieser Spalten in der gesamten Tabelle eindeutig sind.

Indizes und Einschränkungen:
Indizes:Ein eindeutiger Index für eine oder mehrere Spalten ermöglicht der Datenbank eine effiziente Überprüfung der Eindeutigkeit von Werten. Wenn Sie einen eindeutigen Index definieren, verwendet die Datenbank diesen, um schnell zu überprüfen, ob die Werte in den angegebenen Spalten bereits vorhanden sind. Dies ermöglicht es der onConflict-Klausel, Konflikte genau zu erkennen und zu behandeln.

Einschränkungen:Eine eindeutige Einschränkung stellt sicher, dass Werte in einer oder mehreren Spalten eindeutig sein müssen. Diese Einschränkung ist für die Funktion der onConflict-Klausel von entscheidender Bedeutung, da sie Regeln erzwingt, die doppelte Werte verhindern und es der Datenbank ermöglichen, Konflikte basierend auf diesen Spalten zu erkennen.

Ähnlich wie beim Ansatz „Einzelaktualisierung mit mehreren Bedingungen“ erfordert ein Upsert-Vorgang keine Transaktion. Da es sich um eine einzige Abfrage handelt, die entweder Datensätze einfügt oder aktualisiert, funktioniert es effizient, ohne den zusätzlichen Aufwand für die Verwaltung einer Transaktion.


Abschluss

Jede Technik bietet eindeutige Vorteile, von der Vereinfachung des Codes und der Reduzierung von Datenbankinteraktionen bis hin zur Gewährleistung der Datenintegrität und der effizienten Bearbeitung von Konflikten. Indem Sie die für Ihren Anwendungsfall am besten geeignete Methode auswählen, können Sie effizientere und zuverlässigere Updates in Ihren Anwendungen erzielen.

Wenn Sie diese Ansätze verstehen, können Sie Ihre Datenbankoperationen an Ihre spezifischen Anforderungen anpassen und so sowohl die Leistung als auch die Wartbarkeit verbessern. Unabhängig davon, ob es sich um Massenaktualisierungen oder komplexe Datenverwaltungsaufgaben handelt, ist die Wahl der richtigen Strategie entscheidend für die Optimierung Ihrer Arbeitsabläufe und die Erzielung besserer Ergebnisse in Ihren Entwicklungsprojekten.

Das obige ist der detaillierte Inhalt vonQL-Ansätze zur Massenaktualisierung von Datensätzen mit Knex.js. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Quelle:dev.to
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage
Über uns Haftungsausschluss Sitemap
Chinesische PHP-Website:Online-PHP-Schulung für das Gemeinwohl,Helfen Sie PHP-Lernenden, sich schnell weiterzuentwickeln!