


Implémentation d'un système de traitement des commandes : opérations de base de données avancées en partie
1. Introduction et objectifs
Bienvenue dans le troisième volet de notre série sur la mise en œuvre d'un système sophistiqué de traitement des commandes ! Dans nos articles précédents, nous avons jeté les bases de notre projet et exploré les flux de travail temporels avancés. Aujourd'hui, nous plongeons en profondeur dans le monde des opérations de bases de données à l'aide de sqlc, un outil puissant qui génère du code Go de type sécurisé à partir de SQL.
Récapitulatif des articles précédents
Dans la première partie, nous avons mis en place la structure de notre projet, implémenté une API CRUD de base et intégré une base de données Postgres. Dans la deuxième partie, nous avons élargi notre utilisation de Temporal, en mettant en œuvre des flux de travail complexes, en gérant des processus de longue durée et en explorant des concepts avancés tels que le modèle Saga.
Importance des opérations de base de données efficaces dans les microservices
Dans une architecture de microservices, en particulier celle qui gère des processus complexes comme la gestion des commandes, des opérations de base de données efficaces sont cruciales. Ils ont un impact direct sur les performances, l’évolutivité et la fiabilité de notre système. Une mauvaise conception de base de données ou des requêtes inefficaces peuvent devenir des goulots d'étranglement, entraînant des temps de réponse lents et une mauvaise expérience utilisateur.
Présentation de SQLC et de ses avantages
sqlc est un outil qui génère du code Go de type sécurisé à partir de SQL. Voici quelques avantages clés :
- Sécurité des types : sqlc génère du code Go entièrement sécurisé, détectant de nombreuses erreurs au moment de la compilation plutôt qu'à l'exécution.
- Performance : Le code généré est efficace et évite les allocations inutiles.
- SQL-First : Vous écrivez du SQL standard, qui est ensuite traduit en code Go. Cela vous permet d'exploiter toute la puissance de SQL.
- Maintenabilité : les modifications apportées à votre schéma ou à vos requêtes sont immédiatement reflétées dans le code Go généré, garantissant ainsi que votre code et votre base de données restent synchronisés.
Objectifs pour cette partie de la série
À la fin de cet article, vous pourrez :
- Implémenter des requêtes et des transactions de bases de données complexes à l'aide de sqlc
- Optimisez les performances de la base de données grâce à une indexation et une conception de requêtes efficaces
- Mettre en œuvre des opérations par lots pour gérer de grands ensembles de données
- Gérer les migrations de bases de données dans un environnement de production
- Mettre en œuvre le partitionnement de la base de données pour une évolutivité améliorée
- Assurer la cohérence des données dans un système distribué
Plongeons-nous !
2. Contexte théorique et concepts
Avant de commencer la mise en œuvre, passons en revue quelques concepts clés qui seront cruciaux pour nos opérations avancées de base de données.
Techniques d'optimisation des performances SQL
L'optimisation des performances SQL implique plusieurs techniques :
- Indexation appropriée : La création des bons index peut considérablement accélérer l'exécution des requêtes.
- Optimisation des requêtes : structurer efficacement les requêtes, en utilisant des jointures appropriées et en évitant les sous-requêtes inutiles.
- Dénormalisation des données : Dans certains cas, la duplication stratégique des données peut améliorer les performances de lecture.
- Partitionnement : Diviser les grandes tables en morceaux plus petits et plus faciles à gérer.
Transactions de base de données et niveaux d'isolement
Les transactions garantissent qu'une série d'opérations de base de données sont exécutées comme une seule unité de travail. Les niveaux d'isolement déterminent la façon dont l'intégrité des transactions est visible pour les autres utilisateurs et systèmes. Les niveaux d'isolement courants incluent :
- Lecture non validée : niveau d'isolement le plus bas, autorise les lectures sales.
- Lecture validée : empêche les lectures incorrectes, mais des lectures non répétables peuvent se produire.
- Lecture répétable : empêche les lectures sales et non répétables, mais des lectures fantômes peuvent se produire.
- Sérialisable : Niveau d'isolement le plus élevé, empêche tous les phénomènes ci-dessus.
Partage et partitionnement de bases de données
Le partage est une méthode de partitionnement horizontal des données sur plusieurs bases de données. Il s’agit d’une technique clé pour faire évoluer les bases de données afin de gérer de grandes quantités de données et des charges de trafic élevées. Le partitionnement, quant à lui, consiste à diviser une table en morceaux plus petits au sein de la même instance de base de données.
Opérations par lots
Les opérations par lots nous permettent d'effectuer plusieurs opérations de base de données en une seule requête. Cela peut améliorer considérablement les performances lors du traitement de grands ensembles de données en réduisant le nombre d'allers-retours vers la base de données.
Database Migration Strategies
Database migrations are a way to manage changes to your database schema over time. Effective migration strategies allow you to evolve your schema while minimizing downtime and ensuring data integrity.
Now that we’ve covered these concepts, let’s start implementing advanced database operations in our order processing system.
3. Implementing Complex Database Queries and Transactions
Let’s start by implementing some complex queries and transactions using sqlc. We’ll focus on our order processing system, adding some more advanced querying capabilities.
First, let’s update our schema to include a new table for order items:
-- migrations/000002_add_order_items.up.sql CREATE TABLE order_items ( id SERIAL PRIMARY KEY, order_id INTEGER NOT NULL REFERENCES orders(id), product_id INTEGER NOT NULL, quantity INTEGER NOT NULL, price DECIMAL(10, 2) NOT NULL );
Now, let’s define some complex queries in our sqlc query file:
-- queries/orders.sql -- name: GetOrderWithItems :many SELECT o.*, json_agg(json_build_object( 'id', oi.id, 'product_id', oi.product_id, 'quantity', oi.quantity, 'price', oi.price )) AS items FROM orders o JOIN order_items oi ON o.id = oi.order_id WHERE o.id = $1 GROUP BY o.id; -- name: CreateOrderWithItems :one WITH new_order AS ( INSERT INTO orders (customer_id, status, total_amount) VALUES ($1, $2, $3) RETURNING id ) INSERT INTO order_items (order_id, product_id, quantity, price) SELECT new_order.id, unnest($4::int[]), unnest($5::int[]), unnest($6::decimal[]) FROM new_order RETURNING (SELECT id FROM new_order); -- name: UpdateOrderStatus :exec UPDATE orders SET status = $2, updated_at = CURRENT_TIMESTAMP WHERE id = $1;
These queries demonstrate some more advanced SQL techniques:
- GetOrderWithItems uses a JOIN and json aggregation to fetch an order with all its items in a single query.
- CreateOrderWithItems uses a CTE (Common Table Expression) and array unnesting to insert an order and its items in a single transaction.
- UpdateOrderStatus is a simple update query, but we’ll use it to demonstrate transaction handling.
Now, let’s generate our Go code:
sqlc generate
This will create Go functions for each of our queries. Let’s use these in our application:
package db import ( "context" "database/sql" ) type Store struct { *Queries db *sql.DB } func NewStore(db *sql.DB) *Store { return &Store{ Queries: New(db), db: db, } } func (s *Store) CreateOrderWithItemsTx(ctx context.Context, arg CreateOrderWithItemsParams) (int64, error) { tx, err := s.db.BeginTx(ctx, nil) if err != nil { return 0, err } defer tx.Rollback() qtx := s.WithTx(tx) orderId, err := qtx.CreateOrderWithItems(ctx, arg) if err != nil { return 0, err } if err := tx.Commit(); err != nil { return 0, err } return orderId, nil } func (s *Store) UpdateOrderStatusTx(ctx context.Context, id int64, status string) error { tx, err := s.db.BeginTx(ctx, nil) if err != nil { return err } defer tx.Rollback() qtx := s.WithTx(tx) if err := qtx.UpdateOrderStatus(ctx, UpdateOrderStatusParams{ID: id, Status: status}); err != nil { return err } // Simulate some additional operations that might be part of this transaction // For example, updating inventory, sending notifications, etc. if err := tx.Commit(); err != nil { return err } return nil }
In this code:
- We’ve created a Store struct that wraps our sqlc Queries and adds transaction support.
- CreateOrderWithItemsTx demonstrates how to use a transaction to ensure that both the order and its items are created atomically.
- UpdateOrderStatusTx shows how we might update an order’s status as part of a larger transaction that could involve other operations.
These examples demonstrate how to use sqlc to implement complex queries and handle transactions effectively. In the next section, we’ll look at how to optimize the performance of these database operations.
4. Optimizing Database Performance
Optimizing database performance is crucial for maintaining a responsive and scalable system. Let’s explore some techniques to improve the performance of our order processing system.
Analyzing Query Performance with EXPLAIN
PostgreSQL’s EXPLAIN command is a powerful tool for understanding and optimizing query performance. Let’s use it to analyze our GetOrderWithItems query:
EXPLAIN ANALYZE SELECT o.*, json_agg(json_build_object( 'id', oi.id, 'product_id', oi.product_id, 'quantity', oi.quantity, 'price', oi.price )) AS items FROM orders o JOIN order_items oi ON o.id = oi.order_id WHERE o.id = 1 GROUP BY o.id;
This will provide us with a query plan and execution statistics. Based on the results, we can identify potential bottlenecks and optimize our query.
Implementing and Using Database Indexes Effectively
Indexes can dramatically improve query performance, especially for large tables. Let’s add some indexes to our schema:
-- migrations/000003_add_indexes.up.sql CREATE INDEX idx_order_items_order_id ON order_items(order_id); CREATE INDEX idx_orders_customer_id ON orders(customer_id); CREATE INDEX idx_orders_status ON orders(status);
These indexes will speed up our JOIN operations and filtering by customer_id or status.
Optimizing Data Types and Schema Design
Choosing the right data types can impact both storage efficiency and query performance. For example, using BIGSERIAL instead of SERIAL for id fields allows for a larger range of values, which can be important for high-volume systems.
Handling Large Datasets Efficiently
When dealing with large datasets, it’s important to implement pagination to avoid loading too much data at once. Let’s add a paginated query for fetching orders:
-- name: ListOrdersPaginated :many SELECT * FROM orders ORDER BY created_at DESC LIMIT $1 OFFSET $2;
In our Go code, we can use this query like this:
func (s *Store) ListOrdersPaginated(ctx context.Context, limit, offset int32) ([]Order, error) { return s.Queries.ListOrdersPaginated(ctx, ListOrdersPaginatedParams{ Limit: limit, Offset: offset, }) }
Caching Strategies for Frequently Accessed Data
For data that’s frequently accessed but doesn’t change often, implementing a caching layer can significantly reduce database load. Here’s a simple example using an in-memory cache:
import ( "context" "sync" "time" ) type OrderCache struct { store *Store cache map[int64]*Order mutex sync.RWMutex ttl time.Duration } func NewOrderCache(store *Store, ttl time.Duration) *OrderCache { return &OrderCache{ store: store, cache: make(map[int64]*Order), ttl: ttl, } } func (c *OrderCache) GetOrder(ctx context.Context, id int64) (*Order, error) { c.mutex.RLock() if order, ok := c.cache[id]; ok { c.mutex.RUnlock() return order, nil } c.mutex.RUnlock() order, err := c.store.GetOrder(ctx, id) if err != nil { return nil, err } c.mutex.Lock() c.cache[id] = &order c.mutex.Unlock() go func() { time.Sleep(c.ttl) c.mutex.Lock() delete(c.cache, id) c.mutex.Unlock() }() return &order, nil }
This cache implementation stores orders in memory for a specified duration, reducing the need to query the database for frequently accessed orders.
5. Implementing Batch Operations
Batch operations can significantly improve performance when dealing with large datasets. Let’s implement some batch operations for our order processing system.
Designing Batch Insert Operations
First, let’s add a batch insert operation for order items:
-- name: BatchCreateOrderItems :copyfrom INSERT INTO order_items ( order_id, product_id, quantity, price ) VALUES ( $1, $2, $3, $4 );
In our Go code, we can use this to insert multiple order items efficiently:
func (s *Store) BatchCreateOrderItems(ctx context.Context, items []OrderItem) error { return s.Queries.BatchCreateOrderItems(ctx, items) }
Handling Large Batch Operations Efficiently
When dealing with very large batches, it’s important to process them in chunks to avoid overwhelming the database or running into memory issues. Here’s an example of how we might do this:
func (s *Store) BatchCreateOrderItemsChunked(ctx context.Context, items []OrderItem, chunkSize int) error { for i := 0; i < len(items); i += chunkSize { end := i + chunkSize if end > len(items) { end = len(items) } chunk := items[i:end] if err := s.BatchCreateOrderItems(ctx, chunk); err != nil { return err } } return nil }
Error Handling and Partial Failure in Batch Operations
When performing batch operations, it’s important to handle partial failures gracefully. One approach is to use transactions and savepoints:
func (s *Store) BatchCreateOrderItemsWithSavepoints(ctx context.Context, items []OrderItem, chunkSize int) error { tx, err := s.db.BeginTx(ctx, nil) if err != nil { return err } defer tx.Rollback() qtx := s.WithTx(tx) for i := 0; i < len(items); i += chunkSize { end := i + chunkSize if end > len(items) { end = len(items) } chunk := items[i:end] _, err := tx.ExecContext(ctx, "SAVEPOINT batch_insert") if err != nil { return err } err = qtx.BatchCreateOrderItems(ctx, chunk) if err != nil { _, rbErr := tx.ExecContext(ctx, "ROLLBACK TO SAVEPOINT batch_insert") if rbErr != nil { return fmt.Errorf("batch insert failed and unable to rollback: %v, %v", err, rbErr) } // Log the error or handle it as appropriate for your use case fmt.Printf("Failed to insert chunk %d-%d: %v\n", i, end, err) } else { _, err = tx.ExecContext(ctx, "RELEASE SAVEPOINT batch_insert") if err != nil { return err } } } return tx.Commit() }
This approach allows us to rollback individual chunks if they fail, while still committing the successful chunks.
6. Handling Database Migrations in a Production Environment
As our system evolves, we’ll need to make changes to our database schema. Managing these changes in a production environment requires careful planning and execution.
Strategies for Zero-Downtime Migrations
To achieve zero-downtime migrations, we can follow these steps:
- Make all schema changes backwards compatible
- Deploy the new application version that supports both old and new schemas
- Run the schema migration
- Deploy the final application version that only supports the new schema
Let’s look at an example of a backwards compatible migration:
-- migrations/000004_add_order_notes.up.sql ALTER TABLE orders ADD COLUMN notes TEXT; -- migrations/000004_add_order_notes.down.sql ALTER TABLE orders DROP COLUMN notes;
This migration adds a new column, which is a backwards compatible change. Existing queries will continue to work, and we can update our application to start using the new column.
Implementing and Managing Database Schema Versions
We’re already using golang-migrate for our migrations, which keeps track of the current schema version. We can query this information to ensure our application is compatible with the current database schema:
func (s *Store) GetDatabaseVersion(ctx context.Context) (int, error) { var version int err := s.db.QueryRowContext(ctx, "SELECT version FROM schema_migrations ORDER BY version DESC LIMIT 1").Scan(&version) if err != nil { return 0, err } return version, nil }
Handling Data Transformations During Migrations
Sometimes we need to not only change the schema but also transform existing data. Here’s an example of a migration that does both:
-- migrations/000005_split_name.up.sql ALTER TABLE customers ADD COLUMN first_name TEXT, ADD COLUMN last_name TEXT; UPDATE customers SET first_name = split_part(name, ' ', 1), last_name = split_part(name, ' ', 2) WHERE name IS NOT NULL; ALTER TABLE customers DROP COLUMN name; -- migrations/000005_split_name.down.sql ALTER TABLE customers ADD COLUMN name TEXT; UPDATE customers SET name = concat(first_name, ' ', last_name) WHERE first_name IS NOT NULL OR last_name IS NOT NULL; ALTER TABLE customers DROP COLUMN first_name, DROP COLUMN last_name;
This migration splits the name column into first_name and last_name, transforming the existing data in the process.
Rolling Back Migrations Safely
It’s crucial to test both the up and down migrations thoroughly before applying them to a production database. Always have a rollback plan ready in case issues are discovered after a migration is applied.
In the next sections, we’ll explore database sharding for scalability and ensuring data consistency in a distributed system.
7. Implementing Database Sharding for Scalability
As our order processing system grows, we may need to scale beyond what a single database instance can handle. Database sharding is a technique that can help us achieve horizontal scalability by distributing data across multiple database instances.
Designing a Sharding Strategy for Our Order Processing System
For our order processing system, we’ll implement a simple sharding strategy based on the customer ID. This approach ensures that all orders for a particular customer are on the same shard, which can simplify certain types of queries.
First, let’s create a sharding function:
const NUM_SHARDS = 4 func getShardForCustomer(customerID int64) int { return int(customerID % NUM_SHARDS) }
This function will distribute customers (and their orders) evenly across our shards.
Implementing a Sharding Layer with sqlc
Now, let’s implement a sharding layer that will route queries to the appropriate shard:
type ShardedStore struct { stores [NUM_SHARDS]*Store } func NewShardedStore(connStrings [NUM_SHARDS]string) (*ShardedStore, error) { var stores [NUM_SHARDS]*Store for i, connString := range connStrings { db, err := sql.Open("postgres", connString) if err != nil { return nil, err } stores[i] = NewStore(db) } return &ShardedStore{stores: stores}, nil } func (s *ShardedStore) GetOrder(ctx context.Context, customerID, orderID int64) (Order, error) { shard := getShardForCustomer(customerID) return s.stores[shard].GetOrder(ctx, orderID) } func (s *ShardedStore) CreateOrder(ctx context.Context, arg CreateOrderParams) (Order, error) { shard := getShardForCustomer(arg.CustomerID) return s.stores[shard].CreateOrder(ctx, arg) }
This ShardedStore maintains connections to all of our database shards and routes queries to the appropriate shard based on the customer ID.
Handling Cross-Shard Queries and Transactions
Cross-shard queries can be challenging in a sharded database setup. For example, if we need to get all orders across all shards, we’d need to query each shard and combine the results:
func (s *ShardedStore) GetAllOrders(ctx context.Context) ([]Order, error) { var allOrders []Order for _, store := range s.stores { orders, err := store.ListOrders(ctx) if err != nil { return nil, err } allOrders = append(allOrders, orders...) } return allOrders, nil }
Cross-shard transactions are even more complex and often require a two-phase commit protocol or a distributed transaction manager. In many cases, it’s better to design your system to avoid the need for cross-shard transactions if possible.
Rebalancing Shards and Handling Shard Growth
As your data grows, you may need to add new shards or rebalance existing ones. This process can be complex and typically involves:
- Adding new shards to the system
- Gradually migrating data from existing shards to new ones
- Updating the sharding function to incorporate the new shards
Here’s a simple example of how we might update our sharding function to handle a growing number of shards:
var NUM_SHARDS = 4 func updateNumShards(newNumShards int) { NUM_SHARDS = newNumShards } func getShardForCustomer(customerID int64) int { return int(customerID % int64(NUM_SHARDS)) }
In a production system, you’d want to implement a more sophisticated approach, possibly using a consistent hashing algorithm to minimize data movement when adding or removing shards.
8. Ensuring Data Consistency in a Distributed System
Maintaining data consistency in a distributed system like our sharded database setup can be challenging. Let’s explore some strategies to ensure consistency.
Implementing Distributed Transactions with sqlc
While sqlc doesn’t directly support distributed transactions, we can implement a simple two-phase commit protocol for operations that need to span multiple shards. Here’s a basic example:
func (s *ShardedStore) CreateOrderAcrossShards(ctx context.Context, arg CreateOrderParams, items []CreateOrderItemParams) error { // Phase 1: Prepare var preparedTxs []*sql.Tx for _, store := range s.stores { tx, err := store.db.BeginTx(ctx, nil) if err != nil { // Rollback any prepared transactions for _, preparedTx := range preparedTxs { preparedTx.Rollback() } return err } preparedTxs = append(preparedTxs, tx) } // Phase 2: Commit for _, tx := range preparedTxs { if err := tx.Commit(); err != nil { // If any commit fails, we're in an inconsistent state // In a real system, we'd need a way to recover from this return err } } return nil }
This is a simplified example and doesn’t handle many edge cases. In a production system, you’d need more sophisticated error handling and recovery mechanisms.
Handling Eventual Consistency in Database Operations
In some cases, it may be acceptable (or necessary) to have eventual consistency rather than strong consistency. For example, if we’re generating reports across all shards, we might be okay with slightly out-of-date data:
func (s *ShardedStore) GetOrderCountsEventuallyConsistent(ctx context.Context) (map[string]int, error) { counts := make(map[string]int) var wg sync.WaitGroup var mu sync.Mutex errCh := make(chan error, NUM_SHARDS) for _, store := range s.stores { wg.Add(1) go func(store *Store) { defer wg.Done() localCounts, err := store.GetOrderCounts(ctx) if err != nil { errCh <- err return } mu.Lock() for status, count := range localCounts { counts[status] += count } mu.Unlock() }(store) } wg.Wait() close(errCh) if err := <-errCh; err != nil { return nil, err } return counts, nil }
This function aggregates order counts across all shards concurrently, providing a eventually consistent view of the data.
Implementing Compensating Transactions for Failure Scenarios
In distributed systems, it’s important to have mechanisms to handle partial failures. Compensating transactions can help restore the system to a consistent state when a distributed operation fails partway through.
Here’s an example of how we might implement a compensating transaction for a failed order creation:
func (s *ShardedStore) CreateOrderWithCompensation(ctx context.Context, arg CreateOrderParams) (Order, error) { shard := getShardForCustomer(arg.CustomerID) order, err := s.stores[shard].CreateOrder(ctx, arg) if err != nil { return Order{}, err } // Simulate some additional processing that might fail if err := someProcessingThatMightFail(); err != nil { // If processing fails, we need to compensate by deleting the order if err := s.stores[shard].DeleteOrder(ctx, order.ID); err != nil { // Log the error, as we're now in an inconsistent state log.Printf("Failed to compensate for failed order creation: %v", err) } return Order{}, err } return order, nil }
This function creates an order and then performs some additional processing. If the processing fails, it attempts to delete the order as a compensating action.
Strategies for Maintaining Referential Integrity Across Shards
Maintaining referential integrity across shards can be challenging. One approach is to denormalize data to keep related entities on the same shard. For example, we might store a copy of customer information with each order:
type Order struct { ID int64 CustomerID int64 // Denormalized customer data CustomerName string CustomerEmail string // Other order fields... }
This approach trades some data redundancy for easier maintenance of consistency within a shard.
9. Testing and Validation
Thorough testing is crucial when working with complex database operations and distributed systems. Let’s explore some strategies for testing our sharded database system.
Unit Testing Database Operations with sqlc
sqlc generates code that’s easy to unit test. Here’s an example of how we might test our GetOrder function:
func TestGetOrder(t *testing.T) { // Set up a test database db, err := sql.Open("postgres", "postgresql://testuser:testpass@localhost:5432/testdb") if err != nil { t.Fatalf("Failed to connect to test database: %v", err) } defer db.Close() store := NewStore(db) // Create a test order order, err := store.CreateOrder(context.Background(), CreateOrderParams{ CustomerID: 1, Status: "pending", TotalAmount: 100.00, }) if err != nil { t.Fatalf("Failed to create test order: %v", err) } // Test GetOrder retrievedOrder, err := store.GetOrder(context.Background(), order.ID) if err != nil { t.Fatalf("Failed to get order: %v", err) } if retrievedOrder.ID != order.ID { t.Errorf("Expected order ID %d, got %d", order.ID, retrievedOrder.ID) } // Add more assertions as needed... }
Implementing Integration Tests for Database Functionality
Integration tests can help ensure that our sharding logic works correctly with real database instances. Here’s an example:
func TestShardedStore(t *testing.T) { // Set up test database instances for each shard connStrings := [NUM_SHARDS]string{ "postgresql://testuser:testpass@localhost:5432/testdb1", "postgresql://testuser:testpass@localhost:5432/testdb2", "postgresql://testuser:testpass@localhost:5432/testdb3", "postgresql://testuser:testpass@localhost:5432/testdb4", } shardedStore, err := NewShardedStore(connStrings) if err != nil { t.Fatalf("Failed to create sharded store: %v", err) } // Test creating orders on different shards order1, err := shardedStore.CreateOrder(context.Background(), CreateOrderParams{CustomerID: 1, Status: "pending", TotalAmount: 100.00}) if err != nil { t.Fatalf("Failed to create order on shard 1: %v", err) } order2, err := shardedStore.CreateOrder(context.Background(), CreateOrderParams{CustomerID: 2, Status: "pending", TotalAmount: 200.00}) if err != nil { t.Fatalf("Failed to create order on shard 2: %v", err) } // Test retrieving orders from different shards retrievedOrder1, err := shardedStore.GetOrder(context.Background(), 1, order1.ID) if err != nil { t.Fatalf("Failed to get order from shard 1: %v", err) } retrievedOrder2, err := shardedStore.GetOrder(context.Background(), 2, order2.ID) if err != nil { t.Fatalf("Failed to get order from shard 2: %v", err) } // Add assertions to check the retrieved orders... }
Performance Testing and Benchmarking Database Operations
Performance testing is crucial, especially when working with sharded databases. Here’s an example of how to benchmark our GetOrder function:
func BenchmarkGetOrder(b *testing.B) { // Set up your database connection db, err := sql.Open("postgres", "postgresql://testuser:testpass@localhost:5432/testdb") if err != nil { b.Fatalf("Failed to connect to test database: %v", err) } defer db.Close() store := NewStore(db) // Create a test order order, err := store.CreateOrder(context.Background(), CreateOrderParams{ CustomerID: 1, Status: "pending", TotalAmount: 100.00, }) if err != nil { b.Fatalf("Failed to create test order: %v", err) } // Run the benchmark b.ResetTimer() for i := 0; i < b.N; i++ { _, err := store.GetOrder(context.Background(), order.ID) if err != nil { b.Fatalf("Benchmark failed: %v", err) } } }
This benchmark will help you understand the performance characteristics of your GetOrder function and can be used to compare different implementations or optimizations.
10. Challenges and Considerations
As we implement and operate our sharded database system, there are several challenges and considerations to keep in mind:
Managing Database Connection Pools : With multiple database instances, it’s crucial to manage connection pools efficiently to avoid overwhelming any single database or running out of connections.
Handling Database Failover and High Availability : In a sharded setup, you need to consider what happens if one of your database instances fails. Implementing read replicas and automatic failover can help ensure high availability.
Consistent Backups Across Shards : Backing up a sharded database system requires careful coordination to ensure consistency across all shards.
Query Routing and Optimization : As your sharding scheme evolves, you may need to implement more sophisticated query routing to optimize performance.
Data Rebalancing : As some shards grow faster than others, you may need to periodically rebalance data across shards.
Cross-Shard Joins and Aggregations : These operations can be particularly challenging in a sharded system and may require implementation at the application level.
Maintaining Data Integrity : Ensuring data integrity across shards, especially for operations that span multiple shards, requires careful design and implementation.
Monitoring and Alerting : With a distributed database system, comprehensive monitoring and alerting become even more critical to quickly identify and respond to issues.
11. Nächste Schritte und Vorschau auf Teil 4
In diesem Beitrag haben wir uns eingehend mit erweiterten Datenbankoperationen mit SQLC befasst und dabei alles von der Optimierung von Abfragen und der Implementierung von Batch-Operationen bis hin zur Verwaltung von Datenbankmigrationen und der Implementierung von Sharding für Skalierbarkeit abgedeckt.
Im nächsten Teil unserer Serie konzentrieren wir uns auf die Überwachung und Alarmierung mit Prometheus. Wir behandeln Folgendes:
- Einrichtung von Prometheus zur Überwachung unseres Auftragsabwicklungssystems
- Benutzerdefinierte Metriken definieren und implementieren
- Dashboards mit Grafana erstellen
- Alarmierungsregeln implementieren
- Überwachung der Datenbankleistung
- Überwachung zeitlicher Arbeitsabläufe
Bleiben Sie dran, während wir unser ausgefeiltes Auftragsabwicklungssystem weiter ausbauen und uns als Nächstes darauf konzentrieren, sicherzustellen, dass wir unser System in einer Produktionsumgebung effektiv überwachen und warten können!
Brauchen Sie Hilfe?
Stehen Sie vor herausfordernden Problemen oder benötigen Sie eine externe Perspektive auf eine neue Idee oder ein neues Projekt? Ich kann helfen! Ganz gleich, ob Sie einen Technologie-Proof of Concept erstellen möchten, bevor Sie eine größere Investition tätigen, oder ob Sie Beratung bei schwierigen Themen benötigen, ich bin hier, um Ihnen zu helfen.
Angebotene Dienstleistungen:
- Problemlösung:Komplexe Probleme mit innovativen Lösungen angehen.
- Beratung: Bereitstellung fachkundiger Beratung und neuer Standpunkte zu Ihren Projekten.
- Proof of Concept: Entwicklung vorläufiger Modelle zum Testen und Validieren Ihrer Ideen.
Wenn Sie an einer Zusammenarbeit mit mir interessiert sind, wenden Sie sich bitte per E-Mail an hungaikevin@gmail.com.
Lassen Sie uns Ihre Herausforderungen in Chancen verwandeln!
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undress AI Tool
Images de déshabillage gratuites

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

TointegrategolangServices withexistingpythoninfrastructure, userestapisorgrpcForInter-Servicecommunication, permettant à la perfection

GolangoffersSuperiorPerformance, nativeConcaunternandViagoroutines, and efficaceResourceUsage, faisant la provision de la trafic, low-lantentencyapis; 2.python, tandis que la locosystème de lavel

Golang est principalement utilisé pour le développement back-end, mais il peut également jouer un rôle indirect dans le champ frontal. Ses objectifs de conception se concentrent sur les hautes performances, le traitement simultané et la programmation au niveau du système, et conviennent à la création d'applications arrière telles que les serveurs API, les microservices, les systèmes distribués, les opérations de base de données et les outils CLI. Bien que Golang ne soit pas le langage grand public de la file d'attente Web, il peut être compilé en JavaScript via GOPHERJS, exécuter sur WebAssembly via Tinygo, ou générer des pages HTML avec un moteur de modèle pour participer au développement frontal. Cependant, le développement frontal moderne doit encore s'appuyer sur JavaScript / TypeScript et son écosystème. Par conséquent, Golang convient plus à la sélection de la pile technologique avec un backend haute performance comme noyau.

La clé de l'installation de Go est de sélectionner la version correcte, de configurer les variables d'environnement et de vérifier l'installation. 1. Accédez au site officiel pour télécharger le package d'installation du système correspondant. Windows utilise des fichiers .msi, macOS utilise des fichiers .pkg, Linux utilise des fichiers .tar.gz et les décompressez vers / usr / répertoire local; 2. Configurer les variables d'environnement, modifier ~ / .Bashrc ou ~ / .zshrc dans Linux / macOS pour ajouter le chemin et Gopath, et Windows définit le chemin d'accès pour aller dans les propriétés du système; 3. Utilisez la commande gouvernementale pour vérifier l'installation et exécutez le programme de test Hello.go pour confirmer que la compilation et l'exécution sont normales. Paramètres et boucles de chemin tout au long du processus

Golang consomme généralement moins de processeur et de mémoire que Python lors de la création de services Web. 1. Le modèle Goroutine de Golang est efficace dans la planification, a de solides capacités de traitement des demandes simultanées et a une utilisation plus faible du processeur; 2. GO est compilé en code natif, ne s'appuie pas sur des machines virtuelles pendant l'exécution et a une utilisation de la mémoire plus petite; 3. Python a un CPU et des frais généraux de mémoire plus élevés dans des scénarios simultanés en raison du GIL et du mécanisme d'exécution de l'interprétation; 4. Bien que Python ait une efficacité de développement élevée et un écosystème riche, il consomme une ressource élevée, qui convient aux scénarios avec des exigences de faible concurrence.

Pour construire un GraphQlapi en Go, il est recommandé d'utiliser la bibliothèque GQLGEN pour améliorer l'efficacité du développement. 1. Sélectionnez d'abord la bibliothèque appropriée, telle que GQLGEN, qui prend en charge la génération automatique de code basée sur le schéma; 2. Définissez ensuite GraphQlschema, décrivez la structure de l'API et le portail de requête, tels que la définition des types de post et des méthodes de requête; 3. Puis initialisez le projet et générez du code de base pour implémenter la logique métier dans Resolver; 4. Enfin, connectez GraphQlHandler à HttpServer et testez l'API via le terrain de jeu intégré. Les notes incluent les spécifications de dénomination des champs, la gestion des erreurs, l'optimisation des performances et les paramètres de sécurité pour assurer la maintenance du projet

Le choix du cadre de microservice doit être déterminé en fonction des exigences du projet, de la pile de technologie d'équipe et des attentes de performances. 1. Compte tenu des exigences de performance élevées, Kitex ou Gomicro of GO est prioritaire, en particulier le kitex convient à la gouvernance des services complexes et à des systèmes à grande échelle; 2. Fastapi ou Flask of Python est plus flexible dans les scénarios de développement rapide et d'itération, adaptés aux petites équipes et aux projets MVP; 3. La pile de compétences de l'équipe affecte directement le coût de sélection, et s'il y a déjà une accumulation, elle continuera d'être plus efficace. La conversion téméraire de l'équipe Python en Go peut affecter l'efficacité; 4. Le cadre GO est plus mature dans l'écosystème de gouvernance des services, adapté aux systèmes moyens et grands qui doivent se connecter avec des fonctions avancées à l'avenir; 5. Une architecture hybride peut être adoptée selon le module, sans avoir à s'en tenir à une seule langue ou un cadre.

Sync.WaitGroup est utilisé pour attendre qu'un groupe de Goroutines termine la tâche. Son noyau est de travailler ensemble sur trois méthodes: ajouter, faire et attendre. 1.Add (n) Définissez le nombre de Goroutines à attendre; 2.Done () est appelé à la fin de chaque goroutine, et le nombre est réduit de un; 3.Wait () bloque la coroutine principale jusqu'à ce que toutes les tâches soient effectuées. Lorsque vous l'utilisez, veuillez noter: ADD doit être appelé à l'extérieur du goroutine, évitez l'attente en double et assurez-vous de vous assurer que Don est appelé. Il est recommandé de l'utiliser avec un report. Il est courant dans la rampe simultanée des pages Web, du traitement des données par lots et d'autres scénarios, et peut contrôler efficacement le processus de concurrence.
