Maison > développement back-end > Golang > Établissez une technologie de mise en cache en temps réel basée sur la file d'attente de messages Kafka dans Golang.

Établissez une technologie de mise en cache en temps réel basée sur la file d'attente de messages Kafka dans Golang.

PHPz
Libérer: 2023-06-21 11:37:12
original
900 Les gens l'ont consulté

Avec le développement continu de la technologie Internet et l'expansion continue des scénarios d'application, la technologie de mise en cache en temps réel est de plus en plus devenue une compétence essentielle pour les entreprises Internet. En tant que méthode de technologie de mise en cache en temps réel, la file d'attente de messages est de plus en plus privilégiée par les développeurs dans les applications pratiques. Cet article explique principalement comment établir une technologie de mise en cache en temps réel basée sur la file d'attente de messages Kafka dans Golang.

Qu'est-ce que la file d'attente de messages Kafka ?

Kafka est un système de messagerie distribué développé par LinkedIn et peut gérer des dizaines de millions de messages. Il présente les caractéristiques d’un débit élevé, d’une faible latence, d’une durabilité et d’une fiabilité élevée. Kafka comporte trois composants principaux : les producteurs, les consommateurs et les sujets. Parmi eux, les producteurs et les consommateurs sont les éléments essentiels de Kafka.

Le producteur envoie des messages au sujet spécifié, et peut également spécifier la partition et la clé (Key). Les consommateurs reçoivent les messages correspondants du sujet. Chez Kafka, producteurs et consommateurs sont indépendants et n’ont aucune dépendance les uns envers les autres. Ils interagissent uniquement les uns avec les autres en partageant le même sujet. Cette architecture implémente la messagerie distribuée et résout efficacement les exigences de file d'attente de messages dans divers scénarios commerciaux.

La combinaison de Golang et Kafka

Golang est un langage de programmation populaire et efficace ces dernières années. Avec sa haute concurrence, ses hautes performances et d'autres caractéristiques, il est de plus en plus largement utilisé. . Il présente l'avantage inhérent de se combiner avec les files d'attente de messages, car dans Golang, le nombre de goroutines a une relation biunivoque avec le nombre de threads du noyau, ce qui signifie que Golang peut gérer des tâches simultanées à grande échelle de manière efficace et fluide, tout en Kafka peut distribuer divers messages à différents nœuds de courtier selon des règles de partition personnalisables pour réaliser une expansion horizontale.

En utilisant la bibliothèque tierce Kafka sarama dans Golang, nous pouvons facilement implémenter une interaction avec Kafka. Les étapes spécifiques de mise en œuvre sont les suivantes :

1. Introduisez la bibliothèque sarama dans le projet Golang :

import "github.com/Shopify/sarama"
Copier après la connexion

2. Créez une instance d'expéditeur de message (Producteur) : #🎜🎜. #

config := sarama.NewConfig()
config.Producer.Return.Successes = true
producer, err := sarama.NewAsyncProducer([]string{"localhost:9092"}, config)
Copier après la connexion

Parmi eux, NewConfig() est utilisé pour créer une nouvelle instance de fichier de configuration. Return.Successes signifie que les informations de réussite seront renvoyées lorsque chaque message est envoyé avec succès. NewAsyncProducer() est utilisé pour créer une instance de producteur. La chaîne dans le paramètre Le tableau représente l'adresse IP et le numéro de port du nœud Broker dans le cluster Kafka.

3. Envoyez un message :

msg := &sarama.ProducerMessage{
  Topic: "test-topic",
  Value: sarama.StringEncoder("hello world"),
}
producer.Input() <- msg
Copier après la connexion

Parmi eux, ProducerMessage représente la structure du message, Topic représente le sujet auquel appartient le message et Value représente le contenu du message.

4. Créez une instance de consommateur de message (Consumer) :

config := sarama.NewConfig()
config.Consumer.Return.Errors = true
consumer, err := sarama.NewConsumer([]string{"localhost:9092"}, config)
Copier après la connexion

Parmi eux, NewConfig() est utilisé pour créer une nouvelle instance de fichier de configuration, et Return.Errors signifie chacun time Lors de la consommation de messages, un message d'erreur d'échec de consommation est renvoyé. NewConsumer() est utilisé pour créer une instance de consommateur.

5. Consommer des messages :

partitionConsumer, err := consumer.ConsumePartition("test-topic", 0, sarama.OffsetNewest)
for msg := range partitionConsumer.Messages() {
  fmt.Printf("Consumed message: %s
", string(msg.Value))
  partitionConsumer.MarkOffset(msg, "") // 确认消息已被消费
}
Copier après la connexion

Parmi eux, ConsumePartition() est utilisé pour spécifier le sujet, la partition et l'emplacement de consommation (dernier message ou message le plus ancien), Messages() Utilisé pour obtenir les messages consommés à partir du sujet. Après avoir consommé un message, nous devons utiliser la méthode MarkOffset() pour confirmer que le message a été consommé.

Implémentation du cache en temps réel Kafka

Dans Golang, il est très pratique d'établir un cache en temps réel via la file d'attente des messages Kafka. Nous pouvons créer un module de gestion de cache dans le projet, convertir le contenu du cache en structure de message correspondante en fonction des besoins réels, envoyer le message au sujet spécifié dans le cluster Kafka via le producteur et attendre que le consommateur consomme le message de le sujet et continuer.

Voici les étapes spécifiques de mise en œuvre :

1 Définir une structure de cache et une variable de cache dans le projet :

type Cache struct {
  Key   string
  Value interface{}
}

var cache []Cache
Copier après la connexion

Parmi elles, Key représente la clé mise en cache (Key), Value représente la valeur mise en cache (Value).

2. Convertissez le cache en la structure de message correspondante :

type Message struct {
  Operation string // 操作类型(Add/Delete/Update)
  Cache     Cache  // 缓存内容
}

func generateMessage(operation string, cache Cache) Message {
  return Message{
    Operation: operation,
    Cache:     cache,
  }
}
Copier après la connexion

Parmi eux, Message représente la structure du message, Operation représente le type d'opération de cache et generateMessage() est utilisé. pour renvoyer une instance de Message.

3. Écrivez un producteur et envoyez le contenu mis en cache sous forme de message au sujet spécifié :

func producer(messages chan *sarama.ProducerMessage) {
  config := sarama.NewConfig()
  config.Producer.Return.Successes = true
  producer, err := sarama.NewAsyncProducer([]string{"localhost:9092"}, config)
  if err != nil {
    panic(err)
  }

  for {
    select {
    case msg := <-messages:
      producer.Input() <- msg
    }
  }
}

func pushMessage(operation string, cache Cache, messages chan *sarama.ProducerMessage) {
  msg := sarama.ProducerMessage{
    Topic: "cache-topic",
    Value: sarama.StringEncoder(generateMessage(operation, cache)),
  }
  messages <- &msg
}
Copier après la connexion

Parmi eux, producteur() est utilisé pour créer une instance de producteur et attendre pour que le pipeline soit entrant. Pour envoyer un message, pushMessage() est utilisé pour convertir le contenu mis en cache en une instance de message et l'envoyer au sujet spécifié à l'aide du producteur.

4. Écrivez un consommateur, écoutez le sujet spécifié et effectuez les opérations correspondantes lorsque le message arrive :

func consumer() {
  config := sarama.NewConfig()
  config.Consumer.Return.Errors = true
  consumer, err := sarama.NewConsumer([]string{"localhost:9092"}, config)
  if err != nil {
    panic(err)
  }

  partitionConsumer, err := consumer.ConsumePartition("cache-topic", 0, sarama.OffsetNewest)
  if err != nil {
    panic(err)
  }

  for msg := range partitionConsumer.Messages() {
    var message Message
    err := json.Unmarshal(msg.Value, &message)
    if err != nil {
      fmt.Println("Failed to unmarshal message: ", err.Error())
      continue
    }

    switch message.Operation {
    case "Add":
      cache = append(cache, message.Cache)
    case "Delete":
      for i, c := range cache {
        if c.Key == message.Cache.Key {
          cache = append(cache[:i], cache[i+1:]...)
          break
        }
      }
    case "Update":
      for i, c := range cache {
        if c.Key == message.Cache.Key {
          cache[i] = message.Cache
          break
        }
      }
    }
    partitionConsumer.MarkOffset(msg, "") // 确认消息已被消费
  }
}
Copier après la connexion
Parmi eux, consumer() est utilisé pour créer une instance de consommateur et écoutez le sujet spécifié, utilisez la fonction json.Unmarshal() pour analyser le champ Valeur du message dans une structure Message, puis effectuez les opérations de mise en cache correspondantes en fonction du champ Opération. Après avoir consommé un message, nous devons utiliser la méthode MarkOffset() pour confirmer que le message a été consommé.

Grâce aux étapes ci-dessus, nous avons utilisé avec succès la bibliothèque Kafka sarama à Golang pour établir une technologie de mise en cache en temps réel basée sur la file d'attente de messages Kafka. Dans les applications pratiques, nous pouvons choisir différentes configurations de cluster Kafka et règles de partitionnement en fonction des besoins réels pour faire face de manière flexible à divers scénarios commerciaux.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:php.cn
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal