이 글에서는 주로 일관된 해시 알고리즘의 원리와 기존 데이터 왜곡 문제를 설명한 다음 데이터 왜곡 문제를 해결하는 방법을 소개하고 마지막으로 Dubbo에서 일관된 해시 알고리즘의 사용을 분석합니다. 이 글에서는 컨시스턴트 해싱 알고리즘이 어떻게 작동하는지, 그리고 알고리즘이 직면한 문제점과 해결책을 소개합니다.
다음은 dubbo 공식 웹사이트의 인용문입니다.
LoadBalance는 중국어로 로드 밸런싱을 의미합니다. 그 책임은 네트워크 요청이나 다른 형태의 로드를 다른 시스템에 "균등하게 분배"하는 것입니다. 클러스터의 일부 서버는 과도한 압력을 받는 반면 다른 서버는 상대적으로 유휴 상태인 상황을 피하십시오. 로드 밸런싱을 통해 각 서버는 자체 처리 능력에 맞는 로드를 얻을 수 있습니다. 부하가 높은 서버를 오프로드하는 동안 리소스 낭비를 방지하여 일석이조를 달성할 수 있습니다. 로드 밸런싱은 소프트웨어 로드 밸런싱과 하드웨어 로드 밸런싱으로 나눌 수 있습니다. 일상적인 개발에서는 일반적으로 하드웨어 로드 밸런싱에 액세스하기가 어렵습니다. 그러나 Nginx와 같은 소프트웨어 부하 분산은 계속 사용할 수 있습니다. Dubbo에는 로드 밸런싱 개념과 그에 따른 구현도 있습니다.
특정 서비스 제공업체의 과도한 부하를 피하기 위해 Dubbo는 서비스 소비자의 통화 요청을 할당해야 합니다. 서비스 공급자의 로드가 너무 커서 일부 요청이 시간 초과될 수 있습니다. 따라서 각 서비스 제공자에게 부하의 균형을 맞추는 것이 매우 필요합니다. Dubbo는 4가지 로드 밸런싱 구현, 즉 가중 무작위 알고리즘을 기반으로 하는 RandomLoadBalance, 최소 활성 호출 알고리즘을 기반으로 하는 LeastActiveLoadBalance, 해시 일관성을 기반으로 하는 ConciousHashLoadBalance, 가중 폴링 알고리즘을 기반으로 하는 RoundRobinLoadBalance를 제공합니다. 이러한 로드 밸런싱 알고리즘의 코드는 그리 길지 않지만 해당 원리를 이해하려면 특정 전문 지식과 이해가 필요합니다.
그림 1 해시 알고리즘이 없는 요청
위와 같이 서버 0, 1, 2가 모두 사용자 정보를 저장한다고 가정하면, 특정 사용자 정보를 얻어야 할 때, 사용자 정보가 어느 서버에 저장되어 있는지 모르면 서버 0, 1, 2에 각각 쿼리해야 합니다. 이런 방식으로 데이터를 얻는 효율성은 매우 낮습니다.
이러한 시나리오에는 해시 알고리즘을 도입할 수 있습니다.
그림 2 해시 알고리즘 도입 후 요청
위 시나리오에서는 각 서버가 동일한 해시 알고리즘을 사용하여 사용자 정보를 저장한다고 가정합니다. 따라서 사용자 정보를 얻을 때 동일한 해싱 알고리즘을 따르기만 하면 됩니다.
사용자 번호가 100인 사용자 정보를 쿼리한다고 가정해 보겠습니다. 여기서 userId mod n, 즉 100 mod 3과 같은 특정 해시 알고리즘 이후 결과는 1입니다. 따라서 사용자 번호 100의 요청은 결국 서버 번호 1에 의해 수신되고 처리됩니다.
이것은 잘못된 쿼리 문제를 해결합니다.
그런 해결책이 어떤 문제를 가져올까요?
확장하거나 축소하면 많은 양의 데이터가 마이그레이션됩니다. 최소한 50%의 데이터가 영향을 받습니다.
그림 3 서버 추가
문제를 설명하기 위해 서버를 추가합니다. 3. 서버 수 n이 3에서 4로 변경됩니다. 사용자 번호 100으로 사용자 정보를 조회하면 100을 4로 나눈 나머지가 0이 됩니다. 이때 요청은 서버 0에서 수신됩니다.
그래서 서버 수가 늘어나거나 줄어들면 반드시 대량의 데이터 마이그레이션이 수반될 것입니다.
이 해시 알고리즘의 장점은 단순성과 사용 용이성이므로 대부분의 샤딩 규칙이 이를 채택합니다. 일반적으로 파티션 수는 데이터 양에 따라 미리 추정됩니다.
이 기술의 단점은 네트워크의 노드 수가 늘어나거나 줄어들면 노드의 매핑 관계를 다시 계산해야 하므로 데이터 마이그레이션이 필요하다는 것입니다. 따라서 모든 데이터 매핑이 중단되고 전체 마이그레이션이 발생하는 것을 방지하기 위해 용량을 확장할 때 일반적으로 용량을 두 배로 늘리는 것이 사용됩니다.
** 일관된 해시 알고리즘은 1997년 MIT의 Karger와 그의 동료에 의해 제안되었습니다. 이 알고리즘은 원래 대규모 캐시 시스템의 로드 밸런싱을 위해 제안되었습니다. ** 작동 과정은 다음과 같습니다. 먼저 IP 또는 기타 정보를 기반으로 캐시 노드에 대한 해시가 생성되고 이 해시가 [0, 232 - 1]의 링에 프로젝션됩니다. 쿼리 또는 쓰기 요청이 있을 때마다 캐시 항목의 키에 대한 해시 값이 생성됩니다. 다음으로, 캐시 노드에서 주어진 값보다 크거나 같은 해시 값을 갖는 첫 번째 노드를 찾아 이 노드에 대해 캐시 쿼리나 쓰기 작업을 수행해야 합니다. 현재 노드가 만료되면 다음 캐시 쿼리 또는 쓰기 시 현재 캐시 항목보다 더 큰 해시를 가진 다른 캐시 노드를 조회할 수 있습니다. 일반적인 효과는 아래 그림과 같습니다. 각 캐시 노드는 링에서 한 위치를 차지합니다. 캐시 항목 키의 해시 값이 캐시 노드의 해시 값보다 작으면 캐시 항목이 캐시 노드에 저장되거나 읽혀집니다. 아래 녹색 표시에 해당하는 캐시 항목이 노드 캐시-2에 저장됩니다. 캐시 항목은 원래 Cache-3 노드에 저장될 예정이었으나, 이 노드의 다운타임으로 인해 결국 Cache-4 노드에 저장되었습니다.
그림 4 일관된 해시 알고리즘
일관적인 해시 알고리즘에서는 노드가 추가되거나 다운되더라도 영향을 받는 범위는 해시 링 공간에서 서버의 증가 또는 다운타임만 발생합니다. 시계 반대 방향으로 회전하면 다른 간격은 영향을 받지 않습니다.
그러나 일관된 해싱에도 문제가 있습니다.
그림 5 데이터 왜곡
노드 수가 적을 때 이러한 배포가 발생할 수 있으며 서비스 A가 대부분의 요청을 처리합니다. 이러한 상황을 데이터 왜곡이라고 합니다.
그렇다면 데이터 왜곡 문제를 어떻게 해결할 수 있을까요?
가상 노드에 참여하세요.
우선, 서버는 필요에 따라 여러 개의 가상 노드를 가질 수 있습니다. 서버에 n개의 가상 노드가 있다고 가정합니다. 해시 계산에서는 IP 주소, 포트 번호, 번호의 조합을 사용하여 해시 값을 계산할 수 있습니다. 숫자는 0부터 n까지의 숫자입니다. 이 n개의 노드는 동일한 IP 주소와 포트 번호를 공유하기 때문에 모두 동일한 시스템을 가리킵니다.
그림 6 가상 노드 소개
가상 노드를 추가하기 전에 서버 A는 대부분의 요청을 처리했습니다. 각 서버에 가상 노드(A-1, B-1, C-1)가 있고, 해시 계산을 통해 위 그림과 같은 위치에 할당된 경우입니다. 그러면 서버 A가 수행한 요청은 B-1 및 C-1 가상 노드에 일정량(그림에서 다섯개 별표로 표시된 부분)에 할당되고, 실제로는 B 및 C 서버에 할당됩니다.
일관된 해싱 알고리즘에서는 가상 노드를 추가하면 데이터 왜곡 문제를 해결할 수 있습니다.
그림 7 Dubbo의 일관된 해싱 링
여기에서 동일한 색상의 노드는 모두 Invoker1-1, Invoker1-2,… 호출자1-160. 가상 노드를 추가하면 해시 링 위에 호출자를 분산시켜 데이터 왜곡 문제를 피할 수 있습니다. 소위 데이터 왜곡은 노드가 충분히 분산되지 않아 동일한 노드에 많은 요청이 떨어지는 상황을 말하며, 다른 노드는 적은 수의 요청만 수신합니다. 예:
그림 8 데이터 왜곡 문제
위와 같이 링에서 Invoker-1과 Invoker-2의 고르지 않은 분포로 인해 시스템 요청의 75%가 Invoker-1에 속하게 됩니다. 25%만 요청이 Invoker-2에 해당됩니다. 이 문제를 해결하기 위해 가상 노드를 도입하여 각 노드의 요청량 균형을 맞출 수 있습니다.
이제 배경 지식이 대중화되었으니 소스 코드 분석을 시작하겠습니다. 다음과 같이 ConsistentHashLoadBalance의 doSelect 메소드부터 시작하겠습니다.
public class ConsistentHashLoadBalance extends AbstractLoadBalance {private final ConcurrentMap> selectors = new ConcurrentHashMap >();@Overrideprotected Invoker doSelect(List > invokers, URL url, Invocation invocation) {String methodName = RpcUtils.getMethodName(invocation);String key = invokers.get(0).getUrl().getServiceKey() + "." + methodName;// 获取 invokers 原始的 hashcodeint identityHashCode = System.identityHashCode(invokers);ConsistentHashSelector selector = (ConsistentHashSelector ) selectors.get(key);// 如果 invokers 是一个新的 List 对象,意味着服务提供者数量发生了变化,可能新增也可能减少了。// 此时 selector.identityHashCode != identityHashCode 条件成立if (selector == null || selector.identityHashCode != identityHashCode) {// 创建新的 ConsistentHashSelectorselectors.put(key, new ConsistentHashSelector (invokers, methodName, identityHashCode));selector = (ConsistentHashSelector ) selectors.get(key);}// 调用 ConsistentHashSelector 的 select 方法选择 Invokerreturn selector.select(invocation);}private static final class ConsistentHashSelector {...}}
위와 같이 doSelect 메소드는 주로 호출자 목록이 변경되었는지 감지하고 ConsistencyHashSelector를 생성하는 등의 몇 가지 준비 작업을 수행합니다. 이러한 작업이 완료된 후에는 ConsistencyHashSelector의 select 메서드가 호출되어 로드 밸런싱 논리를 실행합니다. select 메소드를 분석하기 전에 먼저 일관성 있는 해시 선택기인 ConciousHashSelector의 초기화 과정을 다음과 같이 살펴보겠습니다.
private static final class ConsistentHashSelector{// 使用 TreeMap 存储 Invoker 虚拟节点private final TreeMap > virtualInvokers;private final int replicaNumber;private final int identityHashCode;private final int[] argumentIndex;ConsistentHashSelector(List > invokers, String methodName, int identityHashCode) {this.virtualInvokers = new TreeMap >();this.identityHashCode = identityHashCode;URL url = invokers.get(0).getUrl();// 获取虚拟节点数,默认为160this.replicaNumber = url.getMethodParameter(methodName, "hash.nodes", 160);// 获取参与 hash 计算的参数下标值,默认对第一个参数进行 hash 运算String[] index = Constants.COMMA_SPLIT_PATTERN.split(url.getMethodParameter(methodName, "hash.arguments", "0"));argumentIndex = new int[index.length];for (int i = 0; i < index.length; i++) {argumentIndex[i] = Integer.parseInt(index[i]);}for (Invoker invoker : invokers) {String address = invoker.getUrl().getAddress();for (int i = 0; i < replicaNumber / 4; i++) {// 对 address + i 进行 md5 运算,得到一个长度为16的字节数组byte[] digest = md5(address + i);// 对 digest 部分字节进行4次 hash 运算,得到四个不同的 long 型正整数for (int h = 0; h < 4; h++) {// h = 0 时,取 digest 中下标为 0 ~ 3 的4个字节进行位运算// h = 1 时,取 digest 中下标为 4 ~ 7 的4个字节进行位运算// h = 2, h = 3 时过程同上long m = hash(digest, h);// 将 hash 到 invoker 的映射关系存储到 virtualInvokers 中,// virtualInvokers 需要提供高效的查询操作,因此选用 TreeMap 作为存储结构virtualInvokers.put(m, invoker);}}}}}
ConsistentHashSelector 的构造方法执行了一系列的初始化逻辑,比如从配置中获取虚拟节点数以及参与 hash 计算的参数下标,默认情况下只使用第一个参数进行 hash。需要特别说明的是,ConsistentHashLoadBalance 的负载均衡逻辑只受参数值影响,具有相同参数值的请求将会被分配给同一个服务提供者。注意到 ConsistentHashLoadBalance 无需考虑权重的影响。
在获取虚拟节点数和参数下标配置后,接下来要做的事情是计算虚拟节点 hash 值,并将虚拟节点存储到 TreeMap 中。ConsistentHashSelector的初始化工作在此完成。接下来,我们来看看 select 方法的逻辑。
public Invokerselect(Invocation invocation) {// 将参数转为 keyString key = toKey(invocation.getArguments());// 对参数 key 进行 md5 运算byte[] digest = md5(key);// 取 digest 数组的前四个字节进行 hash 运算,再将 hash 值传给 selectForKey 方法,// 寻找合适的 Invokerreturn selectForKey(hash(digest, 0));}private Invoker selectForKey(long hash) {// 到 TreeMap 中查找第一个节点值大于或等于当前 hash 的 InvokerMap.Entry > entry = virtualInvokers.tailMap(hash, true).firstEntry();// 如果 hash 大于 Invoker 在圆环上最大的位置,此时 entry = null,// 需要将 TreeMap 的头节点赋值给 entryif (entry == null) {entry = virtualInvokers.firstEntry();}// 返回 Invokerreturn entry.getValue();}
如上,选择的过程相对比较简单了。首先,需要对参数进行 md5 和 hash 运算,以生成一个哈希值。接着使用这个值去 TreeMap 中查找需要的 Invoker。
到此关于 ConsistentHashLoadBalance 就分析完了。
在阅读 ConsistentHashLoadBalance 源码之前,建议读者先补充背景知识,不然看懂代码逻辑会有很大难度。
作者:京东物流 乔杰
来源:京东云开发者社区
위 내용은 Dubbo 로드 밸런싱 전략 일관된 해싱의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!