Maison > Problème commun > Optimisation des performances de très bas niveau : laissez le CPU exécuter votre code plus rapidement

Optimisation des performances de très bas niveau : laissez le CPU exécuter votre code plus rapidement

Libérer: 2023-07-31 15:44:43
avant
960 Les gens l'ont consulté

L'impact du cache sur les performances

Nous devons d'abord savoir, Lorsque le processeur accède à la mémoire, il n'accède pas directement à la mémoire, mais accède d'abord au cache (cache). CPU访问内存时,不是直接去访问内存的,而是先访问缓存(cache)。

当缓存中已经有了我们要的数据时,CPU就会直接从缓存中读数据,而不是从内存中读。

CPU和缓存的关系如下:

Optimisation des performances de très bas niveau : laissez le CPU exécuter votre code plus rapidement

缓存分为一级、二级、三级,最靠近CPU的是一级缓存,最远的是内存,离CPU越近速度越快。

访问速度上,L1>L2>L3>内存,缓存比内存速度要快得非常多

如果CPU操作的数据在缓存中,则直接从缓存中读取,这个过程就叫缓存命中

因此提升性能的关键,就是要提高缓存命中率。下面来看如何提高缓存命中率。

提高数据缓存命中率

来看一个实例,有一个N*N

Lorsque les données souhaitées sont déjà dans le cache, CPU lira les données directement depuis le cache au lieu de lire depuis la mémoire.

CPU et cache La relation est la suivante : 🎜
Optimisation des performances de très bas niveau : laissez le CPU exécuter votre code plus rapidement
🎜Le cache est divisé en niveaux un et niveau deux Niveau 1 et niveau 3, celui le plus proche du CPU est le cache de niveau 1, et le plus éloigné est la mémoire. Plus il est proche du CPU, plus il est rapide. 🎜🎜En termes de vitesse d'accès, L1>L2>L3>mémoire, le cache est beaucoup plus rapide que la mémoire. 🎜🎜Si les données exploitées par le CPU se trouvent dans le cache, elles sont lues directement à partir du cache. Ce processus est appelé accès au cache. 🎜🎜La clé pour améliorer les performances est donc d'augmenter le taux de réussite du cache. Voyons comment améliorer le taux de réussite du cache. 🎜🎜🎜🎜🎜Améliorer le taux de réussite du cache de données🎜🎜 🎜🎜🎜Regardons un exemple, il y a un N*N tableau bidimensionnel, par exemple : 🎜
int array[N][N];
Copier après la connexion
🎜Utilisez maintenant deux boucles for pour parcourir ce tableau et accéder au contenu de chaque élément : 🎜
for(i = 0; i < N; i+=1) 
{ 
 for(j = 0; j < N; j+=1) 
 { 
  array[i][j] = 0;//速度快
        //array[j][i] = 0;//速度慢
 } 
}
Copier après la connexion

有两种访问方式:array[i][j]array[j][i]

在性能上,array[i][j]会比array[j][i]执行地更快,并且速度相差8倍。

1、速度更快的原因

首先数组在内存上是连续的,假设N等于2,则array[2][2]在内存中的排布是:

array[0][0]、array[0][1]、array[1][0]、array[1][1]、
Copier après la connexion

array[i][j]方式访问,即按内存中的顺序访问,当访问array[0][0]时,CPU就已经把数组的剩余三个数据(array[0][1]array[1][0]array[1][1])加载到了缓存当中。

当继续访问后三个元素时,CPU会直接从缓存中读取数据,而不需要从内存中读取(cache命中)。因此速度会很快。

如果以array[j][i]方式访问数组,则访问顺序为:

array[0][0]、array[1][0]、array[0][1]、array[1][1]
Copier après la connexion

此时访问顺序是跳跃的,并不是按数组在内存中的的排布顺序来访问。如果N很大的话,那么执行array[j][i]时,array[j+1][i]的内容是没法读进缓存里的,等到要访问array[j+1][i]时就只能从内存中读取

所以array[j][i]的速度会慢于array[i][j]

2、速度相差8倍的原因

刚刚提到,如果这个二维数组的N很大,array[j+1][i]的内容是没法读到缓存里的,那CPU一次能够将多少数据加载进缓存里呢?

这个其实跟cache line有关,cache line代表缓存一次载入数据的大小。可以通过以下命令查看cache line为多大:

cat /sys/devices/system/cpu/cpu0/cache/index0/coherency_line_size
Copier après la connexion
Optimisation des performances de très bas niveau : laissez le CPU exécuter votre code plus rapidement

cache line64,代表CPU缓存一次数据的大小为64字节。

Lors de la visite de array[0][0]</code >, le nombre d'octets occupés par l'élément est inférieur à <code style="font-size: 14px;padding: 2px 4px;border-radius: 4px;margin-right: 2px;margin-left: 2px;background-color : rgba(27, 31, 35, 0.05);famille de polices : "Operator Mono", Consolas, Monaco, Menlo, monospace;saut de mot : break-all;couleur : rgb(239, 112, 96);"> 64 octets, CPU Suivant les éléments seront complétés dans l'ordre, et les éléments suivants array[0 ][1], array [1] [0]Lisez ensemble le contenu dans le cache jusqu'à ce que suffisamment64 octets. array[0][0]时,该元素所占用的字节数不到64字节,CPU就会按顺序补足后续元素,就会把后面的array[0][1]array[1][0]等内容一起读到缓存里,直到凑够64字节。

正因如此,按顺序访问的array[i][j]才会比不按顺序访问的array[j][i]

Pour cette raison, le array[i ][j ] sera meilleur que ceux consultés dans le désordrearray[j][i] est rapide. 🎜

Voyons pourquoi la vitesse est différente 8。我们知道,二维数组中,第一维元素放的是地址,第二维元素才是数据。64位系统中,地址占用8个字节,cache line64的话,地址已经占用了8字节,那每个cache line最多能载入不到8个二维数组元素,N很大的情况下,他们的性能平均下来就会相差将近8 fois.

Conclusion : l'accès dans l'ordre de disposition de la mémoire peut améliorer le taux de réussite du cache de données.

Améliorer le taux de réussite du cache d'instructions

Ce dont nous avons parlé plus tôt était le cache de données, voyons maintenant comment améliorer le taux de réussite du cache d'instructions.

有一个数组array,数组元素内容为0-255之间的随机数:

int array[N];
for (i = 0; i < TESTN; i++) 
 array[i] = rand() % 256;
Copier après la connexion

现在,要把数组中数字小于128的元素置为0,并且对数组排序。

大家应该都能想到,有两种方法:

  • 先遍历数组,把小于128的元素置为0,然后排序
  • 先对数组排序再遍历数组,把小于128的元素置为0。
for(i = 0; i < N; i++) {
 if (array [i] < 128) 
  array[i] = 0;
}
sort(array, array +N);
Copier après la connexion

先排序后遍历的速度会比较快,为什么?

因为在for循环中会执行很多次if分支判断语句,而CPU拥有分支预测器。

如果分支预测器可以预测接下来要执行的分支(执行if还是执行else),那么就可以提前把这些指令放到缓存中,CPU执行的时候就会很快了。

如果一个数组的内容完全随机的话,那么分支预测器就很难进行正确的预测。但如果数组内容是有序的,它就会根据历史命中数据的情况对未来进行预测,那命中率就会很高,所以先排序后遍历的速度会比较快。

怎么验证指令缓存命中率的情况呢?

Linux下,可以使用Perf性能分析工具进行验证。通过-e选项,指定branch-loadsbranche-chargements-manqués事件,可以分别统计出分支预测成功的次数分支预测失败的次数,通过 L1-icache-load-misses Oui,perf工具能否统计这些事件取决于CPU Linux下,可以使用Perf性能分析工具进行验证。通过-e选项,指定branch-loadsbranch-loads-misses事件,可以分别统计出分支预测成功的次数分支预测失败的次数,通过L1-icache-load-misses事件也能统计一级缓存中指令未命中的次数。但是,这些性能事件都属于硬件事件,perf工具能否统计这些事件取决于CPU是否支持以及芯片原厂是否去实现了该接口,我看很多都是不支持或者没实现的。

另外,在Linux内核中,可以看到大量的likelyunlikely宏,并且它们都出现if语句中,这两个宏的作用就是为了提高性能

这是显示预测概率的宏,如果你觉得CPU的分支预测不准,但if中条件为"真"的概率很高,那么你就可以使用likely()

另外,在Linux内核中,可以看到大量的probablepeu probable宏,并且它们都出现if语句中,这两个宏的作用就是为了提高性能。🎜🎜这是显示预测概率的宏,如果你Processus de gestion du processeur ,但if中条件为"真" likely() 括起来,以此提升性能。🎜
#define likely(x) __builtin_expect(!!(x), 1)
#define unlikely(x) __builtin_expect(!!(x), 0)
if (likely(a == 1)) …
Copier après la connexion

提高多核CPU下的缓存命中率

首先要清楚,一级缓存、二级缓存是每颗核心独享的,三级缓存则面向所有核心。

但多核CPU下的系统有个特点,存在CPU核心迁移问题

Par exemple, le processus A在时间片内使用CPU核心1,自然填满了CPU核心1的一、二级缓存,但基于调度策略,时间片结束后,CPU核心1会被让出,防止某些进程饿死。如果此时CPU核心1很忙,那么进程A很可能就会被调度到CPU核心2上运行。这样的话,无论我们怎么优化代码,也只能在一个时间片内高效地使用CPUle cache de premier et deuxième niveaux sera confronté à des problèmes d'efficacité du cache dans la prochaine tranche de temps.

Dans ce cas, vous pouvez envisager de lier le processus au CPU pour qu'il s'exécute.

perf fournit également ce type de performances. Les statistiques des événements sont appelées migrations de processeur , C'estLe nombre de migrations de CPU perf工具也提供了这类性能事件的统计,叫cpu-migrations,即CPU迁移次数。CPU迁移次数多的话,缓存效率就会低。

将进程绑定CPU运行,性能也会得到提升。

总结

这些是CPU. Si le nombre de migrations de processeur est important, l'efficacité du cache sera faible.

Liez le processus au processeur à exécuter et les performances seront également améliorées.

Résumé

Ce sont L'impact du cache CPU sur les performances, c'est déjà un niveau très bas optimisation des performances, quel que soit le langage de programmation valide.
  • Comprenez vraiment la mise en cache, je pense que votre compréhension de la couche sous-jacente sera d'une grande aide.
  • Améliorer le taux de réussite du cache de données
     : exploiter séquentiellement les données de mémoire continue
  • Améliorer le taux de réussite du cache d'instructions
     : branchement conditionnel régulier
Améliorer le taux de réussite du cache du processeur multicœur
 : envisager de lier le processus au CPU pour exécuter

🎜🎜🎜🎜

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:嵌入式Linux充电站
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal