本篇文章主要是通过阅读了其他人的文章,后续进行了东拼西凑成自己可以理解的样子。但某些细节方面可以再进行深入研究和学习。

参考:

https://www.cnblogs.com/lsgxeva/p/11124762.html

https://xixiliguo.github.io/post/multi-queue/

https://blog.csdn.net/yue530tomtom/article/details/76095739

1 技术背景

        单CPU处理网络IO存在瓶颈, 目前经常使用网卡多队列提高性能.通常情况下, 每张网卡有一个队列(queue), 所有收到的包从这个队列入, 内核从这个队列里取数据处理. 该队列其实是ring buffer(环形队列), 内核如果取数据不及时, 则会存在丢包的情况.
        一个CPU处理一个队列的数据, 这个叫中断. 默认是cpu0(第一个CPU)处理. 一旦流量特别大, 这个CPU负载很高, 性能存在瓶颈. 所以网卡开发了多队列功能, 即一个网卡有多个队列, 收到的包根据TCP四元组信息hash后放入其中一个队列, 后面该链接的所有包都放入该队列. 每个队列对应不同的中断, 使用irqbalance将不同的中断绑定到不同的核. 充分利用了多核并行处理特性. 提高了效率。引用一张图来描述单网卡单队列与多网卡多队列之间cpu处理的差异。

        通过这种设置单网卡多队列的方式,将不同队列绑定到不同cpu,从而实现cpu利用率的负载分担。实现该技术的前提是网卡必须支持RSS(Receive Side Scaling)。RSS是网卡的硬件特性,实现了多队列,可以将不同的流分发到不同的CPU上。

        X86系统采用中断机制协同处理CPU与其他设备工作。长久以来网卡的中断默认由cpu0处理,在大量小包的网络环境下可能出现cpu0负载高,而其他cpu空闲。后来出现网卡多队列技术解决这个问题。

2 中断、队列、CPU之间关系

2.1 配置网卡多队列

(1)判断当前系统环境是否支持多队列网卡,执行命令:

  • lspci -vvv

        如果在Ethernet项中。含有MSI-X: Enable+ Count=9 Masked-语句,则说明当前系统环境是支持多队列网卡的,否则不支持。

(2)ethtool -l eth0命令可以看到eth0网卡是否支持多队列,最多支持多少、当前开启多少

(3)设置网卡当前使用多队列。运行命令:ethtool -L eth0 combined <N> N为要使能的队列数

(4)要确保多队列确实生效,可以查看文件:

# ls /sys/class/net/eth0/queues/

rx-0 rx-2 rx-4 rx-6 tx-0 tx-2 tx-4 tx-6
rx-1 rx-3 rx-5 rx-7 tx-1 tx-3 tx-5 tx-7

        如上,如果rx数量是设定值,则正确。

2.2 中断、队列与CPU之间关系

        查看中断与对应CPU之间关系:

        如图所示,第一列是中断号, 中间部分是对应CPU处理该中断的次数,最后一列em*-rx*-*表示网卡队列的中断。该命令可以看出来cpu对应的中断数。

        也可以用mpstat -P ALL 1 1命令查看cpu的使用情况:

        查询具体中断所绑定的CPU信息:
        smp_affinity_list显示CPU序号. 比如 0 代表 CPU0, 2代表 CPU2 smp_affinity 是十六进制显示. 比如 2 为10, 代表 CPU1 (第二个CPU)

一个脚本查看中断号对应绑定的cpu:
#!/bin/bash
for ((i=31;i<=40;i+=1))
do
    cpu=$(cat /proc/irq/$i/smp_affinity_list)
    echo "Interrput $i belongs to cpu $cpu"
done

结果:
Interrput 31 belongs to cpu 6
Interrput 32 belongs to cpu 7
Interrput 33 belongs to cpu 1
Interrput 34 belongs to cpu 1
Interrput 35 belongs to cpu 2
Interrput 36 belongs to cpu 3
Interrput 37 belongs to cpu 6
Interrput 38 belongs to cpu 5
Interrput 39 belongs to cpu 5
Interrput 40 belongs to cpu 7

        需要说明的一点是:

  • /proc/irq/{IRQ_ID}/smp_affinity,中断IRQ_ID的CPU亲和配置文件,16进制
  • /proc/irq/{IRQ ID}/smp_affinity_list,10进制,与smp_affinity相通,修改一个相应改变。 

        上面的IRQ_ID表示队列id号。

        一般我们是直接配置队列的smp_affinity,使用16进制数字,然后再将16进制转换成2进制,最后再与cpu No.序列的“与”运算结果就是将affinity设置在那个(那些)CPU了。(也即smp_affinity中被设置为1的位为CPU No.) 

 举例说明:

         如:8个逻辑core,那么CPU#的序列为11111111 (从右到左依次为CPU0~CPU7) 
如果cat /proc/irq/76/smp_affinity的值为:20(20是16进制对应的二进制为:00100000与11111111求与),则76这个IRQ的亲和性为#5号CPU。 
        每个IRQ的默认的smp affinity在这里:cat /proc/irq/default_smp_affinity 。

3 RPS、XPS、RFS

        之前谈的多网卡队列需要硬件实现, RPS则是软件实现,将包让指定的CPU去处理中断。配置文件为/sys/class/net/eth*/queues/rx*/rps_cpus。 默认为0, 表示不启动RPS。如果要让该队列被CPU0,1处理, 则设置 echo “3” > /sys/class/net/eth*/queues/rx*/rps_cpus, 3代表十六进制表示11, 即指CPU0和CPU1
        在开启多网卡队列RSS时, 已经起到了均衡的作用. RPS则可以在队列数小于CPU数时, 进一步提升性能。为了进一步利用所有CPU. RFS则进一步扩展RPS的能力, 它会分析并将包发往最合适的CPU(程序运行所在的CPU). 检查当前RPS, RFS开启情况:

运行脚本:
#!/bin/bash
for i in $(ls -1 /sys/class/net/em*/queues/rx*/rps_*); do echo -n "${i}:  "  ; cat ${i}; done

运行结果:
/sys/class/net/em1/queues/rx-0/rps_cpus:  00
/sys/class/net/em1/queues/rx-0/rps_flow_cnt:  0
/sys/class/net/em1/queues/rx-1/rps_cpus:  00
/sys/class/net/em1/queues/rx-1/rps_flow_cnt:  0
/sys/class/net/em1/queues/rx-2/rps_cpus:  00
/sys/class/net/em1/queues/rx-2/rps_flow_cnt:  0
/sys/class/net/em1/queues/rx-3/rps_cpus:  00
/sys/class/net/em1/queues/rx-3/rps_flow_cnt:  0
/sys/class/net/em2/queues/rx-0/rps_cpus:  00
/sys/class/net/em2/queues/rx-0/rps_flow_cnt:  0
/sys/class/net/em2/queues/rx-1/rps_cpus:  00
/sys/class/net/em2/queues/rx-1/rps_flow_cnt:  0
/sys/class/net/em2/queues/rx-2/rps_cpus:  00
/sys/class/net/em2/queues/rx-2/rps_flow_cnt:  0
/sys/class/net/em2/queues/rx-3/rps_cpus:  00
/sys/class/net/em2/queues/rx-3/rps_flow_cnt:  0

         通过上面可以看出来,rps软件层面上是将所有队列发送给cpu0进行处理,而之前是硬件多队列上是将不同队列交给不同的cpu处理。

        XPS是将发送包指定到CPU, 通常和同一队列的rps和xps配置一致.

脚本:
#!/bin/bash
for i in $(ls -1 /sys/class/net/em*/queues/tx*/xps_cpus); do echo -n "${i}:  "  ; cat ${i}; done

结果:
/sys/class/net/em1/queues/tx-0/xps_cpus:  00
/sys/class/net/em2/queues/tx-0/xps_cpus:  00

从上面可以看出来,网卡队列都将发送包指定到cpu0;

根据top输出查看软中断负载:

        top进入交互式界面后, 按1 显示所有cpu的负载. si 是软中断的CPU使用率. 如果高比如50%, 说明该CPU忙于处理中断, 通常就是收发网络IO:

GitHub 加速计划 / li / linux-dash
10.39 K
1.2 K
下载
A beautiful web dashboard for Linux
最近提交(Master分支:2 个月前 )
186a802e added ecosystem file for PM2 4 年前
5def40a3 Add host customization support for the NodeJS version 4 年前
Logo

旨在为数千万中国开发者提供一个无缝且高效的云端环境,以支持学习、使用和贡献开源项目。

更多推荐