目录

课程回顾与背景引入

性能瓶颈分析与内存墙

1. 传输开销与计算时间对比

2. 内存墙概念引入

Roofline 模型:量化性能瓶颈

1. Roofline 模型基本概念

2. 模型分区解释

3. 向量加法案例分析

性能分析工具:Nsight Compute(NCU)

1. NCU 简介与使用

2. 关键分析界面

向量化技术:提升访存效率

1. 什么是向量化?

2. CUDA 中的向量化访存类型

3. 向量化实现与性能对比

半精度计算

1. 半精度浮点数简介

2. 半精度性能优势

3. 向量化计算与访存结合

课后思考题

总结与思考


本节课涵盖并行编程基础、Roofline 模型等内容,并涉及向量化实现与性能对比等知识。

课程回顾与背景引入

  • • 什么是并行编程?为什么需要并行?

  • • CPU 与 GPU 的架构差异

  • • 向量加法的 GPU 实现与编译

  • • 性能初步分析工具

  • • CPU 与 GPU 性能对比

图片

性能瓶颈分析与内存墙

1. 传输开销与计算时间对比
  • • CPU-GPU 数据传输时间 vs  GPU 内核计算时间

  • • 通信带宽成为性能瓶颈

2. 内存墙概念引入
  • • 摩尔定律与内存增长速度对比

  • • 冯·诺依曼架构的限制

  • • 计算速度远快于内存访问速度

图片

Roofline 模型:量化性能瓶颈

1. Roofline 模型基本概念
  • • 纵轴:性能(GFLOPS)

  • • 横轴:计算强度(FLOPS/byte)

  • • 关键参数:

    • • π(峰值算力)

    • • β(峰值内存带宽)

    • • Imax(计算强度拐点)

图片

2. 模型分区解释

图片

3. 向量加法案例分析

图片

性能分析工具:Nsight Compute(NCU)

1. NCU 简介与使用
  • • 内核级性能分析工具

  • • 命令行与 GUI 版本使用方式

  • • 输出文件分析

2. 关键分析界面
  • • Summary Page(核函数汇总)

  • • Details Page(吞吐量与 Roofline 图)

  • • 内存与计算利用率分析

图片

向量化技术:提升访存效率

1. 什么是向量化?
  • • 标量操作 vs 向量操作

  • • SIMD(单指令多数据) vs  SIMT(单指令多线程)

2. CUDA 中的向量化访存类型

图片

3. 向量化实现与性能对比
  • • 不同向量化程度的性能测试

  • • 寄存器使用与溢出问题

  • • 数据规模对向量化效果的影响

半精度计算

1. 半精度浮点数简介
  • • 结构对比(FP16 vs FP32)

  • • CUDA 中的 half 类型与转换函数

图片

2. 半精度性能优势
  • • 内存占用减半

  • • 计算强度提升

  • • 向量化支持(half2)

3. 向量化计算与访存结合

图片

课后思考题

1.可以有效使用 float3 吗?如果可以,怎么做?
2.之前提到向量化访存有多种方法,今天主要介绍了使用内置类型的方式,想想还有什么其他方式吗?(Hint: 今天的课中其实已经提到了,同时也和第一问有关)


1.使用 float3 的方法

float3 是常见的向量类型(如 HLSL/CG 或 CUDA 中的三维浮点向量),但需注意其内存布局和对齐问题。直接使用可能导致性能下降,因其默认对齐方式可能与硬件要求不符。

在 CUDA 中,可通过 __attribute__((aligned(16))) 强制对齐到 16 字节,或使用内置类型如 float4 替代。若必须使用 float3,建议手动填充为 float4 以确保内存合并访问。

示例代码(CUDA):

struct alignas(16) Float3 { float x, y, z, w; }; // 手动填充为 16 字节
__global__ void kernel(Float3* data) {
    // 通过 data[i].x/y/z 访问
}

2.其他向量化访存方式

除内置类型(如 float4),还可通过以下方式实现高效访存:

结构体填充(Struct Padding)
自定义结构体时显式填充字段,确保数据对齐。例如将 float3 扩展为 16 字节:

struct PaddedFloat3 { float x, y, z, unused; };

数组展开(Array-of-Structures 转 Structure-of-Arrays)
将数据结构从 AoS(Array of Structures)转换为 SoA(Structure of Arrays),避免非连续访存。例如:

// AoS 低效方式
struct Vec3 { float x, y, z; };
Vec3 points[N];

// SoA 高效方式
struct Vec3SoA { float x[N], y[N], z[N]; };

共享内存优化
在核函数中先将全局内存数据加载到共享内存(对齐访问),再进行计算。适用于重复访问同一数据块的场景。

编译器指令
使用 #pragma unroll__restrict__ 关键字提示编译器优化内存访问模式。

总结

  1. float3 的有效使用:可直接作为内置向量类型定义 / 运算,核心是利用其 16 字节对齐的内存布局实现向量化访存,避免拆分分量破坏访存效率;
  2. 其他向量化访存方式:核心包括 “显式对齐数组 + 手动批量访存”“自定义对齐向量结构体”“纹理内存绑定”,均与 float3 的内存对齐 / 批量访存逻辑一致。

总结与思考

本节课我们对优化路径进行了系统性学习,向量化访存 → 半精度 → 向量化计算,性能提升幅度对比等知识。后续课程我们将进一步对于优化方法,算子融合、内存层级优化等知识进行学习,同时将会迎来新的挑战!

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐