加载中...
文章
238
标签
328
分类
32
首页
时间轴
标签
分类
关于
Smarter's blog
搜索
首页
时间轴
标签
分类
关于
AI Infra
分类 - AI Infra
2026
2026-04-05
GPU系统拆解-13-多 GPU 与通信:并行策略、拓扑与扩展代价
2026-04-05
GPU系统拆解-12-LLM 推理的 GPU 主线:Prefill、Decode、KV Cache 与系统约束
2026-04-05
GPU系统拆解-11-高频 Kernel 设计:从自然并行到资源权衡
2026-04-05
GPU系统拆解-10-面试表达与系统思维:怎么把 GPU 理解讲成工程判断
2026-04-05
GPU系统拆解-09-Profiling 与性能定位:先找到瓶颈,再谈优化
2026-04-05
GPU系统拆解-08-Tensor Core、GEMM 与 FlashAttention:AI 计算热点为什么这样组织
2026-04-05
GPU系统拆解-07-PTX、SASS 与编译链:一段 CUDA 代码如何变成指令
2026-04-05
GPU系统拆解-06-内存层次与访存主线:GPU 性能为什么常常卡在数据
2026-04-05
GPU系统拆解-05-CUDA 执行映射:抽象模型如何落到真实硬件
2026-04-05
GPU系统拆解-04-数据中心架构:为什么大厂更偏好 Hopper、Blackwell 与 MI300
1
…
5
6
7
…
13
Smarter
我就是要爬这座山
再见少年拉满弓,不惧岁月不惧风
文章
238
标签
328
分类
32
Follow Me
公告
路虽远,行则将至;事虽难,做则可成。
不积跬步,无以至千里;不积小流,无以成江海。
漫漫长途,终有回转;余味苦涩,终有回甘。
天下大事,必作于细;天下难事,必作于易。
不经一番寒彻骨,怎得梅花扑鼻香。
最新文章
mini-infer系统实战-00-导读:从最小推理链路到 MoE Expert Parallel 的项目路线
2026-04-08
mini-infer系统实战-01-最小推理链路:为什么要从 HuggingFace generate() 走向自己的引擎
2026-04-08
mini-infer系统实战-02-Paged KV Cache 与 Batch Decode:从串行推理到 mini-vLLM
2026-04-08
分类
AI Agent
1
AI Infra
121
CUDA
19
GPU
15
LLM Serving
3
Mini Infer
25
Pytorch
11
Transformer
12
标签
vLLM
LLM
PagedAttention
KV Cache
AI系统
AI Infrastructure
内存管理
大模型推理
Transformer
推理优化
模型部署
Ubuntu Server
RTX 4090
SSH
VSCode Remote
LLM Serving
分布式推理
量化
MoE
CUDA
GPU编程
并行计算
系列导读
学习路线
性能优化
高性能计算
Shared Memory
Tiling
Memory Bound
Roofline
GEMM
Kaggle
GPU
Register Tiling
外积
Thread Coarsening
cuBLAS
Softmax
LayerNorm
RMSNorm
归档
四月 2026
96
三月 2026
45
二月 2026
15
一月 2026
38
十二月 2025
7
十一月 2025
1
十月 2025
23
九月 2025
2
网站信息
文章数目 :
238
运行时间 :
本站总字数 :
801.5k
本站访客数 :
本站总浏览量 :
最后更新时间 :
搜索
数据加载中