AI Fundamentals
完整的人工智能基础设施知识体系
覆盖从 GPU 硬件架构、CUDA 并行编程,到大模型训练、推理优化、RAG、 Agent 系统的全链路技术栈,来自一线工程师的实践总结。
知识模块
系统化 AI 技术体系,从芯片底层到智能应用,深入每个技术层次
深入理解 AI 训练与推理的硬件基础,GPU/TPU 内部架构、片内互联、PCIe 拓扑与 GPUDirect。
从 CUDA 基础到高性能 Kernel 编写,掌握 GPU 并行计算、TileLang/Triton 以及性能调优实战。
大规模 AI 集群的构建、高速网络配置与运维管理,保障分布式训练任务的稳定高效运行。
基于 Kubernetes 的企业级 AI 基础设施,GPU 虚拟化、弹性调度、HAMi/KAI 资源管理实践。
大模型全流程训练、SFT 指令微调、LoRA/QLoRA 方法与 AI Ops 工程最佳实践总结。
大语言模型核心理论:模型量化、MoE 稀疏架构、Embedding 原理与 Deep Research 方法论。
检索增强生成(RAG)系统全链路设计,知识图谱与 LLM 协同、GraphRAG 与文档解析工具。
AI Agent 设计模式、多智能体协作架构、MCP 协议解析与 Agent 长期记忆机制实现。
高性能 LLM 推理工程:vLLM 源码深度解析、KV Cache 压缩优化与 DeepSeek 推理实践。
系统化学习路径:AI Infra 入门课程、AI 编程实战、多智能体系统训练营与 Trae 编程实战。
大模型应用开发实战:LangGraph 框架深度应用、Java Spring AI 集成与 Harness Engineering。
前沿工具上手实践:Mac 本地部署 DeepSeek R1、Ollama 配置指南与开源模型基准测试。