LLM 理论与基础
本目录集中了大语言模型(LLM)相关的底层理论基础、核心技术概念,同时也涵盖了前沿的深度研究(Deep Research)应用和多智能体工作流(Workflow)编排的实践指南。
1. 内容概览
本章节详细列出了各个子目录下的核心技术机制与架构原理。
1.1 LLM 基础概念
深入剖析大语言模型底层的核心技术机制与架构原理,详细内容请参考 LLM 基础概念目录。
- 思维链 (CoT): 提升模型复杂推理能力的核心机制
- 嵌入技术 (Embedding): 文本向量化表示的演进、原理与图解指南
- 混合专家模型 (MoE): 稀疏激活模型架构的视觉化解析
- 模型量化 (Quantization): 降低模型显存占用与推理成本的关键技术
- Token 机制: 模型的文本切分原理与计算估算工具
- 模型幻觉 (Hallucination): 幻觉现象的成因分析与应对策略
- 文件格式 (File Formats): GGUF, GGML, Safetensors 等主流模型存储格式详解
- 意图检测 (Intent Detection): 基于 LLM 的意图识别系统设计
1.2 深度研究
聚焦于利用 Agent 技术实现自动化科研与深度信息挖掘,详细内容请参考 深度研究目录。
- 研究智能体分析: 涵盖 Cursor DeepSearch、通义 DeepResearch、Databricks Data Agent 等前沿产品与《Building Research Agents for Tech Insights》的技术解读
- DeepWiki 项目: DeepWiki 技术原理与使用方法
- 智能体设计: 针对科研助手与订单履约场景的完整 Agent 架构设计与需求分析
1.3 工作流编排与应用平台
探讨如何将大模型能力转化为实际业务应用与自动化流程,详细内容请参考 工作流编排与应用平台目录。
- 开源平台对比: Dify、AnythingLLM、Ragflow 与 n8n 的功能与商用许可全面分析
- 多智能体实践: 基于 n8n 构建多智能体系统的实战指南
- 平台部署: Coze (扣子) 平台的部署、配置与插件集成手册
2. 学习路径建议
为了更好地掌握大语言模型的相关知识,我们为您提供以下学习路径建议。
- 筑基: 从
llm_basic_concepts目录开始,重点理解 Token、Embedding 和 CoT,这是理解现代大模型应用的基础。 - 进阶: 深入学习 MoE 和 Quantization,理解大模型如何突破规模瓶颈并在有限算力下高效运行。
- 应用: 结合
workflow目录,学习如何利用现有的开源编排平台(如 Dify、n8n)将大模型能力组装成智能体。 - 前沿: 探索
deep_research目录,了解当前最复杂的 Agent 应用场景(自动化深度研究)的技术实现方案。
3. 相关资源
本目录侧重于理论基础与应用层编排,如需了解更底层的工程实践,请参阅以下相关资源。