事实依据和专业背景,显著提升回答准确性和专业性。这种LLM+知识的 结合赋予模型"可解释性"和"可信度",为大模型应用拓宽了边界,带动 算力需求增长。 从企业政策文档、FAQ中检索相关内容 通过RAG或预训练微调, 回答前,先从知识库检索相关资料,再融合到回答中。 随着检索-生成架构日趋成熟,各行业也在构建专属知识库。一些模型在 训练阶段就引入知识蒸馏,将知识库内容融入参数,使模型自带领域常 基于检索知识生成准确、可靠的回答 ·知识库引入使模型参数量和计算复杂度提高,需要实时检索、匹配、推理, 增加计算开销。根据易观测算,企业部署LLM+中大型知识库所需的智算能 力相当于基础LLM的2~3倍。 各行业知识库训练同样需要大量算力,其中相当一部分算力用户是非专业 工程师,对算力的需求是碎片的、基础的、即买即用的,随着垂直行业大 模型应用在金融、医疗、制造等行业爆发,“模型+知识"方案将催生对高 性能智算中心的新需求。