在人工智能从 “感知智能” 向 “认知智能” 跨越的过程中,“知识推理” 是核心能力 —— 它让机器能基于已有知识(如 “鸟类会飞”“企鹅是鸟类”)推导出新结论(“企鹅是否会飞”)。但随着推理模型从传统规则系统向深度学习演进,“黑箱问题” 日益凸显:模型能给出正确结果,却无法说明 “为什么这么推”。此时,可解释知识推理(Explainable Knowledge Reasoning, EKR)应运而生:它不仅要求推理结果准确,更强调推理过程和依据可被人类理解、验证,是解决 AI 信任危机、推动技术落地关键领域的核心支撑。