Transformer 架构未能完全表达人脑的思考机制。当前 LLM 的主流框架依旧是Transformer 架构。Transformer 通过模仿人脑的思考机制,利用自注意力机制并行处理序列元素,显著提升了训练速度和长距离依赖建模能力。然而,从神经科学的角度来看,人脑的复杂性依然远远超过当前的 LLM。尽管 LLM 的参数和连接数已达到数万亿个,但仍无法与人脑的复杂性相提并论。人类大脑的进化依赖于选择和投注机制,以较低的容量实现更高效的信息处理。当前 AI 的局限性可能不仅在于数据不足,还在于其学习效率的低下。真正的智能不仅仅是数据量的堆积,更在于对信息的压缩和提炼,类似于通过总结第一性原理的方式获取更深层次的智能。与此同时,除了 Transformer 架构中提出的注意力机制外,人脑中仍有许多尚未被算法表达的思考机制。这些机制在未来可能会进一步推动大语言模型实现能力的跃升。