配。芯片方面,大模型的应用需要处理大量数据,并在训练过程中占用大量计算资源,对手机芯片的综合性能提出了更高要求。以苹果 A 系列为例,不支持 Apple Intelligence 的 A16 Bionic 神经引擎算力为 17 TOPS;相比之下支持 Apple Intelligence 的 A17 Pro 芯片神经引擎算力达 35 TOPS。存储方面,大内存可以轻松容纳更大规模的 AI 模型,使得设备能够运行更复杂、精度更高的算法,从而提升图像识别、自然语言处理、智能推荐等 AI 功能的性能。根据 IDC 预测,16GB RAM 将成为新一代 AI 手机的基础配置。