章节 01
导读 / 主楼:Snapdragon X Elite上运行大语言模型:NPU加速的端侧AI推理实践
本文介绍了如何在搭载Snapdragon X Elite/X2 Elite的Windows ARM64设备上,利用高通NPU和ONNX Runtime QNN执行提供程序运行大语言模型推理,实现高效的端侧AI计算。
正文
本文介绍了如何在搭载Snapdragon X Elite/X2 Elite的Windows ARM64设备上,利用高通NPU和ONNX Runtime QNN执行提供程序运行大语言模型推理,实现高效的端侧AI计算。
章节 01
本文介绍了如何在搭载Snapdragon X Elite/X2 Elite的Windows ARM64设备上,利用高通NPU和ONNX Runtime QNN执行提供程序运行大语言模型推理,实现高效的端侧AI计算。
章节 02
随着大语言模型能力的不断提升,AI计算正在从云端向终端设备迁移。端侧AI(On-Device AI)具有隐私保护、低延迟、离线可用等显著优势,而实现这一切的关键在于专用AI加速硬件的支持。高通Snapdragon X Elite平台正是这一趋势的重要推动者。
章节 03
Snapdragon X Elite是高通专为Windows PC打造的旗舰级ARM处理器,其核心亮点包括:
章节 04
Snapdragon X Elite瞄准高端轻薄本市场,主打:
章节 05
ONNX Runtime是微软开发的跨平台机器学习推理加速器,支持:
章节 06
QNN是高通提供的神经网络推理SDK,特点包括:
章节 07
这是ONNX Runtime针对高通平台的专用执行提供程序:
章节 08
需要安装以下组件: