3月4日,Intel于GitHub正式发布其NPU加速库,这一举动赋予了搭载酷睿Ultra处理器的AI PC更流畅运行TinyLlama、Gemma-2b等轻量级大型语言模型的能力。酷睿Ultra系列创新集成NPU AI引擎,协同CPU与GPU,轻松应对多元AI应用场景。
该开源加速库主要面向开发人员,但具备编程经验的用户同样可尝试利用。在微星尊爵14 AI Evo笔记本上,Intel软件架构师Tony Mongkolsmai演示了如何通过此库运行一个基于11亿参数的TinyLlama AI聊天机器人,实现基础对话功能,Windows任务管理器亦证实了NPU的有效调用。
当前,该NPU加速库在功能方面仍存在局限,仅支持8比特量化和FP16精度计算,暂不涵盖4比特量化、BF16精度以及NPU\/GPU混合运算等高级特性,且配套技术文档尚未完备。不过,Intel已明确表示将在后续持续扩展和完善功能,预计提升幅度将翻倍,此举无疑为AI开发者开辟更多便捷途径和可能性。