Intel开源NPU加速库 酷睿Ultra PC流畅运行轻量级AI模型

2024-03-04 12:00:53 网络 蒜泥倒霉

3月4日,Intel于GitHub正式发布其NPU加速库,这一举动赋予了搭载酷睿Ultra处理器的AI PC更流畅运行TinyLlama、Gemma-2b等轻量级大型语言模型的能力。酷睿Ultra系列创新集成NPU AI引擎,协同CPU与GPU,轻松应对多元AI应用场景。

该开源加速库主要面向开发人员,但具备编程经验的用户同样可尝试利用。在微星尊爵14 AI Evo笔记本上,Intel软件架构师Tony Mongkolsmai演示了如何通过此库运行一个基于11亿参数的TinyLlama AI聊天机器人,实现基础对话功能,Windows任务管理器亦证实了NPU的有效调用。

当前,该NPU加速库在功能方面仍存在局限,仅支持8比特量化和FP16精度计算,暂不涵盖4比特量化、BF16精度以及NPU\/GPU混合运算等高级特性,且配套技术文档尚未完备。不过,Intel已明确表示将在后续持续扩展和完善功能,预计提升幅度将翻倍,此举无疑为AI开发者开辟更多便捷途径和可能性。

相关内容

更多

精品推荐

更多