登录社区云,与社区用户共同成长
邀请您加入社区
暂无图片
为遵守国家网络实名制规定,未绑定将限制内容发布与互动
让 AI 不止于云端,让智能触手可及。英特尔与魔搭社区期待与您共同定义 AI PC 的“灵魂技能”!
本文基于 OpenVINO™ Notebooks 官方示例,带你从 0 到 1 把 VoxCPM2 部署到 Intel CPU/iGPU/独显上,并覆盖 5 种实用玩法。
当手边没有CUDA环境时,如何把ERNIE-Image在本地跑起来?
发布在lightX2V 社区的Model_Enable_Intel_XPU_Skill 将整个模型的适配过程封装为一套固定流程,使众多开发者能够利用该Skill 采用当前流行的native AI模式快速完成新模型 Intel AI PC 平台上基于LightX2V的快速适配,并利用适配好的模型进行视频生成。第三代英特尔酷睿 Ultra处理器家族以卓越性能、领先显卡表现、强大AI算力与数日电池续航,
OpenVINO™ 已正式实现对 ERNIE-Image 的 Day 0 支持。这意味着开发者可以在模型发布后的第一时间,将 ERNIE-Image 更方便地跑在 Intel CPU 和 GPU 上,快速完成从模型导出、推理验证到应用落地的全流程实践。
Gemma 4 正清晰地体现了这种变化:它将多模态理解、长上下文交互和推理能力整合进了同一个模型家族中。
开发者不需要放弃熟悉的 llama.cpp 工具链,也不需要切换到另一套全新的软件栈,就可以在 Intel® CPU、GPU 和 NPU 上运行 GGUF 模型。
OpenVINO™ 2026.1 持续扩展模型支持版图,并针对 GenAI 模型带来进一步的性能优化。
GPU 和 CPU 处理KV Cache动态性很自然——运行时动态分配内存就行。
本文将详细介绍如何使用 Intel® OpenVINO™ 工具套件优化和部署 MiniCPM-o-4.5 模型,将其 15 个子模型全部转换为 OpenVINO™ IR 格式并进行 INT4/INT8 量化,在 Intel CPU/GPU 平台上实现高效推理。