登录社区云,与社区用户共同成长
邀请您加入社区
暂无图片
Gemma 4 正清晰地体现了这种变化:它将多模态理解、长上下文交互和推理能力整合进了同一个模型家族中。
开发者不需要放弃熟悉的 llama.cpp 工具链,也不需要切换到另一套全新的软件栈,就可以在 Intel® CPU、GPU 和 NPU 上运行 GGUF 模型。
OpenVINO™ 2026.1 持续扩展模型支持版图,并针对 GenAI 模型带来进一步的性能优化。
本文将详细介绍如何使用 Intel® OpenVINO™ 工具套件优化和部署 MiniCPM-o-4.5 模型,将其 15 个子模型全部转换为 OpenVINO™ IR 格式并进行 INT4/INT8 量化,在 Intel CPU/GPU 平台上实现高效推理。
第十期飞桨黑客松已经正式开启。在本期文心合作伙伴赛道中,英特尔作为合作伙伴之一,带来了面向开发者的 OpenVINO™ 赛题。这一次,我们希望不只是让大家“看见”多模态文档理解的能力,更希望大家亲手把它跑起来、用起来、做成真正可展示、可复现、可落地的作品。
作为智汇金陵· AI开源人才峰会 的一部分,本次活动由英特尔联合魔搭社区共同呈现,吸引了众多开发者、技术专家与合作伙伴齐聚一堂,共同探讨 AI PC 时代的技术趋势与端侧智能体的落地实践。
EAGLE-3作为新一代投机解码(speculative decoding)技术的重要突破,其核心价值在于突破了传统投机解码依赖完全独立草稿模型的技术局限。
欢迎体验 OpenVINO™本年度的首个版本发布!
通过MCP(Model Context Protocol) 和A2A(Agent-to-Agent) 协议协作多个专用智能体(酒店搜索、机票搜索、图片描述),并且用OpenVINO™ 模型服务器(OVMS) 在本地高效运行优化后的推理。
Xeon platform with 2x, 4x or 8x Arc Pro B60, and setup power for each GPU.