ITBear旗下自媒体矩阵:

全新英特尔®OpenVINO™ 2023.0版本发布 简化AI开发流程提升部署效率

   时间:2023-06-05 16:54:55 来源:ITBEAR编辑:星辉 发表评论无障碍通道

【ITBEAR科技资讯】6月5日消息,英特尔在OpenVINO™工具套件发布五周年之际,举办了OpenVINO™ DevCon中国系列工作坊2023活动。该活动旨在通过每月一次的工作坊,持续帮助开发者系统学习和提升,促进开发者在AI领域的发展。

据ITBEAR科技资讯了解,英特尔成功举办了首期OpenVINO™ DevCon 2023系列活动,以“焕然五周年·瞰见新特性”为主题。在本次活动上,英特尔发布了全新的英特尔®OpenVINO™ 2023.0版本,该版本功能更加强大,旨在帮助AI开发者简化工作流程,提升部署效率。

OpenVINO™作为一款深度学习推理工具,在过去几年中已经帮助数十万开发者显著提升了AI推理性能。凭借OpenVINO™,开发者只需几行代码即可实现高性能的“一次编写,任意部署”,并且自动选择最佳硬件配置,提升了开发效率。由于OpenVINO™能够在不同硬件平台上高效准确地进行推理,这项技术已广泛应用于教育、零售、医疗和工业等各个领域,为行业客户提供了高效的深度学习推理技术,带来了巨大价值。

OpenVINO™ 2023.0版本在过去的基础上新增了许多优势。首先,它提供了更多的集成,最大限度减少了代码变更的需求。开发者在优化模型时,无需离线转换TensorFlow模型,而是可以直接加载标准的TensorFlow模型到OpenVINO™ Runtime或OpenVINO™ Model Server中,并实现自动转换。当需要最大性能时,仍然可以选择离线转换为OpenVINO™格式。其次,OpenVINO™ 2023.0版本具备更广泛的模型支持,包括生成式AI模型、文本处理模型和其他关键模型的支持。开发者在使用GPU时不再需要更改为静态输入,具有更大的灵活性。此外,通过神经网络压缩框架(NNCF),可以更轻松地实现对模型的压缩,从而获得更大的性能改进。

此外,OpenVINO™ 2023.0版本具有出色的可移植性和性能。CPU设备插件现在支持线程调度,开发者可以根据应用程序的优先级选择在不同的核上运行推理,以优化性能或节能。无论使用哪种插件,OpenVINO™都将提供最佳性能格式。另外,在GPU上,OpenVINO™ 2023.0版本通过更高效的模型加载和编译改进了模型缓存。

除了对OpenVINO™的持续更新迭代,英特尔还发布了“英特尔® Developer Cloud for the Edge”平台的公测版。该平台提供了对英特尔最新架构CPU、GPU、VPU和FPGA等硬件资源的访问,同时支持容器化和裸机应用部署,加速人工智能方案的开发、验证和部署,提高应用开发效率和产品选型优化。该平台还将持续优化用户体验,引入本地参考实现和相关边缘设备,扩建基础服务硬件以满足不同用户对测试设备多样性的需求。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  网站留言  |  RSS订阅  |  违规举报  |  开放转载  |  滚动资讯  |  English Version