在桌面级迷你电脑市场中,惠普凭借其深厚的技术积累和产品布局,始终占据着企业级和专业用户群体的重要地位。以笔者此前长期使用的EliteDesk 800 G2为例,这款设备在持续运行一年多的时间里未出现任何宕机问题,其稳定性和耐用性令人印象深刻。近期,惠普推出的Z2 Mini G1a AI图形工作站再次引发市场关注,这款搭载AMD锐龙AI Max+ PRO 395处理器的设备,通过实际测试展现了其在AI计算领域的突破性表现。
Z2 Mini G1a采用2.9L超紧凑机箱设计,外观近似NAS设备,纯黑色机身搭配前端菱格矩阵散热格栅,既满足企业用户对专业性的需求,又通过圆角矩形边框和自然弧度处理提升了视觉舒适度。前端面板集成电源键和产品LOGO,下方可调节方向的薯条LOGO设计确保设备卧放时标识始终正向展示。机身底部配备的两条橡胶脚垫支持卧放或立放两种形态,2.4kg的重量和20×16.8×8.55cm的尺寸使其能轻松融入办公环境,甚至可固定于显示器背面或桌面下方,进一步节省空间。对于需要集群算力的企业用户,该设备支持4U机架部署,单架可容纳5台主机,结合AMD处理器的AI计算能力,可构建低成本私有AI模型运行环境。
接口配置方面,Z2 Mini G1a展现了出色的扩展性。机身左侧配备10Gbps传输速度的USB Type-A可充电接口,右侧设有同速率的USB Type-C接口(支持USB供电和DP 2.1视频传输)及3.5mm耳麦插孔。背面接口区域更为丰富,包括RJ45 2.5GbE以太网口、4个USB接口(2×10Gbps USB-A/2×USB-A 2.0)、2个40Gbps雷电4 USB-C接口和2个MiniDP 2.1接口,随机附赠的MiniDP转DP线简化了显示器连接流程。设备预留的两个Fle× I/O区域支持用户根据需求选配串口、额外USB接口或高速网口,免工具拆卸的侧盖设计则方便硬件维护与升级。
硬件性能是Z2 Mini G1a的核心竞争力。其搭载的AMD锐龙AI Max+ PRO 395处理器采用4nm Zen5架构,拥有16核32线程,最高加速频率达5.1GHz,总缓存80MB,并集成峰值AI算力50TOPs的NPU核心。该处理器支持Windows 11 AI+PC系统级功能,其Radeon 8060s GPU核心配备40组RDNA 3.5架构CU计算单元和2560个流处理器,结合infinity Cache技术显著提升了显存带宽。更引人注目的是其显存管理方案:通过支持最高128GB统一内存和96GB GPU专属显存,该设备可调用系统剩余内存的50%,理论上GPU显存最高可达112GB,相当于4张以上RTX 4090显卡的显存容量。这种设计使得本地部署和运行上百亿参数的大模型成为可能,而整机成本控制在2万元左右,体积仅3L。
在性能测试中,Z2 Mini G1a展现了超越预期的表现。CINEBENCH R23测试显示,其单核得分1938,多核得分37708;R2024标准下单核得分110,多核得分1881,多核性能较同类产品提升显著。这得益于设备对处理器功耗的优化释放:AIDA 64 FPU单烤机测试中,处理器稳定功耗达120W,平均核心温度仅95.5℃,表明散热系统高效可靠。内存性能方面,LPDDR5× 8000高速内存的读取速度达119.74GB/s,写入速度211.65GB/s,拷贝速度149.46GB/s。配备的1TB PCIe 4.0固态硬盘顺序读取速度4516.67MB/s,顺序写入速度3640.92MB/s,4K随机读写速度分别达45.59MB/s和179.16MB/s,满足日常办公和AI模型加载需求。
GPU性能测试中,Radeon 8060s iGPU在3DMark Time Spy和Fire Strike E图形测试中分别取得11418分和14267分,达到RTX 4060独显水准。而在AI算力测试中,Ryzen AI NPU Integer得分1761分,Windows ML ONN× GPU Float 16得分953分,表明其NPU和GPU的AI计算能力处于行业领先地位。实际应用层面,该设备在UL Procyon图片编辑和视频编辑测试中分别获得8386分和22441分,D5渲染器工程图渲染仅需1分30秒,1080p视频渲染5分57秒,性能接近专业工作站水平。
AI应用场景中,Z2 Mini G1a的优势更为突出。通过Amuse AIGC工具,用户可快速部署适配AMD平台的文生图、图生图和文生视频模型。测试显示,低精度模型5秒即可生成图片,高精度模型37.4秒可输出1024×1024规格图像。文生视频测试中,locomotion模型30.6秒完成视频生成,效果令人满意。大语言模型部署方面,LM Studio支持的七款模型中,qwen3-30b-a3b混合专家模型生成速度达61.48tokens/s,gpt-oss-120b模型生成速度38.57tokens/s,满足本地化AI助手需求。这种性能表现使得企业用户无需依赖云端服务,即可实现数据隐私保护和低成本AI算力部署。