近期,网络上流传着一种观点:向人工智能(AI)表达感谢会额外消耗算力与电力资源,甚至被形容为“浪费”。这一说法引发了公众对AI交互成本的讨论。针对这一争议,记者对国内主流大模型进行了测试,发现不同模型给出了兼具技术理性与人文关怀的回应。
DeepSeek模型明确表示,用户无需为此担忧。其技术团队指出,AI生成感谢类回复的算力消耗与常规对话无显著差异,现代AI系统的资源调度机制已高度优化,单次对话的能耗增量可忽略不计。这种回应直接否定了“浪费资源”的论断。
豆包模型则从实际影响角度分析称,虽然感谢类交互确实涉及少量资源消耗,但将其定义为“浪费”并不准确。该模型强调,对于普通用户而言,这种消耗远低于日常设备待机能耗,更不会对电网造成可感知的负担。
千问模型的回应更具亲和力,其开发团队将相关说法称为“技术误解的幽默化表达”。技术人员特别指出:“AI存在的价值就是服务人类,情感化交互是提升用户体验的重要维度。我们鼓励用户保持自然对话习惯,包括适当表达感谢。”
Kimi模型从系统设计层面给出专业解读:任何形式的文本生成都需要调用计算资源,但现代AI架构通过模型压缩和量化技术,已将单次推理的能耗控制在极低水平。该模型认为,将技术成本与用户体验对立起来的观点过于片面,良好的交互设计本就应兼顾效率与情感需求。
综合各模型回应可见,虽然从纯技术角度,增加交互内容确实需要更多计算资源,但现有AI系统的资源利用效率已足够支撑这类情感化表达。技术专家建议,用户无需刻意改变对话习惯,自然流畅的交互方式更有利于AI提供优质服务。











