微软人工智能部门近期宣布了一项重大进展,正式推出了两款自主研发的人工智能模型。其中一款是名为MAI-Voice-1的语音模型,另一款则是MAI-1-preview通用模型。
据悉,MAI-Voice-1语音模型在性能上表现出色。微软方面透露,该模型仅需单块GPU的支持,就能在极短的时间内——不到一秒,生成出一分钟的音频内容。这一速度的提升,无疑为语音合成技术的应用开辟了新的可能。
而MAI-1-preview通用模型,则被微软视为未来Copilot产品的重要基石。微软表示,该模型具备强大的指令遵循能力,能够针对用户的日常查询提供有用的响应。这预示着Copilot在未来的发展中,将更加注重用户体验和实用性。
微软已经率先将MAI-Voice-1语音模型应用到了其部分功能中。例如,在Copilot Daily中,AI主持人就基于该模型播报当天的头条新闻,并生成播客风格的讨论内容,帮助用户更好地理解热点话题。这一创新的应用方式,不仅展现了微软在人工智能领域的领先地位,也为用户带来了更加便捷、智能的信息获取体验。
为了让更多用户能够亲身体验到MAI-Voice-1语音模型的魅力,微软还在Copilot Labs上提供了试用机会。用户只需输入希望AI模型朗读的内容,就可以轻松更改其声音和说话风格,享受个性化的语音合成服务。
对于MAI-1-preview通用模型,微软方面表示,该模型的设计初衷是为了满足特定需求用户的需要。通过强大的指令遵循能力,该模型能够在各种场景下为用户提供有用的响应,进一步提升了人工智能技术的实用性和便捷性。