OpenAI:ChatGPT高级语音助手支持50多种语言、9种声线可选
2024年10月6日
OpenAI周二(24日)宣布,所有付费订阅ChatGPT Plus和Team计划的用户,都将可以使用新的AVM功能,不过该模式将在未来几天逐步推出。它将首先在美国市场上线。下周,该功能将向OpenAI Edu 和Enterprise 计划的订阅者开放。
OpenAI最近推出的高级语音模式(Advanced Voice Mode,简称AVM)功能,面向所有付费用户开放。以下是对文章的梳理和重点提炼:
- AVM功能概述:
- OpenAI将在未来几天逐步向所有ChatGPT Plus和Team计划用户开放AVM功能,首先在美国市场推出。
- AVM旨在提升语音助手的对话能力,尤其是外语的速度、流畅度及口音优化。
- 新增功能:
- 自定义指令和记忆功能:用户可以通过自定义指令和“记忆”功能让语音助手的表现更个性化。AVM会根据用户的偏好进行调整,类似于今年4月推出的文本版ChatGPT的“记忆”功能。
- 语音选项:
- 新增了五种语音风格:Arbor、Maple、Sol、Spruce 和 Vale。
- 加上之前的四种老版本声音(Breeze、Juniper、Cove 和 Ember),总共有九种声音可供选择。
- OpenAI移除了被指模仿斯嘉丽·约翰逊声音的Sky版本。
- 语音模式的应用:
- Plus版和Team版的用户可以通过语音指令使用ChatGPT,而不再需要输入文字提示。
- 当用户开启语音模式时,应用会弹出窗口提示已进入高级语音助手状态。
- 语言能力:
- AVM支持超过50种语言,并能够根据用户需求灵活切换语言。例如,AVM在一个示例中,先用英语道歉,后根据用户要求切换为普通话进行表达。
- 功能限制和模型适用范围:
- 目前,这些更新只适用于GPT-4o模型,不适用于最近发布的预览模型o1。
- 发展历程:
- AVM最早在今年5月首次展示,6月由于安全问题推迟发布。7月,该功能只向部分ChatGPT Plus用户开放。
- 尽管AVM功能强大,但缺少了5月份展示的部分功能,例如计算机视觉功能,该功能可通过手机摄像头为用户的舞蹈动作提供语音反馈。
此外,AVM还新增了两大功能:为语音助手存储“自定义指令”,以及记住用户希望语音助手表现何种行为的“记忆”的功能(这类似于今年4月OpenAI为ChatGPT文本版本推出的记忆功能)。
也就是说,ChatGPT用户可以利用自定义指令和“记忆”来确保语音模式是个性化的,AVM会根据他们对所有对话的偏好做出响应。
语音方面,OpenAI推出了五种不同风格的新声音:Arbor、Maple、Sol、Spruce 和 Vale,加上之前老版本的四种声音Breeze、Juniper、Cove和Ember,可选声音达到九种,撤走了被指山寨“寡姐”(女演员斯嘉丽·约翰逊)的声音Sky。
这意味着,ChatGPT的Plus版个人用户和小型企业团队用户(Teams)可以通过“说话”的方式,而不是输入提示来使用聊天机器人。当用户在应用程序上进入语音模式时,他们会通过一个弹出窗口知道他们已经进入了高级语音助手。
回到顶部