速递|OpenAI 推出 ChatGPT 高级语音模式Plus 用户率先体验 GPT-4o 超逼真语音交互_语音_用户
7 月 30 日,OpenAI 推出了 ChatGPT 高等语音模式,用户首次能够体验 GPT-4o 超逼真语音交互。目前,Alpha 版本面向于小部分 ChatGPT Plus 用户,秋季之后将逐步推广至所有 Plus 用户。
OpenAI 表示,春季更新期间演示的***和屏幕共享功能并不包括在 Alpha 版本在内,而是在后面推出。
ChatGPT 高等语音模式不同于此前的语音模式,原有的音频办理方案利用了三个独立的模型:一个用于将用户的语音转换为文本,然后由 GPT-4 处理 Prompt,然后由第三个模型将 ChatGPT 天生的文本转化为语音。
GPT-4o 是一个多模态模型,能够在没有其他模型赞助的情形下处理这些任务,由于在体验年夜将显著降落对话的延迟。
OpenAI 还透露,GPT-4o 可以感知用户声音中的感情语调,包括悲哀、愉快或者唱歌;目前,Alpha 组的用户将在 ChatGPT 中收到提醒,并将收到一封邮件先容如何利用。
据悉,高等语音模式种的预设声音将仅限 Juniper、Breeze、Cove 以及 Ember,这些都是与付费配音演员互助制作的,而 5 月份演示的 Sky 声音将不再可用。
OpenAI 发言人 Lindsay McCallum 表示,ChatGPT 目前还无法模拟其他人的声音,无论是个人还是"大众年夜世人物,并且会屏蔽与这四种预设声音不同的输出。
此外,OpenAI 引入了新的过滤办法来避免模型天生受版权保护的音频,从而造成法律轇轕。
自发布 Demo 以来,OpenAI 已经与 100 多名利用 45 种不同措辞的外部红队成员一起测试了 GPT-4o 语音功能,干系的安全方法报告将在 8 月初发布。
本文由大家都是产品经理作者【江天 Tim】,微信公众年夜众号:【有新Newin】,原创/授权 发布于大家都是产品经理,未经容许,禁止转载。
题图来自Unsplash,基于 CC0 协议。
本文系作者个人观点,不代表本站立场,转载请注明出处!