检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
result 是 Object 调用成功时为合成语音内容,请参考表5。 调用失败时无此字段。 表5 Result 参数名 是否必选 参数类型 说明 data 是 String 合成后生成的语音数据,以Base64编码格式返回。
当前语音服务仅支持北京和上海区域,后续会陆续上线其他区域。 华北-北京四,推荐的区域。 华东-上海一,推荐的区域。
实时语音合成接口 Websocket握手请求 实时语音合成请求 实时语音合成响应
父主题: 实时语音识别响应
华为云语音合成服务的SSML实现,基于W3C的语音合成标记语言版本1.1,但并不支持W3C包含的所有的标记类型。目前仅华小飞,华小美,华小龙,华小蕊,华小闽合成支持 SSML功能。该特性与语言无关。发音人property取值详见语音合成。
实时语音合成会多次返回结果,demo的处理方式是将多次返回结果集合在一个音频文件里。
实时语音识别 前提条件 确保已按照配置Python环境配置完毕,Python SDK仅支持Python3。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 请参考SDK(websocket)获取最新版本SDK包。
private String path = ""; // 本地音频路径,如D:/test.wav, 也可将音频文件、音频流转换为byte数组后进行传送。
实时语音合成和语音合成均属于语音合成接口,采用完全相同的计费规则,两者价格梯度可互相叠加,可参考价格计算器。 工作流程 从流程图可以看出,实时语音合成只需要发送1次开始请求,会陆续收到开始响应、合成音频的分片响应、结束响应。
具体信息请参见《API参考》中语音合成章节。
实时语音识别连续模式 前提条件 确保已经按照配置好Android开发环境。 请参考SDK(websocket)获取最新版本SDK包。
使用实时语音合成 前提条件 确保已按照配置CPP环境(Linux)配置完毕。 请参考SDK(websocket)获取最新版本SDK包。
xiaoyan情感女生 xiaowang童声 speaker(精品发音人)取值范围: huaxiaomei温柔女声发音人,仅支持pcm huaxiaofei朝气男声发音人,仅支持pcm domain取值范围: common,通用领域 默认:chinese_xiaoyan_common 实时语音合成和语音合成属于同一种资源
详细参数说明请见实时语音识别。 父主题: API使用类
Websocket握手请求 流式一句话 实时语音识别连续模式 实时语音识别单句模式 父主题: 实时语音识别接口
语音交互服务需要申请什么权限 语音交互服务本身无权限限制,用户不需要额外添加任何权限,即可对语音交互服务执行操作。 但是如下场景除外: 当用户需要使用录音文件识别功能时,需要用户具有主账号或者Security Administrator的权限。
使用实时语音合成 前提条件 确保已按照配置CPP环境(Windows)配置完毕。 请参考SDK(websocket)获取最新版本SDK包。
实时语音识别连续模式 前提条件 确保已经按照配置好iOS开发环境。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化RASRClient,参数为AuthInfo和RASRConfig。
流式一句话 功能介绍 流式一句话模式的语音长度限制为一分钟,适合于对话聊天等识别场景。 该接口支持用户将一整段语音分段,以流式输入,最后得到识别结果。实时语音识别引擎在获得分段的输入语音的同时,就可以同步地对这段数据进行特征提取和解码工作,而不用等到所有数据都获得后再开始工作。