检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Key)加密调用请求。经过认证的请求总是需要包含一个签名值,该签名值以请求者的访问密钥(AK/SK)作为加密因子,结合请求体携带的特定信息计算而成。通过访问密钥(AK/SK)认证方式进行认证鉴权,即使用Access Key ID(AK)/Secret Access Key(SK)加密的方法来验证某
初始化RasrClient,其参数包括AuthInfo 表1 AuthInfo 参数名称 是否必选 参数类型 描述 ak 是 String 用户的ak,可参考AK/SK认证。 sk 是 String 用户的sk,可参考AK/SK认证。 projectId 是 String 项目ID,同region一一对应,参考获取项目ID。
表1 HotWordClient初始化参数 参数名称 是否必选 参数类型 描述 ak 是 String 用户的ak,可参考AK/SK认证。 sk 是 String 用户的sk,可参考AK/SK认证。 region 是 String 区域,如:cn-north-4。具体请参考终端节点。
请检查音频是否过大,或网络延时过长。如果音频过大,可利用mp3格式进行压缩;如果网络延时较长,可以适当提升网络传输速度。 您可以直接使用SIS服务提供的SDK调用服务,避免出现该问题,SDK获取地址请参见获取SDK。 如以上方案无法解决问题,请联系我们。 父主题: 错误码类
ject name可登录控制台“我的凭证”页面获取。password为用户密码。 如果您的华为云账号已升级为华为账号,将不支持获取Token。建议为您自己创建一个IAM用户,获取IAM用户的Token。详细说明请参见账密报错“The username or password is
监控 语音交互服务的监控指标 查看监控指标
区域与可用区 什么是区域与可用区 语音交互服务的区域如何选择
产品咨询类 什么是语音交互服务 支持哪些语言 语音合成后输出的音频格式是什么 是否支持离线使用 语音合成后能否返回播放时长 是否支持aac格式的语音文件转文字 如何查看当前接口是否免费调用
error_code String 调用失败时的错误码。 调用成功时无此字段。 error_msg String 调用失败时的错误信息。 调用成功时无此字段。 请求示例 “endpoint”即调用API的请求地址,不同服务不同区域的“endpoint”不同,具体请参见终端节点。 删除热词表
建议在需要实时反馈的情况下100ms,不需要实时反馈的情况下500ms。实时语音识别代码示例请参考SDK文档。 当前SIS服务对于8k音频的分片大小限制为[160, 32768]字节, 16k音频的分片大小限制为[320, 65536]字节, 分片大小超出上限或低于下限会报错。
Language)标记语言的功能、标签使用及示例。 概述 SSML 是一种基于 XML 的语音合成标记语言。使用 SSML 可以更加准确、具体的定义合成音频的效果,包括控制断句分词方式、发音、速度、停顿、声调和音量等特征。相比文本输入进行合成,有更好的操作灵活性。 华为云语音合成服务的SSML实现,基于W3C的语音合成标记语言版本1
error_code String 调用失败时的错误码。 调用成功时无此字段。 error_msg String 调用失败时的错误信息。 调用成功时无此字段。 请求示例 “endpoint”即调用API的请求地址,不同服务不同区域的“endpoint”不同,具体请参见终端节点。 更新热词表
参数类型 说明 resp_type String 响应类型。参数值为START,表示开始语音合成。 trace_id String 服务内部的令牌,可用于在日志中追溯具体流程。 示例 { "resp_type": "START", "trace_id": "567
error_code String 调用失败时的错误码。 调用成功时无此字段。 error_msg String 调用失败时的错误信息。 调用成功时无此字段。 请求示例 “endpoint”即调用API的请求地址,不同服务不同区域的“endpoint”不同,具体请参见终端节点。 获取热词表列表信息
为什么录音文件识别出现重复转写结果 调用语音交互的API显示auth failed 调用语音交互的API超时怎么处理(connect timeout) 为什么服务端返回OBS链接不可用(data url is unreachable) 语音合成的base64编码如何使用 录音文件识别多久可以返回结果
模式”、“实时语音识别单句模式”三种模式。 三种模式的握手请求wss-URI不同,基于Websocket承载的实时语音识别请求和响应的消息格式相同。 开发者可以使用java、python、c++等开发语言支持Websocket的对应软件包或库接口,与实时语音识别引擎握手连接,并发
cts”,其中{Endpoint}为IAM的终端节点。接口的认证鉴权请参见认证鉴权。 响应示例如下,例如,语音交互服务部署的区域为“cn-north-4”,响应消息体中查找“name”为“cn-north-4”,其中projects下的“id”即为项目ID。 { "projects":
名称 参数类型 说明 resp_type String 响应类型。参数值为END,表示语音合成结束。 trace_id String 服务内部的令牌,可用于在日志中追溯具体流程。 reason String 结束原因。 表2 结束原因表 名称 说明 NORMAL 正常结束。 ERROR
名称 参数类型 说明 resp_type String 响应类型。参数值为ERROR,表示错误响应。 trace_id String 服务内部的令牌,可用于在日志中追溯具体流程。 error_code String 参见错误码列表。 error_msg String 返回错误信息。 示例
如何修改发音人 修改代码中property的取值即可,支持的发音人如表1和表2所示。 POST https://{endpoint}/v1/{project_id}/tts Request Header: Content-Type: application/json X-Auth-Token: