检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
是否必选 参数类型 描述 start_time 否 Integer 一句话开始时间,单位毫秒。 result 否 Result object 分句结果信息。 end_time 否 Integer 一句话结束时间,单位毫秒。 表10 Result 参数 是否必选 参数类型 描述 text
认证场景下的安全票据,可以通过token获取或者通过委托授权获取。 初始化客户端(region和指定云服务enddpoint二选一即可)。 指定region方式(强烈推荐) // 初始化客户端认证信息,使用当前客户端初始化方式可不填 projectId/domainId,以初始化 BasicCredentials
实时语音识别多人同时使用,如何区分各自识别结果 每个用户独立建立websocket连接,不可共用一个websocket连接。 父主题: API使用类
SetVadHead 否 Integer 头部最大静音时间,[0, 60000],默认10000ms。 SetVadTail 否 Integer 尾部最大静音时间,[0, 3000],默认500ms。 SetMaxSeconds 否 Integer 音频最长持续时间, [1, 60],默认30s。
t(); webSocket建立连接后后调。 void onTranscriptionClose(); webSocket连接关闭后回调。 void onTranscriptionFail(RttsResponse response); 长连接连接失败是回调。 void onTr
是否必选 描述 time String [number]s/[number]ms 否 以s/ms为单位设置静音持续时间 (如:"1s", "500ms")。 最大静音时间为10s。(华小龙,华小蕊不支持该属性) strength String 以下之一:none, x-weak, weak
查看监控指标 登录控制台。 在服务页面单击左侧的“总览”,进入“服务监控”页面。 图1 服务监控 父主题: 监控
调用API或SDK 在线调试 本地调用
Websocket握手请求 功能介绍 本接口提供实时流式语音合成。用户每次建立连接,发送待合成文本,服务端将合成结果响应给用户。一次连接只能发送一次文本,如果有多段文本需要合成,需要多次建立连接。实时语音合成和语音合成均属于语音合成接口,采用完全相同的计费规则,两者价格梯度可互相叠加,可参考价格计算器。
如何查看SIS服务声明 华为云语音交互服务(SIS)服务声明获取连接: https://www.huaweicloud.com/declaration/sis.html 父主题: 服务声明类
如何查看接口调用量 查看接口调用量 登录控制台。 选择左侧导航栏中的“总览”。在“服务监控”中查看API总调用量、调用成功量、调用失败量。 图1 接口调用量 父主题: API使用类
a bad response from the server报错。表示无法正常连接到SIS服务。 请先检查您的华为云账号是否已经进行了实名认证。 如果您的网络环境异常也会引发该报错,请确保您的网络连接正常,可以访问SIS服务。如果使用的是局域网或内部网络,请确保可以正常访问公网。
timeout) 问题现象 超时通常是由于网络不通造成的,需要对网络环境和代码进行具体分析。 解决方案 检查网络是否正常。 确保网络正常连接互联网,正常访问华为云官网,成功获取Token等。如果使用代理,需要保证代理可用性。 检查url是否存在错误。 如书写出错,http方法出错(get和post混淆)等。
请确认近期华为云账号是否有升级为华为账号。当前,如果您通过华为账号入口登录华为云账号,就会指引升级。华为云账号若已升级为华为账号,将不支持获取账号Token。 建议您创建一个IAM账户,使用该账户获取Token。 步骤1:创建IAM账户 登录华为云控制台,在右上角用户名处选择“统一身份认证”。 图1
使用AK/SK方式,需要用户提供AK和SK。 注册并登录华为云管理控制台。 在控制台中,鼠标移动至右上角的用户名处,在下拉列表中单击“我的凭证”。 单击“访问密钥”页签,在页签中,单击“新增访问密钥”。 在“身份验证”对话框中,输入当前用户的登录密码,通过邮箱或者手机进行验证,输入对应的验证码。
语音合成结束响应 功能介绍 当合成引擎处理完合成请求后,会发送合成结束响应。客户端收到该响应后关闭当前Websocket链接即可。 响应消息 表1 响应参数 名称 参数类型 说明 resp_type String 响应类型。参数值为END,表示语音合成结束。 trace_id String
实时语音识别分为开始识别、发送音频数据、结束识别,断开连接四个阶段。 开始阶段需要发送开始指令,包含采样率,音频格式,是否返回中间结果等配置信息。服务端会返回一个开始响应。 发送音频阶段客户端会分片发送音频数据,服务会返回识别结果或者其他事件,如音频超时,静音部分过长等。 音频发送结束后,客户端会发送结束请求,服务端会返回end响应。
分词是指将识别出的文本进一步拆分成单独的词语。 表9 WordInfo 参数 是否必选 参数类型 描述 start_time 否 Integer 起始时间。 end_time 否 Integer 结束时间。 word 否 String 分词。 状态码: 400 表10 响应Body参数 参数 参数类型 描述 error_code
开始合成响应 功能介绍 语音合成引擎收到实时语音合成请求时,首先向客户端发送合成开始响应,表示开始处理语音合成请求。 响应消息 表1 响应参数 名称 参数类型 说明 resp_type String 响应类型。参数值为START,表示开始语音合成。 trace_id String
SetSpeed 否 Integer 设置语速,-500~500,默认0。 SetSubtitle 否 String 设置字幕,部分发音人支持字幕时间戳,详见API文档。 示例代码 如下示例仅供参考,最新代码请前往SDK(websocket)章节获取并运行。 #include "RttsClient