检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
为什么WebSocket一直连接不成功 问题现象 由于在没连接成功前无法返回服务端任何信息,因此连接不成功需要多方面定位原因。 解决方案 1. 检查网络是否可用,能否连接互联网,检查url输入是否正确。 2. 检查Token是否可用,检查Token的方法参考调用语音交互的API显示auth
开始语音合成请求 功能介绍 客户端与语音合成引擎建立Websocket连接后,可以发送开始语音合成请求进行语音合成。如果客户端基于该Websocket连接发送多次合成请求,需在每次请求重新建立websocket连接,一次连接只能处理一次合成请求。 请求消息 表1 参数说明 名称 参数类型
实时语音识别多人同时使用,如何区分各自识别结果 每个用户独立建立websocket连接,不可共用一个websocket连接。 父主题: API使用类
发送音频数据,结束识别、断开连接四个步骤。 websocket接口同http接口一致按次计费,只要建立连接成功,发送音频,服务开始识别,则本次调用计费生效。如果用户发送错误end请求或者持续20s未发送音频而产生了报错,该次调用依然认为生效。如果连接成功后未发送音频直接断开,或者
本接口提供实时流式语音合成。用户每次建立连接,发送待合成文本,服务端将合成结果响应给用户。一次连接只能发送一次文本,如果有多段文本需要合成,需要多次建立连接。实时语音合成和语音合成均属于语音合成接口,采用完全相同的计费规则,两者价格梯度可互相叠加,可参考价格计算器。 工作流程 从流程图可以看出,实时语音合
from the server报错。表示无法正常连接到SIS服务。 请先检查您的华为云账号是否已经进行了实名认证。 如果您的网络环境异常也会引发该报错,请确保您的网络连接正常,可以访问SIS服务。如果使用的是局域网或内部网络,请确保可以正常访问公网。 网络环境如果正常,请检查代码示
检查代码是否存在发送音频后睡眠过多时间。 2. 检查是否发送end请求,是否关闭客户端。超过20s没有发送数据同时也没有断开连接,就会报该错误。在使用完毕后一定要记得断开与服务端连接。 父主题: 错误码类
如何查看SIS服务声明 华为云语音交互服务(SIS)服务声明获取连接: https://www.huaweicloud.com/declaration/sis.html 父主题: 服务声明类
config; private SisClient client; private AudioRecordService audioRecordService; @Override protected void onStart() {
timeout) 问题现象 超时通常是由于网络不通造成的,需要对网络环境和代码进行具体分析。 解决方案 检查网络是否正常。 确保网络正常连接互联网,正常访问华为云官网,成功获取Token等。如果使用代理,需要保证代理可用性。 检查url是否存在错误。 如书写出错,http方法出错(get和post混淆)等。
如何查看实时语音识别的中间结果 实时语音识别分为开始识别、发送音频数据、结束识别,断开连接四个阶段。在使用API或SDK时,可以通过将interim_results参数设置为yes,将识别过程的中间结果返回。如果设置为no,则会等每句话完毕才会返回识别结果。详细参数说明请见实时语音识别。
语音合成(http版) 前提条件 确保已经按照配置好Android开发环境。 初始化Client 初始化SisClient,详细信息如下。 配置客户端连接参数。 默认配置 // 使用默认配置 HttpConfig config = HttpConfig.getDefaultHttpConfig();
Websocket API发送websocket请求如何携带token 浏览器 WebSocket API 是 HTML5 提供的一种在 TCP 连接上进行全双工通讯协议的 API, 但 WebSocket API 不支持设置 Headers,如需设置 Headers, 建议通过 Nginx
t() webSocket连接建立后回调。 void onTranscriptionClose(); webSocket连接关闭后回调。 void onTranscriptionFail(AsrResponse var1); webSocket长连接连接失败是回调。 请求参数 请
端交流流程如图1所示。 分为三个主要步骤: WebSocket握手。 基于WebSocket协议进行实时语音识别。 关闭WebSocket连接。 其中,基于WebSocket协议进行实时语音识别时,需要客户端首先发送转写开始消息,然后持续发送语音数据至服务端,最后发送结束消息,在
t() webSocket连接建立后回调。 void onTranscriptionClose(); webSocket连接关闭后回调 void onTranscriptionFail(AsrResponse var1); webSocket长连接连接失败是回调。 请求参数 请求
录音文件识别多久可以返回结果 音频转写时长受音频时长和排队任务数量影响,音频时长和理论返回时间可参见表 音频转写时长参考表。如果转写耗时比理论时延长,大概率表示当前时间段出现转写高峰,请耐心等待,我们承诺最大转写时长不超过6小时。 表1 音频转写时长参考表 音频时长 参考返回时间
载的实时语音识别请求和响应的消息格式相同。 开发者可以使用java、python、c++等开发语言支持Websocket的对应软件包或库接口,与实时语音识别引擎握手连接,并发送语音数据和接收转写结果,最后关闭Websocket连接。 获取Websocket握手请求wss-URI请参见Websocket握手请求。
实时语音识别工作流程 实时语音识别分为开始识别、发送音频数据、结束识别,断开连接四个阶段。 开始阶段需要发送开始指令,包含采样率,音频格式,是否返回中间结果等配置信息。服务端会返回一个开始响应。 发送音频阶段客户端会分片发送音频数据,服务会返回识别结果或者其他事件,如音频超时,静音部分过长等。
有哪些途径可以使用语音交互的API 共有三种方式可以基于已构建好的请求消息发起请求。 cURL cURL是一个命令行工具,用来执行各种URL操作和信息传输。cURL充当的是HTTP客户端,可以发送HTTP请求给服务端,并接收响应消息。cURL适用于接口调试。关于cURL详细信息请参见https://curl