检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
使用HTML5 Websocket API发送websocket请求如何携带token 浏览器 WebSocket API 是 HTML5 提供的一种在 TCP 连接上进行全双工通讯协议的 API, 但 WebSocket API 不支持设置 Headers,如需设置 Headers
如何调用WebSocket API 前提条件 在调用实时语音识别的Websocket接口之前,您需要完成Token认证,详细操作指导请参见认证鉴权。 接口使用介绍 实时语音识别接口使用Websocket协议承载,客户端与服务端交流流程如图1所示。 分为三个主要步骤: WebSocket握手。
header("X-Auth-Token", token).build(); WebSocket webSocket = okHttpClient.newWebSocket(request, new MyListener()); webSocket.send("{\"command\": \"START\"
如何使用Websocket调用实时语音识别 解决方案 1. 下载Java SDK 或 Python SDK,参考《SDK参考》中获取SDK章节。 2. 配置SDK环境,参考《SDK参考》中配置Java环境。 3. 使用SDK里的demo进行调用。参考Java SDK和Python
SDK(websocket) 下载SDK包 语音交互SDK软件包获取请参见表 下载SDK包。 示例音频参见示例音频。 当您使用过旧版本的Java SDK时,需要注意旧版本的SDK依赖的jar包与新版本SDK的jar包有无冲突。新版本SDK升级日志为log4j2,同时java-sdk-core升级到3
header("X-Auth-Token", token).build(); WebSocket webSocket = okHttpClient.newWebSocket(request, new MyListener()); webSocket.send("{\"command\": \"START\"
Websocket握手请求 流式一句话 实时语音识别连续模式 实时语音识别单句模式 父主题: 实时语音识别接口
连接超时,默认10000,单位ms。 readTimeout 否 Integer 读取超时,默认10000,单位ms。 websocketWaitTimeout 否 Integer webSocket返回数据时等待时间,默认20000,单位毫秒。 ProxyHostInfo 否 ProxyHostInfo
lost超时,一般在普通并发下,不需要设置此值。默认是10 config.set_connect_lost_timeout(10) # websocket暂时不支持使用代理 sasr_websocket_client = SasrWebsocketClient(ak=ak
一句话识别websocket版本参数设置,所有参数设置均为可选,均有默认值。用户根据需求设置参数。 * * @param request request请求,包含各种参数 */ private void setParameters(SasrWebsocketRequest
示auth failed 3. 检查协议是否支持,目前Websocket使用tls1.2协议,Websocket库使用tls1协议就无法连接。 4. 可使用Java SDK和Python SDK进行连接。 父主题: API使用类
header("X-Auth-Token", token).build(); WebSocket webSocket = okHttpClient.newWebSocket(request, new MyListener()); webSocket.send("{\"command\": \"START\"
onTranscriptionConnect() webSocket连接建立后回调。 void onTranscriptionClose(); webSocket连接关闭后回调 void onTranscriptionFail(AsrResponse var1); webSocket长连接连接失败是回调。
header("X-Auth-Token", token).build(); WebSocket webSocket = okHttpClient.newWebSocket(request, new MyListener()); webSocket.send("{\"command\": \"START\"
State Transfer)API,支持您通过HTTPS请求调用,调用方法请参见如何调用REST API。也包含WebSocket接口,支持Websocket协议,调用方法请参见如何调用WebSocket API。 调用所需示例音频参见示例音频。 调用接口的时候,无需开通服务
header("X-Auth-Token", token).build(); WebSocket webSocket = okHttpClient.newWebSocket(request, new MyListener()); webSocket.send("{\"command\": \"START\"
实时语音识别多人同时使用,如何区分各自识别结果 每个用户独立建立websocket连接,不可共用一个websocket连接。 父主题: API使用类
开始识别请求响应 由于WebSocket是全双工的,因此响应就是从服务器端发送给客户端的消息,但也并不是所有的请求信息都有一条对应的响应。服务器端收到“开始识别”请求时,会给出如下响应消息,以json字符串形式放置在text message中。 响应消息 表1 响应参数 参数名 参数类型
开始语音合成请求 功能介绍 客户端与语音合成引擎建立Websocket连接后,可以发送开始语音合成请求进行语音合成。如果客户端基于该Websocket连接发送多次合成请求,需在每次请求重新建立websocket连接,一次连接只能处理一次合成请求。 请求消息 表1 参数说明 名称 参数类型
什么是语音交互服务 语音交互服务(Speech Interaction Service,简称SIS)是一种人机交互方式,用户通过实时访问和调用API获取语音交互结果。例如用户通过语音识别功能,将口述音频或者语音文件识别成可编辑的文本,同时也支持通过语音合成功能将文本转换成逼真的语