检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
调用说明 SIS服务提供了两种接口,包含REST(Representational State Transfer)API,支持您通过HTTPS请求调用,调用方法请参见如何调用REST API。也包含WebSocket接口,支持Websocket协议,调用方法请参见如何调用WebSocket
选择“Window -> Preferences -> Java -> installed JREs”配置正确的JRE路径。 新建工程,在工程下建立一个文件(New -> Folder),命名为lib。将下载的jar包拷贝至lib中。 选中新建的工程,单击右键,下拉选择“Build Path ->
客户端与服务端交流流程如图1所示。 分为三个主要步骤: WebSocket握手。 基于WebSocket协议进行实时语音识别。 关闭WebSocket连接。 其中,基于WebSocket协议进行实时语音识别时,需要客户端首先发送转写开始消息,然后持续发送语音数据至服务端,最后发送
语音合成结果响应 音频流数据 时间戳数据 父主题: 实时语音合成响应
为什么WebSocket一直连接不成功 问题现象 由于在没连接成功前无法返回服务端任何信息,因此连接不成功需要多方面定位原因。 解决方案 1. 检查网络是否可用,能否连接互联网,检查url输入是否正确。 2. 检查Token是否可用,检查Token的方法参考调用语音交互的API显示auth
调用语音交互的API显示auth failed 问题现象 校验失败服务端通常是使用不正确的Token进行访问,可能产生的原因有多种。 解决方案 检查用户账号是否正常。 当用户账号存在未实名认证、未充值或者属于冻结状态。您可登录账号,在用户检查是否实名认证,是否有余额(以上信息在用户Console均可以查到)。
安全 责任共担 身份认证与访问控制 数据保护技术 服务韧性 监控安全风险
16k16bit单通道录音数据。 pcm8k16bit 8k16bit单通道录音数据。 ulaw16k8bit 16k8bit ulaw单通道录音数据。 ulaw8k8bit 8k8bit ulaw单通道录音数据。 alaw16k8bit 16k8bit alaw单通道录音数据。 alaw8k8bit
实时语音识别请求 实时语音识别工作流程 开始识别 发送音频数据 结束识别 父主题: 实时语音识别接口
开发者可以使用java、python、c++等开发语言支持Websocket的对应软件包或库接口,与实时语音识别引擎握手连接,并发送语音数据和接收转写结果,最后关闭Websocket连接。 获取Websocket握手请求wss-URI请参见Websocket握手请求。 获取实时
出现错误响应时,如果已经在一个会话中了,会再发送一个“结束识别”的响应,表示识别会话结束。如果会话还没有开始,那么发送此错误响应后不做其它操作。此后的音频数据都被忽略,直到收到下一个“开始识别”请求。 响应消息 表1 响应参数 参数名 参数类型 说明 resp_type String 响应类型。参数值为ERROR,表示错误响应。
进行日常管理工作,而是创建用户并使用他们进行日常管理工作。 用户 由账号在IAM中创建的用户,是云服务的使用人员,具有身份凭证(密码和访问密钥)。 在我的凭证下,您可以查看账号ID和用户ID。通常在调用API的鉴权过程中,您需要用到账号、用户和密码等信息。 区域(Region)
ectID}/rasr/sentence-stream`; // 替换 endpoint 和 projectID // 读取音频文件内容 const fs = require('fs'); let data = fs.readFileSync(audioPath);