检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如何查看实时语音识别的中间结果 实时语音识别分为开始识别、发送音频数据、结束识别,断开连接四个阶段。在使用API或SDK时,可以通过将interim_results参数设置为yes,将识别过程的中间结果返回。如果设置为no,则会等每句话完毕才会返回识别结果。详细参数说明请见实时语音识别
实时语音合成 前提条件 确保已按照配置Python环境配置完毕,Python SDK仅支持Python3。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化RttsClient详见表 RttsClient初始化参数。 表1 RttsClient初始化参数
与其他云服务的关系 SIS服务与周边其他服务的关系如图1所示。 图1 SIS与其他服务的关系图 统一身份认证服务 统一身份认证(Identity and Access Management,简称IAM)服务,IAM为语音交互服务提供了用户认证和鉴权功能。 对象存储服务 SIS服务接口支持从对象存储服务
SIS.0304报错 问题现象 客户端长时间没有发送语音,服务端超过20s没有收到语音,就会报这个错误。 解决方案 1. 检查代码是否存在发送音频后睡眠过多时间。 2. 检查是否发送end请求,是否关闭客户端。超过20s没有发送数据同时也没有断开连接,就会报该错误。在使用完毕后一定要记得断开与服务端连接
什么是区域与可用区 什么是区域、可用区 我们用区域和可用区来描述数据中心的位置,您可以在特定的区域、可用区创建资源。 区域(Region):从地理位置和网络时延维度划分,同一个Region内共享弹性计算、块存储、对象存储、VPC网络、弹性公网IP、镜像等公共服务。Region分为通用
语音交互服务需要申请什么权限 语音交互服务本身无权限限制,用户不需要额外添加任何权限,即可对语音交互服务执行操作。 但是如下场景除外: 当用户需要使用录音文件识别功能时,需要用户具有主账号或者Security Administrator的权限。 因为录音文件保存在用户的OBS(Object
一句话识别 前提条件 确保已经按照配置好iOS开发环境。 已经保存好1分钟内音频文件,建议使用16k16bit进行录音并保存为wav格式。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化SASRClient,参数为AuthInfo,详见表1。
websocket接口 功能介绍 一句话识别websocket接口支持识别1min以内的音频,交互过程如图 客户端和服务端交互流程所示,主要分为开始识别、发送音频数据,结束识别、断开连接四个步骤。 websocket接口同http接口一致按次计费,只要建立连接成功,发送音频,服务开始识别
错误码 调用接口出错后,将不会返回结果数据。调用方可根据每个接口对应的错误码来定位错误原因。当调用出错时,HTTPS请求返回一个 4xx 或 5xx 的 HTTPS状态码。返回的消息体中是具体的错误代码及错误信息。在调用方找不到错误原因时,可以联系华为云客服,并提供错误码,以便尽快帮您解决问题
SIS.0535报错 问题描述 使用SDK调用录音文件识别时一直返回"SIS.0535",错误信息显示为:"Audio format is invalid!" 解决方案 确保设置的audio_format格式的值是合法,即设置的格式是表1中的格式。 确保待识别音频的格式和接口参数中设置的
SIS.0032报错 问题描述 为何调用一句话识别的api接口,返回错误码"SIS.0032",错误信息为:"'audio_format' is invalid"? 解决方案 确保设置的audio_format格式的值是合法,待识别的音频格式和audio_format参数格式要保证一致
语音合成结果响应 音频流数据 时间戳数据 父主题: 实时语音合成响应
开始识别 功能介绍 当wss握手请求收到成功响应后,客户端到服务端的通信协议会升级为Websocket协议。通过Websocket协议,客户端发送开始识别请求,用于配置实时语音识别的配置信息。 请求消息 表1 参数说明 参数名 是否必选 参数类型 说明 command 是 String
安全 责任共担 身份认证与访问控制 数据保护技术 服务韧性 监控安全风险
http接口 功能介绍 一句话识别接口,用于短语音的同步识别。一次性上传1min以内音频,能快速返回识别结果。该接口的使用限制请参见约束与限制,详细使用指导请参见SIS服务使用简介章节。 SIS服务控制台提供了一句话识别的在线使用页面,用户无需编程即可使用服务功能。 图1 在线使用
实时语音识别请求 实时语音识别工作流程 开始识别 发送音频数据 结束识别 父主题: 实时语音识别接口
语音合成(webSocket版) 前提条件 确保已经按照配置好Android开发环境。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化RttsClient,其中参数包含AuthInfo和SisHttpConfig和RttsResponseListener
语音合成 前提条件 确保已按照配置Java环境配置完毕。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化TtsCustomizationClient,其参数包括AuthInfo和SisConfig。 表1 AuthInfo 参数名称 是否必选
如何调用WebSocket API 前提条件 在调用实时语音识别的Websocket接口之前,您需要完成Token认证,详细操作指导请参见认证鉴权。 接口使用介绍 实时语音识别接口使用Websocket协议承载,客户端与服务端交流流程如图1所示。 分为三个主要步骤: WebSocket
接口说明 实时语音识别接口基于Websocket协议实现。分别提供了“流式一句话”、“实时语音识别连续模式”、“实时语音识别单句模式”三种模式。 三种模式的握手请求wss-URI不同,基于Websocket承载的实时语音识别请求和响应的消息格式相同。 开发者可以使用java、python