检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
实时语音识别工作流程 实时语音识别分为开始识别、发送音频数据、结束识别,断开连接四个阶段。 开始阶段需要发送开始指令,包含采样率,音频格式,是否返回中间结果等配置信息。服务端会返回一个开始响应。 发送音频阶段客户端会分片发送音频数据,服务会返回识别结果或者其他事件,如音频超时,静音部分过长等。
实时语音识别连续模式 功能介绍 连续识别模式的语音总长度限制为五小时,适合于会议、演讲和直播等场景。 连续识别模式在流式识别的基础上,结合了语音的端点检测功能。语音数据也是分段输入,但是连续识别模式将会在处理数据之前进行端点检测,如果是语音才会进行实际的解码工作,如果检测到静音,
识别结果响应 服务端在收到客户端发送的连续音频数据后, 当服务端识别出结果后会实时向客户端按句推送识别结果响应消息, 以json字符串形式放置在text message中。 响应消息 表1 响应参数 参数名 参数类型 说明 resp_type String 响应类型。参数值为RESULT,表示识别结果响应。
如何查看实时语音识别的中间结果 实时语音识别分为开始识别、发送音频数据、结束识别,断开连接四个阶段。在使用API或SDK时,可以通过将interim_results参数设置为yes,将识别过程的中间结果返回。如果设置为no,则会等每句话完毕才会返回识别结果。详细参数说明请见实时语音识别。
实时语音合成 前提条件 确保已按照配置Python环境配置完毕,Python SDK仅支持Python3。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化RttsClient详见表 RttsClient初始化参数。 表1 RttsClient初始化参数
与其他云服务的关系 SIS服务与周边其他服务的关系如图1所示。 图1 SIS与其他服务的关系图 统一身份认证服务 统一身份认证(Identity and Access Management,简称IAM)服务,IAM为语音交互服务提供了用户认证和鉴权功能。 对象存储服务 SIS服务接口支持从对象存储服务(Object
SIS.0304报错 问题现象 客户端长时间没有发送语音,服务端超过20s没有收到语音,就会报这个错误。 解决方案 1. 检查代码是否存在发送音频后睡眠过多时间。 2. 检查是否发送end请求,是否关闭客户端。超过20s没有发送数据同时也没有断开连接,就会报该错误。在使用完毕后一定要记得断开与服务端连接。
什么是区域与可用区 什么是区域、可用区 我们用区域和可用区来描述数据中心的位置,您可以在特定的区域、可用区创建资源。 区域(Region):从地理位置和网络时延维度划分,同一个Region内共享弹性计算、块存储、对象存储、VPC网络、弹性公网IP、镜像等公共服务。Region分为
语音交互服务需要申请什么权限 语音交互服务本身无权限限制,用户不需要额外添加任何权限,即可对语音交互服务执行操作。 但是如下场景除外: 当用户需要使用录音文件识别功能时,需要用户具有主账号或者Security Administrator的权限。 因为录音文件保存在用户的OBS(Object
一句话识别 前提条件 确保已经按照配置好iOS开发环境。 已经保存好1分钟内音频文件,建议使用16k16bit进行录音并保存为wav格式。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化SASRClient,参数为AuthInfo,详见表1。
错误码 调用接口出错后,将不会返回结果数据。调用方可根据每个接口对应的错误码来定位错误原因。当调用出错时,HTTPS请求返回一个 4xx 或 5xx 的 HTTPS状态码。返回的消息体中是具体的错误代码及错误信息。在调用方找不到错误原因时,可以联系华为云客服,并提供错误码,以便尽快帮您解决问题。
SIS.0535报错 问题描述 使用SDK调用录音文件识别时一直返回"SIS.0535",错误信息显示为:"Audio format is invalid!" 解决方案 确保设置的audio_format格式的值是合法,即设置的格式是表1中的格式。 确保待识别音频的格式和接口参数
SIS.0032报错 问题描述 为何调用一句话识别的api接口,返回错误码"SIS.0032",错误信息为:"'audio_format' is invalid"? 解决方案 确保设置的audio_format格式的值是合法,待识别的音频格式和audio_format参数格式要保证一致。
语音合成结果响应 音频流数据 时间戳数据 父主题: 实时语音合成响应
安全 责任共担 身份认证与访问控制 数据保护技术 服务韧性 监控安全风险
实时语音识别请求 实时语音识别工作流程 开始识别 发送音频数据 结束识别 父主题: 实时语音识别接口
语音合成(webSocket版) 前提条件 确保已经按照配置好Android开发环境。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化RttsClient,其中参数包含AuthInfo和SisHttpConfig和RttsResponseLi
责任共担 华为云秉承“将公司对网络和业务安全性保障的责任置于公司的商业利益之上”。针对层出不穷的云安全挑战和无孔不入的云安全威胁与攻击,华为云在遵从法律法规业界标准的基础上,以安全生态圈为护城河,依托华为独有的软硬件优势,构建面向不同区域和行业的完善云服务安全保障体系。 安全性是华为云与您的共同责任,如图1所示。
语音合成 前提条件 确保已按照配置Java环境配置完毕。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化TtsCustomizationClient,其参数包括AuthInfo和SisConfig。 表1 AuthInfo 参数名称 是否必选
如何调用WebSocket API 前提条件 在调用实时语音识别的Websocket接口之前,您需要完成Token认证,详细操作指导请参见认证鉴权。 接口使用介绍 实时语音识别接口使用Websocket协议承载,客户端与服务端交流流程如图1所示。 分为三个主要步骤: WebSocket握手。