检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Token怎么获取 Token接口请求构造如下所示: username、domainname、project name可登录控制台“我的凭证”页面获取。password为用户密码。 如果您的华为云账号已升级为华为账号,将不支持获取Token。建议为您自己创建一个IAM用户,获取I
SDK(新版) 推荐使用新版SDK语音交互服务SDK,该SDK基于统一规范开发,支持Java/Python/C++/.NET/Go/NodeJs/PHP,使用方法可参考API Explorer。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能,但该
功能体验与试用 语音交互服务(Speech Interaction Service,SIS)支持语音识别、语音合成功能。适用语音客服质检、会议记录、语音短消息、有声读物、电话回访等场景。 在使用服务前,请先使用SIS体验中心体验服务功能。该方式无需编程,只需在网页端上传文字或音频,即可体验合成效果。
为什么会出现识别结果非常差的情况 问题现象 调用语音识别接口,识别结果同真实结果差别很大,或者服务端报音频格式错误。 解决方案 检查音频采样率是否符合。 对于裸音频,可采用toolsoft Audio player等工具进行试听,通过设置不同的采样率,播放正常的即为音频正常采样率。
录音文件识别极速版接口 功能介绍 录音文件识别极速版接口,用于录音文件的同步识别。音频需要上传华为云OBS,提供华为云OBS对象地址,能快速返回识别结果。该接口的使用限制请参见约束与限制,详细使用指导请参见SIS服务使用简介章节。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API
APIG.0201报错 如果调用API时返回错误信息与错误码:"error_msg":"Backend timeout.","error_code":"APIG.0201",表示请求超时。 您可以尝试以下方案进行解决。 使用Postman等工具直接调用服务,查看是否成功,如果调用
SDK简介 语音交互概述 语音交互服务(Speech Interaction Service,简称SIS)是一种人机交互方式,用户通过实时访问和调用API获取语音交互结果。支持用户通过语音识别功能,将口述音频、普通话或者带有一定方言的语音文件识别成可编辑的文本,同时也支持通过语音
什么是语音交互服务 语音交互服务(Speech Interaction Service,简称SIS)是一种人机交互方式,用户通过实时访问和调用API获取语音交互结果。例如用户通过语音识别功能,将口述音频或者语音文件识别成可编辑的文本,同时也支持通过语音合成功能将文本转换成逼真的语
语音交互服务使用简介 语音交互服务(Speech Interaction Service,简称SIS)是一种人机交互方式,用户通过实时访问和调用API获取语音交互结果。华为云SIS服务支持调用一句话识别、录音文件识别、实时语言识别、语音合成接口等。用户通过调用语音识别类接口,将口
http接口 功能介绍 一句话识别接口,用于短语音的同步识别。一次性上传1min以内音频,能快速返回识别结果。该接口的使用限制请参见约束与限制,详细使用指导请参见SIS服务使用简介章节。 SIS服务控制台提供了一句话识别的在线使用页面,用户无需编程即可使用服务功能。 图1 在线使用
公共请求参数 公共请求参数如表 公共请求参数所示。 表1 公共请求参数 参数 是否必选 说明 示例 Content-type 是 发送的实体的MIME类型。 application/json Content-Length POST/PUT请求必填。 GET不能包含。 请求body长度,单位为Byte。
API概览 SIS服务提供了两种接口,包含REST(Representational State Transfer)API,支持您通过HTTPS请求调用,请参见表1。也包含WebSocket接口,支持Websocket协议,请参见表2。 表1 REST API功能 接口 功能 API
Token与Project ID不匹配报错 获取Token时,出现the parameters of requesting token are wrong or project_id doesn't match the token报错。 检查获取Token过程中,请求url中的区
调用说明 SIS服务提供了两种接口,包含REST(Representational State Transfer)API,支持您通过HTTPS请求调用,调用方法请参见如何调用REST API。也包含WebSocket接口,支持Websocket协议,调用方法请参见如何调用WebSocket
如何查看实时语音识别的中间结果 实时语音识别分为开始识别、发送音频数据、结束识别,断开连接四个阶段。在使用API或SDK时,可以通过将interim_results参数设置为yes,将识别过程的中间结果返回。如果设置为no,则会等每句话完毕才会返回识别结果。详细参数说明请见实时语音识别。
返回状态正常,但识别结果为空 一般由于格式不匹配造成的。请按照以下情况进行排查。 1. 请确保音频格式和请求格式参数保持一致,音频采样率和选择“property”参数中采样率保持一致。 2. 请确保音频位宽为16bit,目前仅支持16bit位宽的音频,如果低于该位宽的音频,则无法正常识别。
语音合成(http版) 前提条件 确保已经按照配置好Android开发环境。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化SisClient,详细信息如下。 配置客户端连接参数。 默认配置 // 使用默认配置 HttpConfig config
实时语音识别单句模式 功能介绍 单句模式自动检测一句话的结束,因此适合于需要与您的系统进行交互的场景,例如外呼、控制口令等场景。 实时语音识别引擎的单句识别模式,和连续识别模式类似,也会进行语音的端点检测,如果检测到静音,将直接丢弃,检测到语音才会馈入核心进行实际的解码工作,如果
一句话识别(http版) 前提条件 确保已经按照配置好Android开发环境。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化SisClient,详细信息如下。 配置客户端连接参数。 默认配置 // 使用默认配置 HttpConfig config
实时语音识别连续模式 功能介绍 连续识别模式的语音总长度限制为五小时,适合于会议、演讲和直播等场景。 连续识别模式在流式识别的基础上,结合了语音的端点检测功能。语音数据也是分段输入,但是连续识别模式将会在处理数据之前进行端点检测,如果是语音才会进行实际的解码工作,如果检测到静音,