检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
返回结果 状态码 请求发送以后,您会收到响应,包含状态码、响应消息头和消息体。 状态码是一组从1xx到5xx的数字代码,状态码表示了请求响应的状态,完整的状态码列表请参见状态码。 对于SIS服务接口,如果调用后返回状态码为“200”,则表示请求成功。 响应消息头 对应请求消息头,
当用户需要使用录音文件识别功能时,需要用户具有主账号或者Security Administrator的权限。 因为录音文件保存在用户的OBS(Object Storage Service,对象存储服务)桶中。考虑到数据的安全,语音交互服务无法直接获取到用户数据,需要用户授权录音文件引擎读取用户OBS
服务当前处于商用还是免费阶段 当前语音交互服务在中国区已全部商用,使用该服务需要收费。详细的接口费用说明请参见计费说明。 父主题: 计费类
如何通过主账号创建一个子账号 语音交互服务服务不支持IAM细粒度划分策略,IAM账号与主账号具备相同的操作权限。 您可以使用IAM的用户管理功能,给员工或应用程序创建IAM用户,可避免分享自己的账号密码。详细创建步骤请参见创建IAM用户。 父主题: 权限类
of objects 识别结果, 多句结果的数组。 数据结构参见表5。 表5 Segment 参数名 是否必选 参数类型 说明 start_time 是 Integer 一句的起始时间戳,单位ms。 end_time 是 Integer 一句的结束时间戳,单位ms。 result 是
如何修改发音人 修改代码中property的取值即可,支持的发音人如表1和表2所示。 POST https://{endpoint}/v1/{project_id}/tts Request Header: Content-Type: application/json X-Auth-Token:
终端节点 终端节点即调用API的请求地址,不同服务不同区域的终端节点不同。 目前语音交互服务一句话识别、录音文件识别支持以下地区和终端节点: 当前服务仅支持北京和上海区域,后续会陆续上线其他区域。 华北-北京四,推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口。
使用流程简介 用户通过调用SIS服务提供的API或SDK,进行语音转文本或语音合成任务,返回的结果需要您通过编码对接到业务系统中。 图1 使用流程
账户创建企业项目后,在传参时,有以下三类场景。 携带正确的ID,正常使用SIS服务,账单归到企业ID对应的企业项目中。 携带错误的ID,正常使用SIS服务,账单的企业项目会被分类为“default”。 不携带ID,正常使用SIS服务,账单的企业项目会被分类为“default”。 表3 请求Body参数
开始识别请求响应 由于WebSocket是全双工的,因此响应就是从服务器端发送给客户端的消息,但也并不是所有的请求信息都有一条对应的响应。服务器端收到“开始识别”请求时,会给出如下响应消息,以json字符串形式放置在text message中。 响应消息 表1 响应参数 参数名 参数类型
准备数据 数据要求 受技术与成本多种因素制约,SIS服务存在一些约束限制。详情请参考产品介绍中的约束与限制章节。
服务韧性 SIS提供三级可靠性架构,通过AZ之间容灾、AZ内实例冗余、实例健康检测等技术方案,保障服务的可靠性。 父主题: 安全
表1 HotWordClient初始化参数 参数名称 是否必选 参数类型 描述 ak 是 String 用户的ak,可参考AK/SK认证。 sk 是 String 用户的sk,可参考AK/SK认证。 region 是 String 区域,如:cn-north-4。具体请参考终端节点。
String 服务内部的令牌,可用于在日志中追溯具体流程。 segments Array of objects 多句结果。 请参考表 segment 数据结构。 表2 segment 数据结构 参数名 参数类型 说明 start_time Integer 相对时间戳,表示一句的起始,单位为ms。
服务内部的令牌,可用于在日志中追溯具体流程。 result List 时间戳信息 表2 result数据结构 名称 参数类型 说明 start_time Integer 文本对应的合成音频的开始时间戳,单位是ms。 end_time Integer 文本对应的合成音频的结束时间戳,单位是ms。
华北-北京四,推荐的区域,支持一句话识别、录音文件识别、实时语音识别和语音合成和热词等接口。 华东-上海一,推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口。 音频采样率8KHz或者16KHz,采样位数8bit或者16bit。 支持中文普通话、方言和英语的语音识别,其中方言包括:四川话、粤语和上海话。
支持“华北-北京四”、“华东-上海一”区域。 当前服务仅支持北京和上海区域,后续会陆续上线其他区域。 华北-北京四,推荐的区域,支持一句话识别、录音文件识别、实时语音识别和语音合成和热词等接口。 华东-上海一,推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口。 支持pcm16k1
严重错误,通常指流程无法继续的情况。出现严重错误响应时,流程不再继续,服务器端会主动断连。 响应消息 表1 响应参数 名称 参数类型 说明 resp_type String 响应类型。参数值为FATAL_ERROR,表示此次合成发生不可恢复的错误。 trace_id String 服务内部的令牌,可用于在日志中追溯具体流程。
一句话识别 可以实现1分钟以内音频到文字的转换。对于用户上传的二进制音频格式数据,系统经过处理,生成语音对应的文字,支持的语言包含中文普通话、方言以及英语。方言当前支持四川话、粤语和上海话。 产品优势 高识别率 基于深度学习技术,对特定领域场景的语音识别进行优化,识别率达到业界领先。
要实时反馈的情况下100ms,不需要实时反馈的情况下500ms。 结束识别 功能介绍 对于识别中的对话,需要在Websocket上发送“结束识别”的请求来取消或结束识别。 "结束识别"请求使用文本类型的数据帧(text message)发送,命令和参数以json字符串的形式提供。