检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
配置Android 环境 配置环境。 在使用语音交互SDK时,需要提前配置好android系统的开发环境,如表1所示。 表1 配置环境准备项 准备项 说明 JDK Java开发环境的基础配置。版本要求:推荐使用1.8版本。 Gradle 在Gradle官网上下载好之后,配置环境变量即可。推荐使用Gradle7
严重错误,通常指流程无法继续的情况。出现严重错误响应时,流程不再继续,服务器端会主动断连。 响应消息 表1 响应参数 名称 参数类型 说明 resp_type String 响应类型。参数值为FATAL_ERROR,表示此次合成发生不可恢复的错误。 trace_id String 服务内部的令牌,可用于在日志中追溯具体流程。
公共请求参数 公共请求参数如表 公共请求参数所示。 表1 公共请求参数 参数 是否必选 说明 示例 Content-type 是 发送的实体的MIME类型。 application/json Content-Length POST/PUT请求必填。 GET不能包含。 请求body长度,单位为Byte。
华北-北京四,推荐的区域,支持一句话识别、录音文件识别、实时语音识别和语音合成和热词等接口。 华东-上海一,推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口。 音频采样率8KHz或者16KHz,采样位数8bit或者16bit。 支持中文普通话、方言和英语的语音识别,其中方言包括:四川话、粤语和上海话。
支持“华北-北京四”、“华东-上海一”区域。 当前服务仅支持北京和上海区域,后续会陆续上线其他区域。 华北-北京四,推荐的区域,支持一句话识别、录音文件识别、实时语音识别和语音合成和热词等接口。 华东-上海一,推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口。 支持中文、英文、中英文,文本不长于500个字符。
支持哪些语言 录音文件识别、语音合成支持中文普通话。 一句话识别和实时语音识别支持中文普通话,带方言口音的普通话和方言(四川话、粤语和上海话)。 父主题: 产品咨询类
严重错误响应 严重错误,通常指流程无法继续的情况。比如当出现客户端分片音频间隔超时(例如20s)。 出现严重错误响应时,流程不再继续,服务器端会主动断连。 响应消息 表1 响应参数 参数名 参数类型 说明 resp_type String 响应类型。参数值为FATAL_ERROR,表示开始识别响应。
Python SDK,参考《SDK参考》中获取SDK章节。 2. 配置SDK环境,参考《SDK参考》中配置Java环境。 3. 使用SDK里的demo进行调用。参考Java SDK和Python SDK。 父主题: API使用类
实时语音识别分为开始识别、发送音频数据、结束识别,断开连接四个阶段。在使用API或SDK时,可以通过将interim_results参数设置为yes,将识别过程的中间结果返回。如果设置为no,则会等每句话完毕才会返回识别结果。详细参数说明请见实时语音识别。 父主题: API使用类
gcc sudo apt-get install g++ sudo apt-get install cmake 三方库安装 本SDK所依赖的三方库包含 - openssl - jsoncpp - websocketpp - glog - gflags - boost 依赖库均以源
用户通过调用API接口,将语音文件识别成可编辑的文本,然后返回JSON格式的识别结果,用户需要通过编码将识别结果对接到业务系统或保存为TXT、Excel等格式。 首次使用SIS 如果您是首次使用SIS的用户,建议您学习并了解如下信息: 功能介绍 通过功能介绍章节的内容,了解SIS不同功能的具体介绍,主要包括实时语音识别(Real-time
公共响应参数所示。 表1 公共响应参数 参数名 说明 Content-Length 响应消息体的字节长度,单位为Byte。 Date 系统响应的时间。 Content-type 发送的实体的MIME类型。 Upgrade 发送WebSocket握手请求时,响应消息包含该头域,内容为Websocket。
为什么录音文件识别出现重复转写结果 调用语音交互的API显示auth failed 调用语音交互的API超时怎么处理(connect timeout) 为什么服务端返回OBS链接不可用(data url is unreachable) 语音合成的base64编码如何使用 录音文件识别多久可以返回结果
先发送转写开始消息,然后持续发送语音数据至服务端,最后发送结束消息,在此期间客户端会持续收到服务端发送的转写结果或事件,客户端根据所收到的响应消息做对应处理。实时语音识别接口的具体细节请参见接口说明章节。 图1 客户端与服务端交流流程
产品咨询类 什么是语音交互服务 支持哪些语言 语音合成后输出的音频格式是什么 是否支持离线使用 语音合成后能否返回播放时长 是否支持aac格式的语音文件转文字 如何查看当前接口是否免费调用
应。 trace_id String 服务内部的令牌,可用于在日志中追溯具体流程。 event String 具体的事件,详细参数可参见event取值范围及其说明。 timestamp Integer 保留字段。将来会用于此事件发生的具体时间,以会话开始作为0点,单位为ms。 event取值范围及其说明
获取录音文件识别结果API支持返回提交音频的时长。 CPP SDK上线。 2022-06-08 新增: 实时语音合成支持温柔女声、朝气男声精品发音人。 2022-05-31 新增: 语音合成新增朝气男声发音人。 2022-02-15 新增: 录音文件识别输入参数兼容公网访问的url。 2021-08-28
websocket-client 进入下载的Python SDK目录,在setup.py所在层目录执行 python setup.py install 命令,完成SDK安装。 版本说明 websocket-client 在1.x版本以后,新增了onclose接口的入参,导致和之前旧版本不兼容。sdk1
统一身份认证 单击“创建用户”,并设置IAM账户的用户名、密码,创建IAM用户。 图2 创建用户 图3 设置用户名、密码 给子账户赋予admin权限。 图4 设置用户组 步骤2:使用IAM账户获取Token 以获取华北-北京四(cn-north-4)区域的Token为例。 POST https://iam
是 Object 连接时网络的配置类。 RasrResponseListener 是 Object webSocket回调过程中,业务逻辑的Listener。 RasrConnProcessListener 否 Object webSocket生命周期的Listener。 表2 AuthInfo