检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
of objects 识别结果, 多句结果的数组。 数据结构参见表5。 表5 Segment 参数名 是否必选 参数类型 说明 start_time 是 Integer 一句的起始时间戳,单位ms。 end_time 是 Integer 一句的结束时间戳,单位ms。 result 是
nfo,详见表1。 表1 AuthInfo 参数名称 是否必选 参数类型 描述 ak 是 String 用户的ak,可参考AK/SK认证。 sk 是 String 用户的sk,可参考AK/SK认证。 region 是 String 区域,如cn-north-4,参考终端节点。 projectId
SIS支持通过企业项目管理(EPS)对不同用户组和用户的资源使用,进行分账。企业可以根据组织架构规划不同的企业项目,并为每个企业项目设置拥有不同权限的用户组和用户,多个企业项目之间相互独立,资源分开结算。 企业账号可申请开通企业项目。账号需要进行企业实名认证。如果企业账号注册成为华为云合作伙伴,将无法进入企业项目管理页面。
当前语音服务仅支持北京和上海区域,后续会陆续上线其他区域。 华北-北京四,推荐的区域。 华东-上海一,推荐的区域。 支持wav、mp3、m4a、acc、opus格式音频文件。 语音时长不超过120分钟,文件大小不超过100M。 支持从华为云对象存储服务(OBS)下载音频,需要用户提供OBS桶名和对象键值。
当前语音交互服务在中国区已全部商用,不需要申请,直接可以调用,调用会收费,计费方式详细请参考语音交互价格计算器。调用的详细操作请参考使用实时语音识别 。 登录华为云,单击右上角的“控制台”,进入“管理控制台”界面。 在左侧服务列表中选择“EI企业智能 > 语音交互服务”。 在语音交互服务
of objects 识别结果, 多句结果的数组。 数据结构参见表5。 表5 Segment 参数名 是否必选 参数类型 说明 start_time 是 Integer 一句的起始时间戳,单位ms。 end_time 是 Integer 一句的结束时间戳,单位ms。 result 是
format is invalid!" 解决方案 确保设置的audio_format格式的值是合法,即设置的格式是表1中的格式。 确保待识别音频的格式和接口参数中设置的audio_format参数格式一致。 表1 录音文件识别支持的音频格式 audioformat取值 说明 auto
16k16bit单通道录音数据。 pcm8k16bit 8k16bit单通道录音数据。 ulaw16k8bit 16k8bit ulaw单通道录音数据。 ulaw8k8bit 8k8bit ulaw单通道录音数据。 alaw16k8bit 16k8bit alaw单通道录音数据。 alaw8k8bit
n。具体信息请参见《API参考》中语音合成章节。 saved 否 Boolean 是否选择合成的音频数据保存到本地,默认不保存。 saved_path 否 String 选择保存到本地的路径,需要具体到音频文件,如D:/test.wav。 响应参数 Python SDK响应结果为
录音文件识别接口,用于转写不超过5小时的音频。由于录音文件转写需要较长的时间,因此转写是异步的。 表4 语音合成接口说明 接口类型 说明 语音合成/实时语音合成 语音合成,依托先进的语音技术,使用深度学习算法,将文本转换为自然流畅的语音。用户通过实时访问和调用API获取语音合成结果,将用户输入的文字合成为音
english_alvin_common发音人支持长度不大于10000字符的文本,其他发音人支持长度不大于500字符的文本。 config Object 否 配置信息。请参考表2。 表2 config数据结构 名称 参数类型 是否必选 说明 audio_format String
SDK)是对语音交互服务提供的REST API进行的封装,用户直接调用语音交互SDK提供的接口函数即可实现使用语音交互业务能力的目的,以简化用户的开发工作。SIS SDK目前支持Java和Python。 本章节提供了通过Java SDK调用一句话识别服务的样例,帮助用户快速了解如何使用Java
config数据结构。 表2 config数据结构 参数 是否必选 参数类型 说明 audio_format 是 String 支持语音的格式,请参见表 audio_format取值范围。 property 是 String 所使用的模型特征串。通常是 “语种_采样率_领域”的形式,例
三种模式。 三种模式的握手请求wss-URI不同,基于Websocket承载的实时语音识别请求和响应的消息格式相同。 开发者可以使用java、python、c++等开发语言支持Websocket的对应软件包或库接口,与实时语音识别引擎握手连接,并发送语音数据和接收转写结果,最后关闭Websocket连接。
ulaw三种编码格式。 amr AMR窄带(8k) 压缩录音数据。目前仅支持单通道的音频。 amrwb AMR 宽带(16k) 压缩录音数据。目前仅支持单通道的音频。 auto 由引擎自动判断音频数据的格式并解码,支持自动判断amr,flac,m4a,mp3,ogg,webm,wav,aac,
er。其中AuthInfo和SisHttpConfig的参数如表1所示。 表1 AuthInfo 参数名称 是否必选 参数类型 描述 ak 是 String 用户的ak,可参考AK/SK认证。 sk 是 String 用户的sk,可参考AK/SK认证。 serviceRegion
具体信息请参见《API参考》中语音合成章节。 isSaved 否 Boolean 是否选择合成的音频数据保存到本地,默认不保存。 savePath 否 String 选择保存到本地的路径。路径需具体到文件,如D:/test.wav。 响应参数 响应类为TtsCustomResp
其中,基于WebSocket协议进行实时语音识别时,需要客户端首先发送转写开始消息,然后持续发送语音数据至服务端,最后发送结束消息,在此期间客户端会持续收到服务端发送的转写结果或事件,客户端根据所收到的响应消息做对应处理。实时语音识别接口的具体细节请参见接口说明章节。 图1 客户端与服务端交流流程
analysis_info 否 AnalysisInfoResult object 每一句的质检分析结果对象。 仅在识别配置中的need_analysis_info不为null时存在该返回结果。数据结构参见analysisinfo数据表。 word_info 否 Array of WordInfo objects
错误响应,通常是指不影响流程,但当前会话无法再进行下去的错误,包括如下情况: 配置串错误,包括存在不识别的配置串,或者配置串值的范围不合法。 时序不正确,比如连续发送两次“开始识别”指令。 识别过程中发生错误,比如音频解码发生错误。 出现错误响应时,如果已经在一个会话中了,会再发送一个“结束识别”的响应,表示识别会话