检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
华为云SIS服务支持调用一句话识别、录音文件识别、实时语言识别、语音合成接口等。用户通过调用语音识别类接口,将口述音频、普通话或者带有一定方言的语音文件识别成可编辑的文本,同时也支持通过调用语音合成接口将文本转换成逼真的语音等。
实时语音识别 支持“华北-北京四”、“华东-上海一”区域。 当前服务仅支持北京和上海区域,后续会陆续上线其他区域。 华北-北京四,推荐的区域,支持一句话识别、录音文件识别、实时语音识别和语音合成和热词等接口。
result 是 Object 调用成功表示识别结果,详见表6。 表6 Result 参数名称 是否必选 参数类型 描述 text 是 String 识别结果。 score 是 Float 识别结果的置信度(0-1之间)。
result Object 调用成功表示识别结果,调用失败时无此字段。 请参考表7。 表7 Result 参数名 参数类型 说明 text String 识别结果。 score Float 识别结果的置信度,取值范围:0~1。
实时语音识别工作流程 实时语音识别分为开始识别、发送音频数据、结束识别,断开连接四个阶段。 开始阶段需要发送开始指令,包含采样率,音频格式,是否返回中间结果等配置信息。服务端会返回一个开始响应。
property 是 String 属性字符串,language_sampleRate_domain, 如chinese_8k_common,参见《API参考》中开始识别章节。
支持哪些语言 录音文件识别、语音合成支持中文普通话。 一句话识别和实时语音识别支持中文普通话,带方言口音的普通话和方言(四川话、粤语和上海话)。 父主题: 产品咨询类
Python3语言请求代码示例 # -*- coding: utf-8 -*- # 此demo仅供测试使用,强烈建议使用sdk。
使用实时语音识别 前提条件 确保已按照配置CPP环境(Linux)配置完毕。 请参考SDK(websocket)获取最新版本SDK包。
实时语音识别接口 接口说明 Websocket握手请求 实时语音识别请求 实时语音识别响应
华东-上海一,推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口。
一句话识别 http接口 websocket接口
实时语音识别响应 开始识别请求响应 事件响应 识别结果响应 错误响应 严重错误响应 结束识别请求响应 父主题: 实时语音识别接口
如果检测语音结尾的静音时长大于等于此值时,在实时语音识别单句模式下将返回VOICE_END(识别结果非空)或EXCEEDED_SILENCE(识别结果为空)事件并结束识别,在连续模式下将会断句并继续下一句的识别。
Python3语言请求代码示例 # -*- coding: utf-8 -*- # 此demo仅供测试使用,强烈建议使用sdk。
实时语音识别请求 实时语音识别工作流程 开始识别 发送音频数据 结束识别 父主题: 实时语音识别接口
父主题: 实时语音识别响应
true:表示取消识别,也即丢弃识别中和未识别的语音数据并结束,不返回剩余的识别结果。 false:表示继续处理识别中和未识别的语音数据直到处理完所有之前发送的数据。 默认是false。
请确保音频位宽为16bit,目前仅支持16bit位宽的音频,如果低于该位宽的音频,则无法正常识别。 父主题: API使用类
父主题: 实时语音识别响应