检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
户通过实时访问和调用API获取语音交互结果。华为云SIS服务支持调用一句话识别、录音文件识别、实时语言识别、语音合成接口等。用户通过调用语音识别类接口,将口述音频、普通话或者带有一定方言的语音文件识别成可编辑的文本,同时也支持通过调用语音合成接口将文本转换成逼真的语音等。适用场景
0版本,新增以下章节: 录音文件极速版 2020-08-20 SDK发布1.3.0版本,修改以下章节: Java SDK Python SDK 2020-07-17 新增“digit_norm”字段,修改以下章节: 一句话识别 录音文件识别 实时语音识别 2020-04-21 新增: 热词管理章节 2019-11-29
域,当前支持的区域请参见地区与终端节点。 华北-北京四,为推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口。 华东-上海一,推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口。 父主题: 区域与可用区
实时语音识别工作流程 实时语音识别分为开始识别、发送音频数据、结束识别,断开连接四个阶段。 开始阶段需要发送开始指令,包含采样率,音频格式,是否返回中间结果等配置信息。服务端会返回一个开始响应。 发送音频阶段客户端会分片发送音频数据,服务会返回识别结果或者其他事件,如音频超时,静音部分过长等。
当前服务仅支持北京和上海区域,后续会陆续上线其他区域。 华北-北京四,推荐的区域,支持一句话识别、录音文件识别、实时语音识别和语音合成和热词等接口。 华东-上海一,推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口。 音频采样率8KHz或者16KHz,采样位数8bit或者16bit。
当前服务仅支持北京和上海区域,后续会陆续上线其他区域。 华北-北京四,推荐的区域,支持一句话识别、录音文件识别、实时语音识别和语音合成和热词等接口。 华东-上海一,推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口。 支持pcm16k16bit、pcm8k16bit
当前服务仅支持北京和上海区域,后续会陆续上线其他区域。 华北-北京四,推荐的区域,支持一句话识别、录音文件识别、实时语音识别和语音合成和热词等接口。 华东-上海一,推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口。 支持中文、英文、中英文,文本不长于500个字符。
见《API参考》中语音合成章节。 saved 否 Boolean 是否选择合成的音频数据保存到本地,默认不保存。 saved_path 否 String 选择保存到本地的路径,需要具体到音频文件,如D:/test.wav。 响应参数 Python SDK响应结果为Json格式,详见表4。调用失败处理方法请参见错误码。
支持哪些语言 录音文件识别、语音合成支持中文普通话。 一句话识别和实时语音识别支持中文普通话,带方言口音的普通话和方言(四川话、粤语和上海话)。 父主题: 产品咨询类
Boolen 是否取消返回识别结果。 true:表示取消识别,也即丢弃识别中和未识别的语音数据并结束,不返回剩余的识别结果。 false:表示继续处理识别中和未识别的语音数据直到处理完所有之前发送的数据。 默认是false。 示例 { "command": "END", "cancel":
结束识别请求响应 服务器端收到“结束识别”请求时或语音识别过程中发生错误,服务端会向客户端推送如下响应消息,以json字符串形式放置在text message中。 响应消息 表1 响应参数 参数名 参数类型 说明 resp_type String 响应类型。参数值为END,表示结束识别响应。
可定制特定垂直领域的语言层模型,可识别更多专有词汇和行业术语,进一步提高识别准确率。 一句话识别 可以实现1分钟以内音频到文字的转换。对于用户上传的二进制音频格式数据,系统经过处理,生成语音对应的文字,支持的语言包含中文普通话、方言以及英语。方言当前支持四川话、粤语和上海话。 产品优势 高识别率 基于深度学
16k16bit单通道录音数据。 pcm8k16bit 8k16bit单通道录音数据。 ulaw16k8bit 16k8bit ulaw单通道录音数据。 ulaw8k8bit 8k8bit ulaw单通道录音数据。 alaw16k8bit 16k8bit alaw单通道录音数据。 alaw8k8bit
下载并安装Postman,Postman建议使用7.24.0版本。 下载华为云SIS服务Postman的配置文件。 配置文件下载地址:sis-postman.json。 如果浏览器显示文件内容,鼠标右键另存为JSON文件。 导入配置文件。 打开并登录Postman。 单击左上角“File > Import > Import
进一步使用。 解决方案 1. 建议用户使用Java或Python SDK,可参考SDK简介。 2. 使用html网页播放,新建一个html文件,如下填写内容,即可在浏览器播放。 <audio controls="controls" autobuffer="autobuffer"
如何查看实时语音识别的中间结果 实时语音识别分为开始识别、发送音频数据、结束识别,断开连接四个阶段。在使用API或SDK时,可以通过将interim_results参数设置为yes,将识别过程的中间结果返回。如果设置为no,则会等每句话完毕才会返回识别结果。详细参数说明请见实时语音识别。
客户端与服务端交流流程如图1所示。 分为三个主要步骤: WebSocket握手。 基于WebSocket协议进行实时语音识别。 关闭WebSocket连接。 其中,基于WebSocket协议进行实时语音识别时,需要客户端首先发送转写开始消息,然后持续发送语音数据至服务端,最后发送
一句话识别接口,用于短语音的同步识别。一次性上传整个音频,响应中即返回识别结果。 表3 录音文件识别接口说明 接口类型 说明 录音文件识别 录音文件识别接口,用于转写不超过5小时的音频。由于录音文件转写需要较长的时间,因此转写是异步的。 表4 语音合成接口说明 接口类型 说明 语音合成/实时语音合成
Programming Interface,应用程序编程接口)获取语音交互结果。例如用户通过语音识别功能,将口述音频、普通话或者带有一定方言的语音文件识别成可编辑的文本,同时也支持通过语音合成功能将文本转换成逼真的语音等提升用户体验。适用场景如语音客服质检、会议记录、语音短消息、有声读物、电话回访等。
语音合成结果响应 音频流数据 时间戳数据 父主题: 实时语音合成响应