检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
开始语音合成请求 功能介绍 客户端与语音合成引擎建立Websocket连接后,可以发送开始语音合成请求进行语音合成。如果客户端基于该Websocket连接发送多次合成请求,需在每次请求重新建立websocket连接,一次连接只能处理一次合成请求。 请求消息 表1 参数说明 名称 参数类型
语音合成后能否返回播放时长 不能,当前语音合成无此参数。若需要知道语音时长,可以将返回语音数据解码转换成音频格式,播放后查看。 父主题: 产品咨询类
录音文件极速版 前提条件 确保已按照配置Python环境配置完毕,Python SDK仅支持Python3。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化FlashLasrClient详见表
实时语音合成 前提条件 确保已按照配置Python环境配置完毕,Python SDK仅支持Python3。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化RttsClient详见表 RttsClient初始化参数。 表1 RttsClient初始化参数
一句话识别Http接口 前提条件 确保已按照配置Python环境配置完毕,Python SDK仅支持Python3。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化A
实时语音识别 前提条件 确保已按照配置Python环境配置完毕,Python SDK仅支持Python3。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化RasrClient详见表
一句话识别(websocket版) 前提条件 确保已经按照配置好Android开发环境。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化SasrWsClient,其中参数包含AuthInfo,SisHttpConfig,SasrWsRespo
实时语音识别连续模式 前提条件 确保已经按照配置好Android开发环境。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化RasrClient,其中参数包含AuthInfo,SisHttpCnfig,RasrResponseListener,
语音合成(webSocket版) 前提条件 确保已经按照配置好Android开发环境。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化RttsClient,其中参数包含AuthInfo和SisHttpConfig和RttsResponseLi
使用实时语音识别 前提条件 确保已按照配置CPP环境(Windows)配置完毕。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化RasrClient,其参数包括AuthInfo。 表1 AuthInfo 参数名称 是否必选 参数类型 描述 ak
使用实时语音识别 前提条件 确保已按照配置CPP环境(Linux)配置完毕。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化RasrClient,其参数包括AuthInfo 表1 AuthInfo 参数名称 是否必选 参数类型 描述 ak 是
为什么会出现识别结果非常差的情况 问题现象 调用语音识别接口,识别结果同真实结果差别很大,或者服务端报音频格式错误。 解决方案 检查音频采样率是否符合。 对于裸音频,可采用toolsoft Audio player等工具进行试听,通过设置不同的采样率,播放正常的即为音频正常采样率。
示例音频 测试音频如表 示例音频所示,音频文件标题表示采样率和位宽。如8k16bit.pcm表示音频采样率为8k,位宽为16bit。 表1 示例音频 音频格式 下载链接 mp3 https://sis-sample-audio.obs.cn-north-1.myhuaweicloud
示例音频 测试音频如表 示例音频所示,音频文件标题表示采样率和位宽。如8k16bit.pcm表示音频采样率为8k,位宽为16bit。 表1 示例音频 音频格式 下载链接 mp3 https://sis-sample-audio.obs.cn-north-1.myhuaweicloud
语音合成(http版) 前提条件 确保已经按照配置好Android开发环境。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化SisClient,详细信息如下。 配置客户端连接参数。 默认配置 // 使用默认配置 HttpConfig config
一句话识别(http版) 前提条件 确保已经按照配置好Android开发环境。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化SisClient,详细信息如下。 配置客户端连接参数。 默认配置 // 使用默认配置 HttpConfig config
语音合成 前提条件 确保已按照配置Java环境配置完毕。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化TtsCustomizationClient,其参数包括AuthInfo和SisConfig。 表1 AuthInfo 参数名称 是否必选
录音文件识别 前提条件 确保已按照配置Python环境配置完毕,Python SDK仅支持Python3。 确保已存在待识别的音频文件并上传OBS或者有公网可访问服务器上(需保证可使用域名访问),示例音频可参考下载SDK压缩包文件。如果音频存放在OBS上,确保服务已授权访问OBS,可参考配置OBS服务。
使用实时语音合成 前提条件 确保已按照配置CPP环境(Windows)配置完毕。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化RttsClient,其参数包括AuthInfo 表1 AuthInfo 参数名称 是否必选 参数类型 描述 ak
接口说明 实时语音识别接口基于Websocket协议实现。分别提供了“流式一句话”、“实时语音识别连续模式”、“实时语音识别单句模式”三种模式。 三种模式的握手请求wss-URI不同,基于Websocket承载的实时语音识别请求和响应的消息格式相同。 开发者可以使用java、py