检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
HUAWEICLOUD_SDK_AK和HUAWEICLOUD_SDK_SK。 std::string ak = GetEnv("HUAWEICLOUD_SDK_AK"); std::string sk = GetEnv("HUAWEICLOUD_SDK_SK"); string
实时语音识别工作流程 实时语音识别分为开始识别、发送音频数据、结束识别,断开连接四个阶段。 开始阶段需要发送开始指令,包含采样率,音频格式,是否返回中间结果等配置信息。服务端会返回一个开始响应。 发送音频阶段客户端会分片发送音频数据,服务会返回识别结果或者其他事件,如音频超时,静音部分过长等。
实时语音识别 前提条件 确保已按照配置Python环境配置完毕,Python SDK仅支持Python3。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 初始化Client 初始化RasrClient详见表 RasrClient初始化参数。 表1 RasrClient初始化参数
实时语音识别 前提条件 确保已按照配置Java环境配置完毕。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 初始化Client 初始化RasrClient,其参数包括AuthInfo、RasrListener、SisConfig。 RasrListe
huaweicloud.sdk.core.utils.JsonUtils; import com.huaweicloud.sis.android.demo.R; import sis.android.sdk.RasrClient; import sis.android.sdk.bean.AuthInfo;
speech::huawei_asr::WebsocketService::ptr websocketServicePtr = websocketpp::lib::make_shared<speech::huawei_asr::WebsocketService>();
设置环境变量HUAWEICLOUD_SDK_AK和HUAWEICLOUD_SDK_SK。 let ak = ProcessInfo.processInfo.environment["HUAWEICLOUD_SDK_AK"]!
实时语音识别响应 开始识别请求响应 事件响应 识别结果响应 错误响应 严重错误响应 结束识别请求响应 父主题: 实时语音识别接口
发送音频数据 在收到“开始识别”的响应之后,可以开始发送音频数据。为节省流量,音频以二进制数据帧形式(binary message)的方式发送。 音频数据将分片发送,也即在获得一定量音频数据的同时就可以发送一个binary message,每个分片建议在50ms~1000ms之间
应用场景 该解决方案基于华为云语音交互服务语音识别构建,可自动将用户上传到对象存储服务的wav语音文件转化为文字,并将结果存放到指定OBS桶。该方案可以将用户上传在OBS的语音文件识别成可编辑的文本,支持中文普通话的识别和合成,其中语音识别还支持带方言口音的普通话识别以及方言(四川
实时语音识别接口 接口说明 Websocket握手请求 实时语音识别请求 实时语音识别响应
result_bucket_name String 是 OBS桶名称,全局唯一,用于存放语音识别结果。取值范围:3~63个字符,支持小写字母、数字、中划线(-)、英文句号(.)。 登录华为云解决方案实践,选择“语音识别解决方案”,单击“一键部署”,跳转至解决方案创建堆栈界面。 图1 选择模板 在选择模板界面中,单击“下一步”。
实时语音识别 支持“华北-北京四”、“华东-上海一”区域。 当前服务仅支持北京和上海区域,后续会陆续上线其他区域。 华北-北京四,推荐的区域,支持一句话识别、录音文件识别、实时语音识别和语音合成和热词等接口。 华东-上海一,推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口。
"command": "END", "cancel": false } 状态码 状态码请参见状态码。 错误码 错误码请参见错误码。 父主题: 实时语音识别请求
时序不正确,比如连续发送两次“开始识别”指令。 识别过程中发生错误,比如音频解码发生错误。 出现错误响应时,如果已经在一个会话中了,会再发送一个“结束识别”的响应,表示识别会话结束。如果会话还没有开始,那么发送此错误响应后不做其它操作。此后的音频数据都被忽略,直到收到下一个“开始识别”请求。 响应消息
实时语音识别请求 实时语音识别工作流程 开始识别 发送音频数据 结束识别 父主题: 实时语音识别接口
结束识别请求响应 服务器端收到“结束识别”请求时或语音识别过程中发生错误,服务端会向客户端推送如下响应消息,以json字符串形式放置在text message中。 响应消息 表1 响应参数 参数名 参数类型 说明 resp_type String 响应类型。参数值为END,表示结束识别响应。
chinese_16k_it 支持采样率为16k的IT会议语音识别。区域仅支持cn-north-4。 chinese_8k_common 支持采样率为8k的中文普通话语音识别。 chinese_16k_common 支持采样率为16k的中文普通话语音识别。 表4 audio_format取值范围
不会返回VOICE_START、VOICE_END、EXCEEDED_SILCENCE事件。 在实时语音识别单句模式下: 返回VOICE_START事件,表示检测到语音,此时IVR可以做打断。 返回VOICE_END事件后,表示一句话结束,后续的音频将被忽略,不会再进行识别。 只会返回最多一组VOICE_START和VOICE_END事件。
ByteString; import java.net.URL; /** * 此demo仅供测试使用,强烈建议使用SDK * 使用前需已配置okhttp、okio jar包。jar包可通过下载SDK获取。 */ public class RasrDemo { public void rasrDemo()