检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
配置CPP环境(Linux) c++版本需要在11及以上 cmake版本需要在3.14及以上 gcc-c++ 版本需要在5.4.0及以上 Linux版本CPP SDK依赖g++,cmake,此三项需要提前在机器安装,才能完成sdk编译和运行. CentOS yum install
账户创建企业项目后,在传参时,有以下三类场景。 携带正确的ID,正常使用SIS服务,账单归到企业ID对应的企业项目中。 携带错误的ID,正常使用SIS服务,账单的企业项目会被分类为“default”。 不携带ID,正常使用SIS服务,账单的企业项目会被分类为“default”。 请求示例(伪码) wss:/
onVoiceStart(); 单句模式下,响应VOICE_START事件,表示检测到语音,此时IVR可以做打断(连续模式可忽略)。 void onVoiceEnd(); 单句模式下,响应VOICE_END事件,表示一句话结束,后续的音频将被忽略,不会再进行识别(连续模式可忽略)。 void
响应参数 结果响应类为RASRResponse,详见表2。调用失败处理方法请参见错误码。 表2 RASRResponse 参数名 参数类型 说明 respType String 参数值为RESULT,表示识别结果响应。 traceId String 服务内部的令牌,可用于在日志中追溯具体流程。
账户创建企业项目后,在传参时,有以下三类场景。 携带正确的ID,正常使用SIS服务,账单归到企业ID对应的企业项目中。 携带错误的ID,正常使用SIS服务,账单的企业项目会被分类为“default”。 不携带ID,正常使用SIS服务,账单的企业项目会被分类为“default”。 请求示例(伪码) wss:/
CPP SDK(Linux) 使用实时语音识别 使用实时语音合成
考》中开始识别章节。 通过set方法可以设置具体参数,详见表 RasrRequest设置参数 表3 RasrRequest设置参数 方法名称 是否必选 参数类型 描述 SetPunc 否 String 表示是否在识别结果中添加标点,取值为yes 、 no,默认no。 SetDigitNorm
否 String 设置采样率:8000、16000,默认8000。 SetPitch 否 Integer 设置音高,-500~500,默认0。 SetVolume 否 Integer 设置音量,0~100,默认50。 SetSpeed 否 Integer 设置语速,-500~500,默认0。
严重错误,通常指流程无法继续的情况。出现严重错误响应时,流程不再继续,服务器端会主动断连。 响应消息 表1 响应参数 名称 参数类型 说明 resp_type String 响应类型。参数值为FATAL_ERROR,表示此次合成发生不可恢复的错误。 trace_id String 服务内部的令牌,可用于在日志中追溯具体流程。
不支持ip方式调用,url长度小于2048字节。服务请求方法为Post方式,请求体为Json格式。 如果用户使用回调方式获取识别结果,需提交该参数,处理成功后用户服务器需返回状态码为200。 如果用户使用轮询方式获取识别结果,则无需提交该参数。 needAnalysisInfo 否 Boolean
出现严重错误响应时,流程不再继续,服务器端会主动断连。 响应消息 表1 响应参数 参数名 参数类型 说明 resp_type String 响应类型。参数值为FATAL_ERROR,表示开始识别响应。 trace_id String 服务内部的令牌,可用于在日志中追溯具体流程。
什么是语音交互服务 语音交互服务(Speech Interaction Service,简称SIS)是一种人机交互方式,用户通过实时访问和调用API获取语音交互结果。例如用户通过语音识别功能,将口述音频或者语音文件识别成可编辑的文本,同时也支持通过语音合成功能将文本转换成逼真的语
式的音频。 语音合成(Text To Speech ,TTS服务)服务的音频格式则根据接口中audio_format参数设置的语音格式为准。若audio_format的值设置为wav,则解码后输出为wav格式,如果设置为mp3,则解码后输出mp3格式。 父主题: 产品咨询类
事件响应 服务器端检测到某些事件时,会给出如下响应消息,以json字符串形式放置在text message中。 响应消息 表1 响应参数 参数名 参数类型 说明 resp_type String 响应类型。参数值为EVENT,表示开始识别响应。 trace_id String 服
提供的一种在 TCP 连接上进行全双工通讯协议的 API, 但 WebSocket API 不支持设置 Headers,如需设置 Headers, 建议通过 Nginx 配置反向代理设置 Header; 或者由后端发起 Websocket 请求。 HTML5 WebSocket API
表示是否在识别结果中输出分词结果信息,取值为“yes”和“no”,默认为“no”。 响应参数 Python SDK响应结果为Json格式,详见表4。调用失败处理方法请参见错误码。 表4 响应结果 参数名称 是否必选 参数类型 描述 resp_type 是 String 参数值为RESULT,表示识别结果响应。
回中间结果等配置信息。服务端会返回一个开始响应。 发送音频阶段客户端会分片发送音频数据,服务会返回识别结果或者其他事件,如音频超时,静音部分过长等。 音频发送结束后,客户端会发送结束请求,服务端会返回end响应。 实时语音识别必须客户端要主动断开连接。当服务端超过20s没有收到客
开始识别请求响应 由于WebSocket是全双工的,因此响应就是从服务器端发送给客户端的消息,但也并不是所有的请求信息都有一条对应的响应。服务器端收到“开始识别”请求时,会给出如下响应消息,以json字符串形式放置在text message中。 响应消息 表1 响应参数 参数名 参数类型
返回状态正常,但识别结果为空 一般由于格式不匹配造成的。请按照以下情况进行排查。 1. 请确保音频格式和请求格式参数保持一致,音频采样率和选择“property”参数中采样率保持一致。 2. 请确保音频位宽为16bit,目前仅支持16bit位宽的音频,如果低于该位宽的音频,则无法正常识别。
接口说明 实时语音识别接口基于Websocket协议实现。分别提供了“流式一句话”、“实时语音识别连续模式”、“实时语音识别单句模式”三种模式。 三种模式的握手请求wss-URI不同,基于Websocket承载的实时语音识别请求和响应的消息格式相同。 开发者可以使用java、py