检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
流式一句话 功能介绍 流式一句话模式的语音长度限制为一分钟,适合于对话聊天等识别场景。 该接口支持用户将一整段语音分段,以流式输入,最后得到识别结果。实时语音识别引擎在获得分段的输入语音的同时,就可以同步地对这段数据进行特征提取和解码工作,而不用等到所有数据都获得后再开始工作。因
在idea官网上下载相应版本即可(也可使用Android Studio开发,根据自己爱好自行选择)。 将下载的 huaweicloud-android-sdk-sis-1.1.0.zip解压之后,使用idea打开该工程,根据指示,修改相关信息即可运行demo(目前该SDK仅支持在Android8 及以上版本系统中使用,推荐使用真机进行调试)。
Android SDK 一句话识别(http版) 一句话识别(websocket版) 实时语音识别连续模式 语音合成(http版) 语音合成(webSocket版)
huaweicloud.sis.android.demo.tts; import android.os.Bundle; import android.util.Log; import android.view.View; import android.widget.Button;
huaweicloud.sis.android.demo.tts; import android.os.Bundle; import android.os.Handler; import android.os.Message; import android.util.Log; import
huaweicloud.sis.android.demo.asr; import android.os.Bundle; import android.util.Log; import android.view.View; import android.widget.Button;
import android.view.MotionEvent; import android.view.View; import android.widget.Button; import android.widget.TextView; import android.widget.Toast;
配置Java环境 配置环境 在使用语音交互SDK时,需要准备的环境请参见表 开发环境。 目前Java SDK不支持在android中使用。 表1 开发环境 准备项 说明 操作系统 Windows系统,推荐Windows 7及以上版本。 JDK Java开发环境的基本配置。版本要求:强烈推荐使用1
Websocket握手请求 功能介绍 本接口提供实时流式语音合成。用户每次建立连接,发送待合成文本,服务端将合成结果响应给用户。一次连接只能发送一次文本,如果有多段文本需要合成,需要多次建立连接。实时语音合成和语音合成均属于语音合成接口,采用完全相同的计费规则,两者价格梯度可互相叠加,可参考价格计算器。
Websocket握手请求 流式一句话 实时语音识别连续模式 实时语音识别单句模式 父主题: 实时语音识别接口
VOICE_START 检测到句子开始。 VOICE_END 检测到句子结束。 EXCEEDED_SILENCE 静音超长,也即没有检测到声音。 在流式一句话模式下: 不会返回VOICE_START、VOICE_END、EXCEEDED_SILCENCE事件。 在实时语音识别单句模式下:
s-sdk-sis-1.1.1.zip Android https://sis-sdk-repository.obs.cn-north-1.myhuaweicloud.com:443/android/huaweicloud-android-sdk-sis-1.1.1.1.zip Cpp(Windows)
import android.os.Bundle; import android.os.Handler; import android.os.Message; import android.util.Log; import android.view.MotionEvent; import
甚至有可能在一次返回中包括了多段的识别结果。 由于引入了静音检测,连续识别模式通常会比流式识别能具有更高的效率,因为对于静音段将不会进行特征提取和解码操作,因而能更有效地利用CPU。而流式识别通常和客户端的端点检测功能相结合,只将检测到的有效语音段上传到服务器进行识别。 wss-URI
接口说明 实时语音识别接口基于Websocket协议实现。分别提供了“流式一句话”、“实时语音识别连续模式”、“实时语音识别单句模式”三种模式。 三种模式的握手请求wss-URI不同,基于Websocket承载的实时语音识别请求和响应的消息格式相同。 开发者可以使用java、py
把语言模型、词典和声学模型统一集成为一个大的神经网络,同时在工程上进行了大量的优化,大幅提升解码速度,使识别速度在业内处于领先地位。 多种识别模式 支持多种实时语音识别模式,如流式识别、连续识别和实时识别模式,灵活适应不同应用场景。 定制化服务 可定制特定垂直领域的语言层模型,可识别更多专有词汇和行业术语,进一步提高识别准确率。
端点检测参数(vad_head、vad_tail、max_seconds)会影响句子的分段结果,存在一定误差。对连续模式和单句模式生效,对流式一句话模式无效。 父主题: 约束与限制
/v1/{project_id}/tts 表2 WebSocket API功能 接口 功能 API URI 实时语音识别接口(请求) 开始识别 支持三种模式的请求消息: 流式一句话 WSS /v1/{project_id}/rasr/short-stream 实时语音识别连续模式 WSS /v1/{projec
setParameters(request); // 4 选择连接模式,目前实时语音识别提供三种接口,流式一句话、实时语音识别连续模式、实时语音识别单句模式 // 选择1 流式一句话连接 // rasrClient.shortStreamConnect(request);
准备环境 配置Java环境 配置Python环境 配置Android 环境 配置CPP环境(Windows) 配置CPP环境(Linux)