检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
附录 示例音频
50 config.setVolume(50); // 设置合成音频音高大小,取值-500-500,默认0 config.setPitch(0); // 设置合成音频语速大小,取值-500-500,默认0 config.setSpeed(0)
附录 示例音频 获取项目ID 获取账号ID 获取AK/SK 公共请求参数 公共响应参数 状态码 错误码 配置OBS访问权限
语音合成结果响应 音频流数据 时间戳数据 父主题: 实时语音合成响应
表6 AnalysisInfoResult 参数 是否必选 参数类型 描述 role 否 String 角色类型,目前对于8k音频以及16k双声道音频仅支持 AGENT(座席),USER(用户)。可用于电话质检等场景。
Websocket握手请求 流式一句话 实时语音识别连续模式 实时语音识别单句模式 父主题: 实时语音识别接口
接口说明 实时语音识别接口基于Websocket协议实现。分别提供了“流式一句话”、“实时语音识别连续模式”、“实时语音识别单句模式”三种模式。 三种模式的握手请求wss-URI不同,基于Websocket承载的实时语音识别请求和响应的消息格式相同。
API发送websocket请求如何携带token 如何查看实时语音识别的中间结果
}/rasr/sentence-stream 发送音频数据 结束识别
单击“body”,复制音频的base64编码值到data参数中(配置文件中已填充示例音频)。 单击“send”,发送请求,查看识别结果。
Exception 2019-07-30 新增: 实时语音识别章节 2019-07-02 下线了ASR SDK的长语音识别功能。
void onTranscriptionBegin(RttsResponse response); 开始合成音频数据时回调。 void onTranscriptionEnd(RttsResponse response); 合成音频数据结束时回调。
如何使用Websocket调用实时语音识别 解决方案 1. 下载Java SDK 或 Python SDK,参考《SDK参考》中获取SDK章节。 2. 配置SDK环境,参考《SDK参考》中配置Java环境。 3. 使用SDK里的demo进行调用。
华北-北京四,推荐的区域,支持一句话识别、录音文件识别、实时语音识别和语音合成和热词等接口。 华东-上海一,推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口。 支持中文、英文、中英文,文本不长于500个字符。 支持合成采样率8kHz、16kHz。
实时语音识别多人同时使用,如何区分各自识别结果 每个用户独立建立websocket连接,不可共用一个websocket连接。 父主题: API使用类
语音识别是强制绑定使用OBS进行录音文件存储吗 不是,只有录音文件识别需要使用OBS服务,语音交互服务对用户存储在OBS的数据,具有只读权限,没有修改和删除的权限。
用户如需生成音频,需要将Base64编码解码成byte数组,再保存为wav音频。 示例代码 如下示例仅供参考,最新代码请前往SDK(websocket)章节获取并运行。
表3 请求参数 参数名称 是否必选 参数说明 Data 必选 本地音频文件经过Base64编码后的字符串。 AudioFormat 必选 音频格式。 Property 必选 属性字符串,语言_采样率_模型,如chinese_8k_common。
All rights reserved. */ package com.huaweicloud.sis.android.demo.asr; import java.util.concurrent.atomic.AtomicBoolean; import android.os.Bundle
将消息体加入后的请求如下所示,其中“data”参数表示将音频转化为Base64编码字符串。