检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
开始语音合成请求 功能介绍 客户端与语音合成引擎建立Websocket连接后,可以发送开始语音合成请求进行语音合成。如果客户端基于该Websocket连接发送多次合成请求,需在每次请求重新建立websocket连接,一次连接只能处理一次合成请求。 请求消息 表1 参数说明 名称 参数类型
实时语音识别单句模式 功能介绍 单句模式自动检测一句话的结束,因此适合于需要与您的系统进行交互的场景,例如外呼、控制口令等场景。 实时语音识别引擎的单句识别模式,和连续识别模式类似,也会进行语音的端点检测,如果检测到静音,将直接丢弃,检测到语音才会馈入核心进行实际的解码工作,如果检测到一段语音的结束点
语音合成结束响应 功能介绍 当合成引擎处理完合成请求后,会发送合成结束响应。客户端收到该响应后关闭当前Websocket链接即可。 响应消息 表1 响应参数 名称 参数类型 说明 resp_type String 响应类型。参数值为END,表示语音合成结束。 trace_id String
语音合成错误响应 功能介绍 合成引擎处理合成请求时如果发生错误则返回该响应。 响应消息 表1 响应参数 名称 参数类型 说明 resp_type String 响应类型。参数值为ERROR,表示错误响应。 trace_id String 服务内部的令牌,可用于在日志中追溯具体流程。
流式一句话 功能介绍 流式一句话模式的语音长度限制为一分钟,适合于对话聊天等识别场景。 该接口支持用户将一整段语音分段,以流式输入,最后得到识别结果。实时语音识别引擎在获得分段的输入语音的同时,就可以同步地对这段数据进行特征提取和解码工作,而不用等到所有数据都获得后再开始工作。因此这样就可以在最后一段语音结束后
时间戳数据 功能介绍 实时语音合成服务在生成音频流的同时,可以生成每个汉字/英文单词的时间戳信息。该信息可用于视频字幕和驱动数字人口型。 参数设置 设置请求参数subtitle为"word_level"或"phoneme_level"时,开启时间戳功能。 响应信息 表1 响应参数
Token消息体中user name,domain name和project name分别指的是什么 user name指用户名称,domain name指用户所属的账号名称。如果是账号获取token,账号的user name和domain name相同。如果是IAM用户获取token
语音合成能不能支持返回立体音(双声道)格式的音频 语音合成接口当前仅支持单声道,不支持返回立体音(双声道)格式的音频。 父主题: API使用类
实时语音识别工作流程 实时语音识别分为开始识别、发送音频数据、结束识别,断开连接四个阶段。 开始阶段需要发送开始指令,包含采样率,音频格式,是否返回中间结果等配置信息。服务端会返回一个开始响应。 发送音频阶段客户端会分片发送音频数据,服务会返回识别结果或者其他事件,如音频超时,静音部分过长等
音频流数据 功能介绍 分多段返回二进制语音数据流,如果用户未设置语音格式,则默认返回pcm格式语音。 父主题: 语音合成结果响应
import SIS struct Config { static let region = "cn-north-4" static let projectId = "" } class HTTPClientDelegate: HTTPDelegate, ObservableObject
表1 示例音频 音频格式 下载链接 mp3 https://sis-sample-audio.obs.cn-north-1.myhuaweicloud.com/16k16bit.mp3 wav https://sis-sample-audio.obs.cn-north-1.myhuaweicloud.com
} } } enum STATUS { case IDLE case TRANSCRIBING } struct RASRView: View { @ObservedObject var delegate = WebSocketDelegate(
SDK(新版) 推荐使用新版SDK语音交互服务SDK,该SDK基于统一规范开发,支持Java/Python/C++/.NET/Go/NodeJs/PHP,使用方法可参考API Explorer。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能,但该SDK
监控安全风险 SIS提供基于云监控服务CES的监控能力,帮助用户监控账号下的SIS服务API,执行自动实时监控、告警和通知操作。用户可以实时掌握API所产生的调用成功次数、调用失败次数等信息。 关于SIS支持的监控指标,以及如何创建监控告警规则等内容,请参见语音交互服务的监控指标。
使用实时语音合成 前提条件 确保已按照配置CPP环境(Linux)配置完毕。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化RttsClient,其参数包括AuthInfo 表1 AuthInfo 参数名称 是否必选 参数类型 描述 ak 是
使用流程简介 用户通过调用SIS服务提供的API或SDK,进行语音转文本或语音合成任务,返回的结果需要您通过编码对接到业务系统中。 图1 使用流程
什么是语音交互服务 语音交互服务(Speech Interaction Service,简称SIS)是一种人机交互方式,用户通过实时访问和调用API获取语音交互结果。例如用户通过语音识别功能,将口述音频或者语音文件识别成可编辑的文本,同时也支持通过语音合成功能将文本转换成逼真的语音等提升用户体验
配置热词表(可选) 调用一句话识别、录音文件识别、实时语音识别API时,如果在您的业务领域有一些特有的词,默认识别效果差的时候可以考虑使用热词管理功能,将这些词添加到词表,改善识别效果。 创建热词表(1.0版本) 创建热词表有两种方式:控制台创建、调用API创建。本章节主要介绍通过控制台创建的方法
SIS.0103报错 问题描述 api调用返回错误码"SIS.0103",错误信息提示"real name authentication missing", 解决方案 需要用户实名认证,不然调用服务会失败,实名认证信息操作请参见实名认证介绍。 父主题: 错误码类