检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
什么是语音交互服务 语音交互服务(Speech Interaction Service,简称SIS)是一种人机交互方式,用户通过实时访问和调用API获取语音交互结果。例如用户通过语音识别功能,将口述音频或者语音文件识别成可编辑的文本,同时也支持通过语音合成功能将文本转换成逼真的语音等提升用户体验
语音合成 功能介绍 语音合成,是一种将文本转换成逼真语音的服务。用户通过实时访问和调用API获取语音合成结果,将用户输入的文字合成为音频。通过音色选择、自定义音量、语速,为企业和个人提供个性化的发音服务。该接口的使用限制请参见约束与限制,详细使用指导请参见SIS服务使用简介章节。
语音合成 前提条件 确保已按照配置Python环境配置完毕,Python SDK仅支持Python3。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化TtsCustomizationClient详见表 TtsCustomizationClient
语音交互服务使用简介 语音交互服务(Speech Interaction Service,简称SIS)是一种人机交互方式,用户通过实时访问和调用API获取语音交互结果。华为云SIS服务支持调用一句话识别、录音文件识别、实时语言识别、语音合成接口等。用户通过调用语音识别类接口,将口述音频
支持哪些语言 录音文件识别、语音合成支持中文普通话。 一句话识别和实时语音识别支持中文普通话,带方言口音的普通话和方言(四川话、粤语和上海话)。 父主题: 产品咨询类
开始语音合成请求 功能介绍 客户端与语音合成引擎建立Websocket连接后,可以发送开始语音合成请求进行语音合成。如果客户端基于该Websocket连接发送多次合成请求,需在每次请求重新建立websocket连接,一次连接只能处理一次合成请求。 请求消息 表1 参数说明 名称 参数类型
SSML标记语言介绍 本文为您介绍SSML(Speech Synthesis Markup Language)标记语言的功能、标签使用及示例。 概述 SSML 是一种基于 XML 的语音合成标记语言。使用 SSML 可以更加准确、具体的定义合成音频的效果,包括控制断句分词方式、发音
调用语音交互的API超时怎么处理(connect timeout) 问题现象 超时通常是由于网络不通造成的,需要对网络环境和代码进行具体分析。 解决方案 检查网络是否正常。 确保网络正常连接互联网,正常访问华为云官网,成功获取Token等。如果使用代理,需要保证代理可用性。 检查url
语音合成错误响应 功能介绍 合成引擎处理合成请求时如果发生错误则返回该响应。 响应消息 表1 响应参数 名称 参数类型 说明 resp_type String 响应类型。参数值为ERROR,表示错误响应。 trace_id String 服务内部的令牌,可用于在日志中追溯具体流程。
语音合成后输出的音频格式是什么 语音合成后返回一组Base64编码格式的语音数据,用户需要用编程语言或者sdk将返回的Base64编码格式的数据解码成byte数组,再保存为wav格式的音频。 语音合成(Text To Speech ,TTS服务)服务的音频格式则根据接口中audio_format
语音合成结束响应 功能介绍 当合成引擎处理完合成请求后,会发送合成结束响应。客户端收到该响应后关闭当前Websocket链接即可。 响应消息 表1 响应参数 名称 参数类型 说明 resp_type String 响应类型。参数值为END,表示语音合成结束。 trace_id String
SDK支持哪些语言 目前union sdk(仅支持https接口)已支持java、python、.net、cpp、go。websocket接口支持Java、Python,cpp,后续根据需求考虑支持其他语言。 父主题: SDK使用类
热词管理 前提条件 确保已按照配置Java环境配置完毕。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化HotWordClient,其参数包括AuthInfo和SisConfig。 表1 AuthInfo 参数名称 是否必选 参数类型 描述 ak
数据保护技术 在使用语音交互服务过程中委托我们处理的语音音频和文本等数据,您完全拥有上述数据所有权及控制权,您应自行对上述数据来源和获取的合法性负责,华为云受托处理您的数据,以实现本服务功能或目的: (1)将语音音频数据识别转换成文本。 (2)将文本数据合成语音。 您的上述数据将在中华人民共和国境内处理
功能介绍 实时语音识别 实时语音识别服务,用户通过实时访问和调用API获取实时语音识别结果,支持的语言包含中文普通话、方言和英语,方言当前支持四川话、粤语和上海话。 文本时间戳 为音频转换结果生成特定的时间戳,从而通过搜索文本即可快速找到对应的原始音频。 智能断句 通过提取上下文相关语义特征
为什么录音文件识别出现重复转写结果 问题现象 调用录音文件识别接口,识别的结果出现两条完全一致的结果。 解决方案 由于声道设置的原因,单声道的音频按照双声道处理了。 在请求中将参数“channel”的值修改成“MONO”或者直接去掉请求参数中的“channel”项。 父主题: API
开始合成响应 功能介绍 语音合成引擎收到实时语音合成请求时,首先向客户端发送合成开始响应,表示开始处理语音合成请求。 响应消息 表1 响应参数 名称 参数类型 说明 resp_type String 响应类型。参数值为START,表示开始语音合成。 trace_id String
应用场景 语音客服质检 识别客服、客户的语音,转换为文本。进一步通过文本检索,检查有没有违规、敏感词、电话号码等信息。 会议记录 对会议记录的音频文件,进行快速的识别,转化成文字,方便进行会议记录。 语音短消息 通过语音发送或者接收短消息时,将音频短消息转文字,提升阅读效率和交互体验
接口说明 实时语音识别接口基于Websocket协议实现。分别提供了“流式一句话”、“实时语音识别连续模式”、“实时语音识别单句模式”三种模式。 三种模式的握手请求wss-URI不同,基于Websocket承载的实时语音识别请求和响应的消息格式相同。 开发者可以使用java、python
如何解决“The silence time is too long, and the audio will not be recognized”报错 问题描述 识别文件错误,提示“The silence time is too long, and the audio will not