检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在线调试 API Explorer在线调试工具提供API的检索、调试、代码示例生成功能。同时,集成开发环境CloudIDE,可完成代码的构建、调试、运行。 本章节以语音合成为例,介绍如何使用API Explorer调试API。
屏幕分辨率低的情况下单击页面右上方的“更多 > 企业 > 项目管理”。 图2 企业项目入口 在企业项目管理页面,单击页面右上方“创建企业项目”。依据界面指引完成企业项目的创建。 图3 创建企业项目 为企业项目关联用户组并授权 在企业项目管理页面,单击待操作的企业项目的名称。
SIS服务控制台提供了一句话识别的在线使用页面,用户无需编程即可使用服务功能。 图1 在线使用 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。
SIS服务控制台提供了语音合成的在线使用页面,用户无需编程即可使用服务功能。 图1 在线使用 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。
实时语音识别工作流程 实时语音识别分为开始识别、发送音频数据、结束识别,断开连接四个阶段。 开始阶段需要发送开始指令,包含采样率,音频格式,是否返回中间结果等配置信息。服务端会返回一个开始响应。 发送音频阶段客户端会分片发送音频数据,服务会返回识别结果或者其他事件,如音频超时,静音部分过长等
调用API或SDK 在线调试 本地调用
功能介绍 实时语音识别 实时语音识别服务,用户通过实时访问和调用API获取实时语音识别结果,支持的语言包含中文普通话、方言和英语,方言当前支持四川话、粤语和上海话。 文本时间戳 为音频转换结果生成特定的时间戳,从而通过搜索文本即可快速找到对应的原始音频。 智能断句 通过提取上下文相关语义特征
在线生成SDK代码 API Explorer能根据需要动态生成SDK代码功能,降低您使用SDK的难度,推荐使用。
为什么会出现识别结果非常差的情况 问题现象 调用语音识别接口,识别结果同真实结果差别很大,或者服务端报音频格式错误。 解决方案 检查音频采样率是否符合。 对于裸音频,可采用toolsoft Audio player等工具进行试听,通过设置不同的采样率,播放正常的即为音频正常采样率。
SIS服务控制台提供了录音文字识别的在线使用页面,用户无需编程即可使用服务功能。 图1 在线使用 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。
返回状态正常,但识别结果为空 一般由于格式不匹配造成的。请按照以下情况进行排查。 1. 请确保音频格式和请求格式参数保持一致,音频采样率和选择“property”参数中采样率保持一致。 2. 请确保音频位宽为16bit,目前仅支持16bit位宽的音频,如果低于该位宽的音频,则无法正常识别
示例音频 测试音频如表 示例音频所示,音频文件标题表示采样率和位宽。如8k16bit.pcm表示音频采样率为8k,位宽为16bit。 表1 示例音频 音频格式 下载链接 mp3 https://sis-sample-audio.obs.cn-north-1.myhuaweicloud.com
示例音频 测试音频如表 示例音频所示,音频文件标题表示采样率和位宽。如8k16bit.pcm表示音频采样率为8k,位宽为16bit。 表1 示例音频 音频格式 下载链接 mp3 https://sis-sample-audio.obs.cn-north-1.myhuaweicloud.com
开始识别 功能介绍 当wss握手请求收到成功响应后,客户端到服务端的通信协议会升级为Websocket协议。通过Websocket协议,客户端发送开始识别请求,用于配置实时语音识别的配置信息。 请求消息 表1 参数说明 参数名 是否必选 参数类型 说明 command 是 String
SSML标记语言介绍 本文为您介绍SSML(Speech Synthesis Markup Language)标记语言的功能、标签使用及示例。 概述 SSML 是一种基于 XML 的语音合成标记语言。使用 SSML 可以更加准确、具体的定义合成音频的效果,包括控制断句分词方式、发音
websocket接口 功能介绍 一句话识别websocket接口支持识别1min以内的音频,交互过程如图 客户端和服务端交互流程所示,主要分为开始识别、发送音频数据,结束识别、断开连接四个步骤。 websocket接口同http接口一致按次计费,只要建立连接成功,发送音频,服务开始识别
开始语音合成请求 功能介绍 客户端与语音合成引擎建立Websocket连接后,可以发送开始语音合成请求进行语音合成。如果客户端基于该Websocket连接发送多次合成请求,需在每次请求重新建立websocket连接,一次连接只能处理一次合成请求。 请求消息 表1 参数说明 名称 参数类型
录音文件识别 前提条件 确保已按照配置Java环境配置完毕。 确保已存在待识别的音频文件并上传OBS或者有公网可访问服务器上(需保证可使用域名访问),示例音频可参考下载SDK压缩包文件。如果音频存放在OBS上,确保服务已授权访问OBS,可参考配置OBS服务。 初始化Client 初始化
语音合成 支持“华北-北京四”、“华东-上海一”区域。 当前服务仅支持北京和上海区域,后续会陆续上线其他区域。 华北-北京四,推荐的区域,支持一句话识别、录音文件识别、实时语音识别和语音合成和热词等接口。 华东-上海一,推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口
一句话识别Http接口 前提条件 确保已按照配置Python环境配置完毕,Python SDK仅支持Python3。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化AsrCustomizationClient