检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如何查看实时语音识别的中间结果 实时语音识别分为开始识别、发送音频数据、结束识别,断开连接四个阶段。在使用API或SDK时,可以通过将interim_results参数设置为yes,将识别过程的中间结果返回。如果设置为no,则会等每句话完毕才会返回识别结果。详细参数说明请见实时语音识别
结束识别 功能介绍 对于识别中的对话,需要在Websocket上发送“结束识别”的请求来取消或结束识别。 "结束识别"请求使用文本类型的数据帧(text message)发送,命令和参数以json字符串的形式提供。 请求消息 表1 参数说明 参数名 是否必选 参数类型 说明 command
开始合成响应 功能介绍 语音合成引擎收到实时语音合成请求时,首先向客户端发送合成开始响应,表示开始处理语音合成请求。 响应消息 表1 响应参数 名称 参数类型 说明 resp_type String 响应类型。参数值为START,表示开始语音合成。 trace_id String
如何使用Websocket调用实时语音识别 解决方案 1. 下载Java SDK 或 Python SDK,参考《SDK参考》中获取SDK章节。 2. 配置SDK环境,参考《SDK参考》中配置Java环境。 3. 使用SDK里的demo进行调用。参考Java SDK和Python
是否支持aac格式的语音文件转文字 一句话识别和录音文件识别以及实时语音识别均可实现语音转文字,一句话识别支持aac格式,录音文件识别和实时语音识别不支持aac格式。 父主题: 产品咨询类
语音合成的base64编码如何使用 问题现象 用户在使用语音合成获取响应体的base64编码,不了解应该如何进一步使用。 解决方案 1. 建议用户使用Java或Python SDK,可参考SDK简介。 2. 使用html网页播放,新建一个html文件,如下填写内容,即可在浏览器播放
账密报错“The username or password is wrong.” 问题现象 获取Token时出现“The username or password is wrong.”。 请确认近期华为云账号是否有升级为华为账号。当前,如果您通过华为账号入口登录华为云账号,就会指引升级
为什么WebSocket一直连接不成功 问题现象 由于在没连接成功前无法返回服务端任何信息,因此连接不成功需要多方面定位原因。 解决方案 1. 检查网络是否可用,能否连接互联网,检查url输入是否正确。 2. 检查Token是否可用,检查Token的方法参考调用语音交互的API显示
如何解决“The silence time is too long, and the audio will not be recognized”报错 问题描述 识别文件错误,提示“The silence time is too long, and the audio will not
严重错误响应 严重错误,通常指流程无法继续的情况。比如当出现客户端分片音频间隔超时(例如20s)。 出现严重错误响应时,流程不再继续,服务器端会主动断连。 响应消息 表1 响应参数 参数名 参数类型 说明 resp_type String 响应类型。参数值为FATAL_ERROR,
严重错误响应 功能介绍 严重错误,通常指流程无法继续的情况。出现严重错误响应时,流程不再继续,服务器端会主动断连。 响应消息 表1 响应参数 名称 参数类型 说明 resp_type String 响应类型。参数值为FATAL_ERROR,表示此次合成发生不可恢复的错误。 trace_id
如何通过主账号创建一个子账号 语音交互服务服务不支持IAM细粒度划分策略,IAM账号与主账号具备相同的操作权限。 您可以使用IAM的用户管理功能,给员工或应用程序创建IAM用户,可避免分享自己的账号密码。详细创建步骤请参见创建IAM用户。 父主题: 权限类
一句话识别Http接口 前提条件 确保已按照配置Java环境配置完毕。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化AsrCustomizationClient,其参数包括
There was a bad response from the server报错 调用API时,出现There was a bad response from the server报错。表示无法正常连接到SIS服务。 请先检查您的华为云账号是否已经进行了实名认证。 如果您的网络环境异常也会引发该报错
开始识别请求响应 由于WebSocket是全双工的,因此响应就是从服务器端发送给客户端的消息,但也并不是所有的请求信息都有一条对应的响应。服务器端收到“开始识别”请求时,会给出如下响应消息,以json字符串形式放置在text message中。 响应消息 表1 响应参数 参数名 参数类型
为什么录音文件识别出现重复转写结果 问题现象 调用录音文件识别接口,识别的结果出现两条完全一致的结果。 解决方案 由于声道设置的原因,单声道的音频按照双声道处理了。 在请求中将参数“channel”的值修改成“MONO”或者直接去掉请求参数中的“channel”项。 父主题: API
实时语音识别连续模式 功能介绍 连续识别模式的语音总长度限制为五小时,适合于会议、演讲和直播等场景。 连续识别模式在流式识别的基础上,结合了语音的端点检测功能。语音数据也是分段输入,但是连续识别模式将会在处理数据之前进行端点检测,如果是语音才会进行实际的解码工作,如果检测到静音,将直接丢弃
发送音频数据 在收到“开始识别”的响应之后,可以开始发送音频数据。为节省流量,音频以二进制数据帧形式(binary message)的方式发送。 音频数据将分片发送,也即在获得一定量音频数据的同时就可以发送一个binary message,每个分片建议在50ms~1000ms之间,
结束识别请求响应 服务器端收到“结束识别”请求时或语音识别过程中发生错误,服务端会向客户端推送如下响应消息,以json字符串形式放置在text message中。 响应消息 表1 响应参数 参数名 参数类型 说明 resp_type String 响应类型。参数值为END,表示结束识别响应
一句话识别Websocket接口 前提条件 确保已按照配置Java环境配置完毕。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 该功能为1.70及以上版本SDK新增功能,使用前请检查并更新SDK版本。 请参考SDK(websocket)获取最新版本SDK