检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
确保已按照配置Java环境配置完毕。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 初始化Client 初始化RasrClient,其参数包括AuthInfo、RasrListener、SisConfig。 RasrListener需要用户自定义实现监听逻辑,请参见表1和表2。
一些极其罕见的词语,如绵绵瓜瓞,龙行龘(dá)龘,即使配置了热词,也无法识别,所以需要将谐音词进行强制替换:绵绵瓜叠=绵绵瓜瓞,龙行达达=龙行龘龘。 自定义格式输出,如特殊符号γ、β、奈雪の茶,数学公式x^2+1=0。 配置规则: 强制替换重热词用=将热词分为两个部分,左边为待替换词,遵循普通热词的配置规则。
Sec-WebSocket-Key 发送WebSocket握手请求时,包含该头域。 采用Base64编码的随机16字节长的字符序列。用来发送给服务器使用,服务器会使用此字段组装成另一个key值放在握手返回信息里发送客户端。 x3JJHMbDL1EzLkh9GBhXDw== Sec-WebSocket-Version
配置CPP环境(Linux) c++版本需要在11及以上 cmake版本需要在3.14及以上 gcc-c++ 版本需要在5.4.0及以上 Linux版本CPP SDK依赖g++,cmake,此三项需要提前在机器安装,才能完成sdk编译和运行. CentOS yum install
如何申请公测 当前语音交互服务在中国区已全部商用,不需要申请,直接可以调用,调用会收费,计费方式详细请参考语音交互价格计算器。调用的详细操作请参考使用实时语音识别 。 登录华为云,单击右上角的“控制台”,进入“管理控制台”界面。 在左侧服务列表中选择“EI企业智能 > 语音交互服务”。
到用户OBS数据,需要用户开启公共读授权或者语音交互服务授权。 开启公共读授权 开启公共授权,则数据全网可见,所有用户均可访问,不推荐使用此方法,该方法仅针对同一region服务有效。 配置公共读可参考配置标准桶策略,创建桶策略为“公共读”。一般私密数据不建议用此方法。 目前仅支
欠费后充值账户,为什么调用SIS API仍返回'resource type is RESTRICTED' 充值后需要等待1min后才能进行调用。如果使用token进行调用api(非ak/sk),需要在充值后重新获取token,再进行调用。 父主题: 计费类
送一个binary message,每个分片建议在50ms~1000ms之间,建议在需要实时反馈的情况下100ms,不需要实时反馈的情况下500ms。 结束识别 功能介绍 对于识别中的对话,需要在Websocket上发送“结束识别”的请求来取消或结束识别。 "结束识别"请求使用文本类型的数据帧(text
安全凭证通过接口临时访问密钥AK/SK获取;永久安全凭证通过我的凭证界面控制台获取。 如果使用的是永久性AK、SK出现此报错。请检查您的服务器时间和网络时间是否一致,时间同步后,可解决该报错。 父主题: 错误码类
ct timeout) 问题现象 超时通常是由于网络不通造成的,需要对网络环境和代码进行具体分析。 解决方案 检查网络是否正常。 确保网络正常连接互联网,正常访问华为云官网,成功获取Token等。如果使用代理,需要保证代理可用性。 检查url是否存在错误。 如书写出错,http方法出错(get和post混淆)等。
saved 否 Boolean 是否选择合成的音频数据保存到本地,默认不保存。 saved_path 否 String 选择保存到本地的路径,需要具体到音频文件,如D:/test.wav。 响应参数 Python SDK响应结果为Json格式,详见表4。调用失败处理方法请参见错误码。
一句话识别Websocket接口 前提条件 确保已按照配置Java环境配置完毕。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 该功能为1.70及以上版本SDK新增功能,使用前请检查并更新SDK版本。 初始化Client 初始化SasrWebsock
语音识别是强制绑定使用OBS进行录音文件存储吗 不是,只有录音文件识别需要使用OBS服务,语音交互服务对用户存储在OBS的数据,具有只读权限,没有修改和删除的权限。所以用户是否删除上传至OBS服务的数据,需要用户根据自己的obs桶的使用情况或者容量大小确认,并在OBS服务上执行。
录音文件极速版 前提条件 确保已按照配置Python环境配置完毕,Python SDK仅支持Python3。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 初始化Client 初始化FlashLasrClient详见表 FlashLasrClient初始化参数。
语音合成后能否返回播放时长 不能,当前语音合成无此参数。若需要知道语音时长,可以将返回语音数据解码转换成音频格式,播放后查看。 父主题: 产品咨询类
一句话识别Http接口 前提条件 确保已按照配置Java环境配置完毕。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 初始化Client 初始化AsrCustomizationClient,其参数包括AuthInfo和SisConfig。 表1 AuthInfo
使用流程简介 用户通过调用SIS服务提供的API或SDK,进行语音转文本或语音合成任务,返回的结果需要您通过编码对接到业务系统中。 图1 使用流程
获取账号ID 在调用接口的时候,部分URL中需要填入账号ID(domain-id),所以需要先在管理控制台上获取到账号ID。账号ID获取步骤如下: 注册并登录管理控制台。 在控制台中,鼠标移动至右上角的用户名处,在下拉列表中选择“我的凭证”。 图1 我的凭证入口 在“我的凭证”页面的项目列表中查看账号ID。
一句话识别Websocket接口 前提条件 确保已按照配置Python环境配置完毕,Python SDK仅支持Python3。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 该功能为1.70及以上版本SDK新增功能,使用前请检查并更新SDK版本。 初始化Client 初始
音频数据将分片发送,也即在获得一定量音频数据的同时就可以发送一个binary message,每个分片建议在50ms~1000ms之间,建议在需要实时反馈的情况下100ms,不需要实时反馈的情况下500ms。实时语音识别代码示例请参考SDK文档。 当前SIS服务对于8k音频的分片大小限制为[160, 32768]字节