检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
配置CPP环境(Windows) 当前Windows 版本 CPP SDK基于visual studio 运行,确保已安装visual studio 2017。 依赖curl、openssl、boost、websocketpp软件,相关安装包已打包至SDK中,使用方法详见SDk的使用说明”。
终端节点 终端节点即调用API的请求地址,不同服务不同区域的终端节点不同。 目前语音交互服务一句话识别、录音文件识别支持以下地区和终端节点: 当前服务仅支持北京和上海区域,后续会陆续上线其他区域。 华北-北京四,推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口。
cmake 三方库安装 本SDK所依赖的三方库包含 - openssl - jsoncpp - websocketpp - glog - gflags - boost 依赖库均以源码形式存放在SDK根目录,SDK默认是开启所有依赖库安装,即运行cmake命令时,SDK会默认安装这些依赖库。
为什么WebSocket一直连接不成功 问题现象 由于在没连接成功前无法返回服务端任何信息,因此连接不成功需要多方面定位原因。 解决方案 1. 检查网络是否可用,能否连接互联网,检查url输入是否正确。 2. 检查Token是否可用,检查Token的方法参考调用语音交互的API显示auth
授权。 开启公共读授权 开启公共授权,则数据全网可见,所有用户均可访问,不推荐使用此方法,该方法仅针对同一region服务有效。 配置公共读可参考配置标准桶策略,创建桶策略为“公共读”。一般私密数据不建议用此方法。 目前仅支持访问用户个人OBS下的音频的链接,不支持读取其他用户公共读的链接。
配置Python环境 前提条件 确保已安装Python3,目前Python SDK仅支持Python3。 确保已安装setuptools、requests、websocket-client。 操作步骤 下载SDK,通过pip-list命令查看安装包。若未安装,则执行以下命令: pip
配置Java环境 配置环境 在使用语音交互SDK时,需要准备的环境请参见表 开发环境。 目前Java SDK不支持在android中使用。 表1 开发环境 准备项 说明 操作系统 Windows系统,推荐Windows 7及以上版本。 JDK Java开发环境的基本配置。版本要求:强烈推荐使用1
配置Android 环境 配置环境。 在使用语音交互SDK时,需要提前配置好android系统的开发环境,如表1所示。 表1 配置环境准备项 准备项 说明 JDK Java开发环境的基础配置。版本要求:推荐使用1.8版本。 Gradle 在Gradle官网上下载好之后,配置环境变量即可。推荐使用Gradle7
录音文件识别 前提条件 确保已按照配置Java环境配置完毕。 确保已存在待识别的音频文件并上传OBS或者有公网可访问服务器上(需保证可使用域名访问),示例音频可参考下载SDK压缩包文件。如果音频存放在OBS上,确保服务已授权访问OBS,可参考配置OBS服务。 请参考SDK(websocket)获取最新版本SDK包。
确保已按照配置Python环境配置完毕,Python SDK仅支持Python3。 确保已存在待识别的音频文件并上传OBS或者有公网可访问服务器上(需保证可使用域名访问),示例音频可参考下载SDK压缩包文件。如果音频存放在OBS上,确保服务已授权访问OBS,可参考配置OBS服务。
一句话识别(http版) 前提条件 确保已经按照配置好Android开发环境。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化SisClient,详细信息如下。 配置客户端连接参数。 默认配置 // 使用默认配置 HttpConfig config =
语音合成(http版) 前提条件 确保已经按照配置好Android开发环境。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化SisClient,详细信息如下。 配置客户端连接参数。 默认配置 // 使用默认配置 HttpConfig config =
t() webSocket连接建立后回调。 void onTranscriptionClose(); webSocket连接关闭后回调 void onTranscriptionFail(AsrResponse var1); webSocket长连接连接失败是回调。 请求参数 请求
WebSocket API 是 HTML5 提供的一种在 TCP 连接上进行全双工通讯协议的 API, 但 WebSocket API 不支持设置 Headers,如需设置 Headers, 建议通过 Nginx 配置反向代理设置 Header; 或者由后端发起 Websocket
发送音频数据,结束识别、断开连接四个步骤。 websocket接口同http接口一致按次计费,只要建立连接成功,发送音频,服务开始识别,则本次调用计费生效。如果用户发送错误end请求或者持续20s未发送音频而产生了报错,该次调用依然认为生效。如果连接成功后未发送音频直接断开,或者
开始语音合成请求 功能介绍 客户端与语音合成引擎建立Websocket连接后,可以发送开始语音合成请求进行语音合成。如果客户端基于该Websocket连接发送多次合成请求,需在每次请求重新建立websocket连接,一次连接只能处理一次合成请求。 请求消息 表1 参数说明 名称 参数类型
语音合成 前提条件 确保已按照配置Python环境配置完毕,Python SDK仅支持Python3。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化TtsCustomizationClient详见表 TtsCustomizationClient初始化参数。
况。 所配置的关键词含有生僻字,如葳蕤,霜蟾。这些生僻字出现的概率较低,所以在热词搜索过程中,可能不生效。 所配置的关键词较常见,与其他高频词容易混淆(误召回),如述职 vs 数值。 配置规则: 自定义权重热词用/将热词分为两个部分,左边即为普通热词,遵循普通热词的配置规则。 右
如果您的应用需要较高的容灾能力,建议您将资源部署在同一区域的不同可用区内。 如果您的应用要求实例之间的网络延时较低,则建议您将资源创建在同一可用区内。 区域和终端节点 当您通过API使用资源时,您必须指定其区域终端节点。有关区域和终端节点的更多信息,请参阅语音交互服务的地区和终端节点。 父主题: 区域与可用区
t() webSocket连接建立后回调。 void onTranscriptionClose(); webSocket连接关闭后回调。 void onTranscriptionFail(AsrResponse var1); webSocket长连接连接失败是回调。 请求参数 请