检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
安全凭证通过接口临时访问密钥AK/SK获取;永久安全凭证通过我的凭证界面控制台获取。 如果使用的是永久性AK、SK出现此报错。请检查您的服务器时间和网络时间是否一致,时间同步后,可解决该报错。 父主题: 错误码类
配置Python环境 前提条件 确保已安装Python3,目前Python SDK仅支持Python3。 确保已安装setuptools、requests、websocket-client。 操作步骤 下载SDK,通过pip-list命令查看安装包。若未安装,则执行以下命令: pip
配置Android 环境 配置环境。 在使用语音交互SDK时,需要提前配置好android系统的开发环境,如表1所示。 表1 配置环境准备项 准备项 说明 JDK Java开发环境的基础配置。版本要求:推荐使用1.8版本。 Gradle 在Gradle官网上下载好之后,配置环境变量即可。推荐使用Gradle7
配置Java环境 配置环境 在使用语音交互SDK时,需要准备的环境请参见表 开发环境。 目前Java SDK不支持在android中使用。 表1 开发环境 准备项 说明 操作系统 Windows系统,推荐Windows 7及以上版本。 JDK Java开发环境的基本配置。版本要求:强烈推荐使用1
况。 所配置的关键词含有生僻字,如葳蕤,霜蟾。这些生僻字出现的概率较低,所以在热词搜索过程中,可能不生效。 所配置的关键词较常见,与其他高频词容易混淆(误召回),如述职 vs 数值。 配置规则: 自定义权重热词用/将热词分为两个部分,左边即为普通热词,遵循普通热词的配置规则。 右
配置CPP环境(Windows) 当前Windows 版本 CPP SDK基于visual studio 运行,确保已安装visual studio 2017。 依赖curl、openssl、boost、websocketpp软件,相关安装包已打包至SDK中,使用方法详见SDk的使用说明”。
cmake 三方库安装 本SDK所依赖的三方库包含 - openssl - jsoncpp - websocketpp - glog - gflags - boost 依赖库均以源码形式存放在SDK根目录,SDK默认是开启所有依赖库安装,即运行cmake命令时,SDK会默认安装这些依赖库。
频的URL。 考虑到数据的安全,语音交互服务无法直接获取到用户OBS数据,需要用户开启公共读授权或者语音交互服务授权。 开启公共读授权 开启公共授权,则数据全网可见,所有用户均可访问,不推荐使用此方法,该方法仅针对同一region服务有效。 配置公共读可参考配置标准桶策略,创建桶
实时语音识别 前提条件 确保已按照配置Java环境配置完毕。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化RasrClient,其参数包括AuthInfo、RasrListener、SisConfig。
表1 实时语音识别接口说明 接口类型 说明 实时语音识别接口 华为云提供的Websocket接口,主要用于实时语音识别。音频分片传输,服务器端可以返回中间临时转写结果,在最后返回最终转写结果。 表2 一句话识别接口说明 接口类型 说明 一句话识别 一句话识别接口,用于短语音的同
情绪类型,目前仅支持NORMAL(正常),ANGRY(愤怒),UNKNOWN(未知)。 在识别配置中emotion为true时存在。 speed 否 Float 语速信息,单位是每秒字数。 在识别配置中speed为true时存在。 表7 WordInfo 参数 是否必选 参数类型 描述 start_time
一句话识别Websocket接口 前提条件 确保已按照配置Java环境配置完毕。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 该功能为1.70及以上版本SDK新增功能,使用前请检查并更新SDK版本。 请参考SDK(websocket)获取最新版本SDK包。
一句话识别Http接口 前提条件 确保已按照配置Java环境配置完毕。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化AsrCustomizationClient,其
实时语音识别连续模式 功能介绍 连续识别模式的语音总长度限制为五小时,适合于会议、演讲和直播等场景。 连续识别模式在流式识别的基础上,结合了语音的端点检测功能。语音数据也是分段输入,但是连续识别模式将会在处理数据之前进行端点检测,如果是语音才会进行实际的解码工作,如果检测到静音,
一句话识别、语音合成按调用次数计费;实时语音识别、录音文件识别按音频时长计费;录音文件识别极速版按照“音频时长×需要识别的音频声道数“计费,时长计算精确到秒。 按音频时长计费的,累加每次调用的音频时长。 按调用次数计费的,返回失败的调用不计入次数。 调用热词接口,不单独计费。 计费模式 按需计费
实时语音合成 前提条件 确保已按照配置Java环境配置完毕。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化RttsClient,其参数包括AuthInfo和SisConfig。 表1 AuthInfo 参数名称 是否必选 参数类型 描述 ak
english_alvin_common发音人支持长度不大于10000字符的文本,其他发音人支持长度不大于500字符的文本。 config Object 否 配置信息。请参考表2。 表2 config数据结构 名称 参数类型 是否必选 说明 audio_format String 否 语音格式头:pcm、alaw、ulaw、mp3。
语音合成(http版) 前提条件 确保已经按照配置好Android开发环境。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化SisClient,详细信息如下。 配置客户端连接参数。 默认配置 // 使用默认配置 HttpConfig config =
一句话识别(http版) 前提条件 确保已经按照配置好Android开发环境。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化SisClient,详细信息如下。 配置客户端连接参数。 默认配置 // 使用默认配置 HttpConfig config =
对象存储服务 SIS服务接口支持从对象存储服务(Object Storage Service,OBS)上采用临时授权和匿名公开授权的方式获取数据并进行处理。录音文件识别支持从OBS上采用授权的方式获取数据并进行处理。OBS更多信息请参见《对象存储服务产品介绍》。