检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如何解决“The silence time is too long, and the audio will not be recognized”报错 问题描述 识别文件错误,提示“The silence time is too long, and the audio will not
实时语音识别多人同时使用,如何区分各自识别结果 每个用户独立建立websocket连接,不可共用一个websocket连接。 父主题: API使用类
Sec-WebSocket-Key 发送WebSocket握手请求时,包含该头域。 采用Base64编码的随机16字节长的字符序列。用来发送给服务器使用,服务器会使用此字段组装成另一个key值放在握手返回信息里发送客户端。 x3JJHMbDL1EzLkh9GBhXDw== Sec-WebSocket-Version
取值范围请参考表 property取值范围。 obs_bucket_name 是 String 表示在OBS对象桶名,使用前请先授权配置请参见配置OBS访问权限。obs_bucket_name字符长度区间为[3,64),需要进行urlencode编码。 OBS桶区域需要与接口的地址区域一致。
安全凭证通过接口临时访问密钥AK/SK获取;永久安全凭证通过我的凭证界面控制台获取。 如果使用的是永久性AK、SK出现此报错。请检查您的服务器时间和网络时间是否一致,时间同步后,可解决该报错。 父主题: 错误码类
实时语音识别 前提条件 确保已按照配置Java环境配置完毕。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化RasrClient,其参数包括AuthInfo、RasrListener、SisConfig。
配置Android 环境 配置环境。 在使用语音交互SDK时,需要提前配置好android系统的开发环境,如表1所示。 表1 配置环境准备项 准备项 说明 JDK Java开发环境的基础配置。版本要求:推荐使用1.8版本。 Gradle 在Gradle官网上下载好之后,配置环境变量即可。推荐使用Gradle7
配置Python环境 前提条件 确保已安装Python3,目前Python SDK仅支持Python3。 确保已安装setuptools、requests、websocket-client。 操作步骤 下载SDK,通过pip-list命令查看安装包。若未安装,则执行以下命令: pip
况。 所配置的关键词含有生僻字,如葳蕤,霜蟾。这些生僻字出现的概率较低,所以在热词搜索过程中,可能不生效。 所配置的关键词较常见,与其他高频词容易混淆(误召回),如述职 vs 数值。 配置规则: 自定义权重热词用/将热词分为两个部分,左边即为普通热词,遵循普通热词的配置规则。 右
频的URL。 考虑到数据的安全,语音交互服务无法直接获取到用户OBS数据,需要用户开启公共读授权或者语音交互服务授权。 开启公共读授权 开启公共授权,则数据全网可见,所有用户均可访问,不推荐使用此方法,该方法仅针对同一region服务有效。 配置公共读可参考配置标准桶策略,创建桶
cmake 三方库安装 本SDK所依赖的三方库包含 - openssl - jsoncpp - websocketpp - glog - gflags - boost 依赖库均以源码形式存放在SDK根目录,SDK默认是开启所有依赖库安装,即运行cmake命令时,SDK会默认安装这些依赖库。
表1 实时语音识别接口说明 接口类型 说明 实时语音识别接口 华为云提供的Websocket接口,主要用于实时语音识别。音频分片传输,服务器端可以返回中间临时转写结果,在最后返回最终转写结果。 表2 一句话识别接口说明 接口类型 说明 一句话识别 一句话识别接口,用于短语音的同
ocket承载的实时语音识别请求和响应的消息格式相同。 开发者可以使用java、python、c++等开发语言支持Websocket的对应软件包或库接口,与实时语音识别引擎握手连接,并发送语音数据和接收转写结果,最后关闭Websocket连接。 获取Websocket握手请求ws
情绪类型,目前仅支持NORMAL(正常),ANGRY(愤怒),UNKNOWN(未知)。 在识别配置中emotion为true时存在。 speed 否 Float 语速信息,单位是每秒字数。 在识别配置中speed为true时存在。 表7 WordInfo 参数 是否必选 参数类型 描述 start_time
https://{Endpoint}/v3/projects”,其中{Endpoint}为IAM的终端节点。接口的认证鉴权请参见认证鉴权。 响应示例如下,例如,语音交互服务部署的区域为“cn-north-4”,响应消息体中查找“name”为“cn-north-4”,其中projects下的“id”即为项目ID。 {
一句话识别Websocket接口 前提条件 确保已按照配置Java环境配置完毕。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 该功能为1.70及以上版本SDK新增功能,使用前请检查并更新SDK版本。 请参考SDK(websocket)获取最新版本SDK包。
一句话识别Http接口 前提条件 确保已按照配置Java环境配置完毕。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化AsrCustomizationClient,其
一句话识别、语音合成按调用次数计费;实时语音识别、录音文件识别按音频时长计费;录音文件识别极速版按照“音频时长×需要识别的音频声道数“计费,时长计算精确到秒。 按音频时长计费的,累加每次调用的音频时长。 按调用次数计费的,返回失败的调用不计入次数。 调用热词接口,不单独计费。 计费模式 按需计费
实时语音识别连续模式 功能介绍 连续识别模式的语音总长度限制为五小时,适合于会议、演讲和直播等场景。 连续识别模式在流式识别的基础上,结合了语音的端点检测功能。语音数据也是分段输入,但是连续识别模式将会在处理数据之前进行端点检测,如果是语音才会进行实际的解码工作,如果检测到静音,
实时语音合成 前提条件 确保已按照配置Java环境配置完毕。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化RttsClient,其参数包括AuthInfo和SisConfig。 表1 AuthInfo 参数名称 是否必选 参数类型 描述 ak