检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
标点符号或者特殊符号。具体限制参见创建热词表更新热词表章节。 功能介绍 新建一个热词表,创建成功返回id。每个用户限制创建100个热词表。 调用热词时,需确保调用热词的区域与创建热词的区域一致。如下图位置可查询创建热词所在区域: 图1 热词创建区域查询 调试 您可以在API Ex
创建企业项目 创建企业项目的用户必须是管理员,或在IAM侧已被授予EPS FullAccess权限的用户。 企业账号可申请开通企业项目。账号需要进行企业实名认证。如果企业账号注册成为华为云合作伙伴,将无法进入企业项目管理页面。 图1 操作流程 创建企业项目 登录控制台,单击界面右上方的“企业
如何通过主账号创建一个子账号 语音交互服务服务不支持IAM细粒度划分策略,IAM账号与主账号具备相同的操作权限。 您可以使用IAM的用户管理功能,给员工或应用程序创建IAM用户,可避免分享自己的账号密码。详细创建步骤请参见创建IAM用户。 父主题: 权限类
name指用户所属的账号名称。如果是账号获取token,账号的user name和domain name相同。如果是IAM用户获取token(账号可以创建多个IAM用户),user name和domain name不相同,user name为实际的用户名称。 project name指项目名称,如“cn-north-4”。。
取账号Token。 建议您创建一个IAM账户,使用该账户获取Token。 步骤1:创建IAM账户 登录华为云控制台,在右上角用户名处选择“统一身份认证”。 图1 统一身份认证 单击“创建用户”,并设置IAM账户的用户名、密码,创建IAM用户。 图2 创建用户 图3 设置用户名、密码
这些词添加到词表,改善识别效果。 创建热词表(1.0版本) 创建热词表有两种方式:控制台创建、调用API创建。本章节主要介绍通过控制台创建的方法。 登录SIS服务控制台。 在左侧导航栏中选择“热词表配置”。并在配置页面单击“创建热词表”。 创建成功后,可对热词表内容进行编辑。支持
是否必选 参数类型 描述 job_id 否 String 创建的任务标识, 如果创建任务成功时必须存在。 由于录音文件识别通常会需要较长的时间,因此识别是异步的,即接口分为创建识别任务和查询任务状态两个接口。 创建识别任务接口创建任务完成后返回job_id参数,然后用户通过调用录音文
name可登录控制台“我的凭证”页面获取。password为用户密码。 如果您的华为云账号已升级为华为账号,将不支持获取Token。建议为您自己创建一个IAM用户,获取IAM用户的Token。详细说明请参见账密报错“The username or password is wrong.”。
什么是区域与可用区 什么是区域、可用区 我们用区域和可用区来描述数据中心的位置,您可以在特定的区域、可用区创建资源。 区域(Region):从地理位置和网络时延维度划分,同一个Region内共享弹性计算、块存储、对象存储、VPC网络、弹性公网IP、镜像等公共服务。Region分为
热词表id,不使用则不填写。 创建热词表请参考《API参考》中创建热词表章节。 interimResults 否 String 是否输出中间结果,可以为yes或no。默认为no,表示不输出中间结果。 响应参数 结果响应类为RASRResponse,详见表2。调用失败处理方法请参见错误码。 表2
开启公共授权,则数据全网可见,所有用户均可访问,不推荐使用此方法,该方法仅针对同一region服务有效。 配置公共读可参考配置标准桶策略,创建桶策略为“公共读”。一般私密数据不建议用此方法。 目前仅支持访问用户个人OBS下的音频的链接,不支持读取其他用户公共读的链接。 图1 创建“公共读”桶策略 开启语音交互服务授权
方面定位原因。 解决方案 1. 检查网络是否可用,能否连接互联网,检查url输入是否正确。 2. 检查Token是否可用,检查Token的方法参考调用语音交互的API显示auth failed 3. 检查协议是否支持,目前Websocket使用tls1.2协议,Websocket库使用tls1协议就无法连接。
2字节。 description 否 String 热词表描述,长度不超过255字节。 响应参数 创建热词响应参数为Json格式,详见表4。调用失败处理方法请参见错误码。 表4 创建热词响应 参数名称 是否必选 参数类型 描述 vocabulary_id 是 String 调用成功则返回热词表ID。
hon/C++/.NET/Go/NodeJs/PHP,使用方法可参考API Explorer。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能,但该SDK暂不支持通过websocket的方法调用的API。如需使用websocket接口,请前往SDK(websocket)。
发送音频数据 在收到“开始识别”的响应之后,可以开始发送音频数据。为节省流量,音频以二进制数据帧形式(binary message)的方式发送。 音频数据将分片发送,也即在获得一定量音频数据的同时就可以发送一个binary message,每个分片建议在50ms~1000ms之间
String name = "test"; // 创建热词表时,需要确保热词表名之前未创建过。如 test1 private String vocabularyId = ""; // 热词表id,仅在更新、查询,删除中使用,创建时不需要。使用前一定要确保热词表id已存在。
ational State Transfer)API,支持您通过HTTPS请求调用,调用方法请参见如何调用REST API。也包含WebSocket接口,支持Websocket协议,调用方法请参见如何调用WebSocket API。 调用所需示例音频参见示例音频。 调用接口的时候
)对不同用户组和用户的资源使用,进行分账。 获取方法:进入“企业项目管理”页面,单击企业项目名称,在企业项目详情页获取Enterprise-Project-Id(企业项目ID)。 企业项目创建步骤请参见用户指南。 说明: 账户创建企业项目后,在传参时,有以下三类场景。 携带正确的
0字计一次。精品发音人每50字计一次。 响应参数 Python SDK响应结果为byte数组,保存合成音频数据。详见代码示例。调用失败处理方法请参见错误码。 代码示例 如下示例仅供参考,最新代码请前往SDK(websocket)章节获取并运行。 # -*- coding: utf-8
recognized”? 可能原因 实时语音识别的初始静默时间过长无法识别。 解决方案 方法一:将参数设置中静默时间的参数vad_head 的值设置大一些,详细请参见API参考的实时语音识别的请求参数。 方法二:处理音频文件,将识别文件初始的静默音频剪切掉。 父主题: API使用类