检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Java SDK是否支持使用Maven导入 支持Maven引入,引入方式详见《SDK参考》中获取SDK章节。 父主题: SDK使用类
述音频、普通话或者带有一定方言的语音文件识别成可编辑的文本,同时也支持通过调用语音合成接口将文本转换成逼真的语音等。适用场景有语音客服质检、会议记录、语音短消息、有声读物、电话回访等。 调用API接口需要具备一定的编程开发能力,返回的结果为JSON格式,用户需要通过编程来处理识别结果。
根据需要配置是否跳过SSL证书验证 config.withIgnoreSSLVerification(true); 配置认证信息。 配置AK、SK、project_id信息。华为云通过AK识别用户的身份,通过SK对请求数据进行签名验证,用于确保请求的机密性、完整性和请求者身份的正确性。 使用永久AK和SK
录音文件识别接口,用于转写不超过5小时的音频。由于录音文件转写需要较长的时间,因此转写是异步的。 表4 语音合成接口说明 接口类型 说明 语音合成/实时语音合成 语音合成,依托先进的语音技术,使用深度学习算法,将文本转换为自然流畅的语音。用户通过实时访问和调用API获取语音合成结果,将用户输入的文字合成为音
实时语音识别多人同时使用,如何区分各自识别结果 每个用户独立建立websocket连接,不可共用一个websocket连接。 父主题: API使用类
欠费后套餐包能否继续使用 1. 若账户欠费前从未调用过API, 例如从未调用过一句话识别,欠费后即会被拦截,即使套餐包有余量未消耗。 2. 若账户欠费前已调用API,欠费后可正常调用,扣减套餐包余量。 3. 若账户已被华为云账户中心冻结,则无法调用,即使套餐包有余量未消耗。 父主题:
SDK支持哪些语言 目前union sdk(仅支持https接口)已支持java、python、.net、cpp、go。websocket接口支持Java、Python,cpp,后续根据需求考虑支持其他语言。 父主题: SDK使用类
如何修改发音人 修改代码中property的取值即可,支持的发音人如表1和表2所示。 POST https://{endpoint}/v1/{project_id}/tts Request Header: Content-Type: application/json X-Auth-Token:
用户注册华为云时的账号,账号对其所拥有的资源及云服务具有完全的访问权限,可以重置用户密码、分配用户权限等。由于账号是付费主体,为了确保账号安全,建议您不要直接使用账号进行日常管理工作,而是创建用户并使用他们进行日常管理工作。 用户 由账号在IAM中创建的用户,是云服务的使用人员,具有身份凭证(密码和访问密钥)。
根据需要配置是否跳过SSL证书验证 config.withIgnoreSSLVerification(true); 配置认证信息。 配置AK、SK、project_id信息。华为云通过AK识别用户的身份,通过SK对请求数据进行签名验证,用于确保请求的机密性、完整性和请求者身份的正确性。 使用永久AK和SK
当前语音交互服务在中国区已全部商用,不需要申请,直接可以调用,调用会收费,计费方式详细请参考语音交互价格计算器。调用的详细操作请参考使用实时语音识别 。 登录华为云,单击右上角的“控制台”,进入“管理控制台”界面。 在左侧服务列表中选择“EI企业智能 > 语音交互服务”。 在语音交互服务
} } } } 如下图所示,返回的响应消息头中“x-subject-token”就是需要获取的用户Token。获取Token之后,您就可以使用Token认证调用SIS服务API。 获取Token后,再调用SIS服务API接口时,
如何调整并发 API接口支持并发调用。具体可咨询商务合作。 父主题: API使用类
终端节点 终端节点即调用API的请求地址,不同服务不同区域的终端节点不同。 目前语音交互服务一句话识别、录音文件识别支持以下地区和终端节点: 当前服务仅支持北京和上海区域,后续会陆续上线其他区域。 华北-北京四,推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口。
如何查看接口调用量 查看接口调用量 登录控制台。 选择左侧导航栏中的“总览”。在“服务监控”中查看API总调用量、调用成功量、调用失败量。 图1 接口调用量 父主题: API使用类
实时语音识别分为开始识别、发送音频数据、结束识别,断开连接四个阶段。在使用API或SDK时,可以通过将interim_results参数设置为yes,将识别过程的中间结果返回。如果设置为no,则会等每句话完毕才会返回识别结果。详细参数说明请见实时语音识别。 父主题: API使用类
检查Token是否可用,检查Token的方法参考调用语音交互的API显示auth failed 3. 检查协议是否支持,目前Websocket使用tls1.2协议,Websocket库使用tls1协议就无法连接。 4. 可使用Java SDK和Python SDK进行连接。 父主题: API使用类
一般由于格式不匹配造成的。请按照以下情况进行排查。 1. 请确保音频格式和请求格式参数保持一致,音频采样率和选择“property”参数中采样率保持一致。 2. 请确保音频位宽为16bit,目前仅支持16bit位宽的音频,如果低于该位宽的音频,则无法正常识别。 父主题: API使用类
音频时长 参考返回时间 小于10分钟 小于2分钟 10分钟-60分钟 2分钟-12分钟 大于60分钟 12 分钟-60分钟 父主题: API使用类
实时语音识别的初始静默时间过长无法识别。 解决方案 方法一:将参数设置中静默时间的参数vad_head 的值设置大一些,详细请参见API参考的实时语音识别的请求参数。 方法二:处理音频文件,将识别文件初始的静默音频剪切掉。 父主题: API使用类