检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如何修改发音人 修改代码中property的取值即可,支持的发音人如表1和表2所示。 POST https://{endpoint}/v1/{project_id}/tts Request Header: Content-Type: application/json X-Auth-Token:
服务声明类 如何查看SIS服务声明
APIG.0201报错 如果调用API时返回错误信息与错误码:"error_msg":"Backend timeout.","error_code":"APIG.0201",表示请求超时。 您可以尝试以下方案进行解决。 使用Postman等工具直接调用服务,查看是否成功,如果调用
SDK支持哪些语言 目前union sdk(仅支持https接口)已支持java、python、.net、cpp、go。websocket接口支持Java、Python,cpp,后续根据需求考虑支持其他语言。 父主题: SDK使用类
欠费后套餐包能否继续使用 1. 若账户欠费前从未调用过API, 例如从未调用过一句话识别,欠费后即会被拦截,即使套餐包有余量未消耗。 2. 若账户欠费前已调用API,欠费后可正常调用,扣减套餐包余量。 3. 若账户已被华为云账户中心冻结,则无法调用,即使套餐包有余量未消耗。 父主题:
使用实时语音合成 前提条件 确保已按照配置CPP环境(Linux)配置完毕。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化RttsClient,其参数包括AuthInfo 表1 AuthInfo 参数名称 是否必选 参数类型 描述 ak 是
使用实时语音识别 前提条件 确保已按照配置CPP环境(Windows)配置完毕。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化RasrClient,其参数包括AuthInfo。 表1 AuthInfo 参数名称 是否必选 参数类型 描述 ak
使用实时语音识别 前提条件 确保已按照配置CPP环境(Linux)配置完毕。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化RasrClient,其参数包括AuthInfo 表1 AuthInfo 参数名称 是否必选 参数类型 描述 ak 是
数据保护技术 在使用语音交互服务过程中委托我们处理的语音音频和文本等数据,您完全拥有上述数据所有权及控制权,您应自行对上述数据来源和获取的合法性负责,华为云受托处理您的数据,以实现本服务功能或目的: (1)将语音音频数据识别转换成文本。 (2)将文本数据合成语音。 您的上述数据将
为什么服务端返回OBS链接不可用(data url is unreachable) 问题现象 服务后台无法访问用户提供的音频的OBS链接。即无法获取用户需要识别的音频文件。 解决方案 检查用户是否授权服务访问OBS。 检查存放音频的OBS的Region和服务的Region是否为同
配置OBS访问权限 OBS服务 OBS全称Object Storage Service(对象存储服务),提供海量、安全、高可靠、低成本的数据存储能力,可供用户存储任意类型和大小的数据。 EI企业智能服务对于图片、语音等多媒体文件支持直接使用华为云OBS服务的数据处理方式,以减少服务使用成本,降
RasrResponse 参数名 参数类型 说明 resp_type String 参数值为RESULT,表示识别结果响应。 trace_id String 服务内部的令牌,可用于在日志中追溯具体流程。 segments Array of objects 多句结果。 请参考表6。 表6 Segment
配置Python环境 前提条件 确保已安装Python3,目前Python SDK仅支持Python3。 确保已安装setuptools、requests、websocket-client。 操作步骤 下载SDK,通过pip-list命令查看安装包。若未安装,则执行以下命令: pip
返回状态正常,但识别结果为空 一般由于格式不匹配造成的。请按照以下情况进行排查。 1. 请确保音频格式和请求格式参数保持一致,音频采样率和选择“property”参数中采样率保持一致。 2. 请确保音频位宽为16bit,目前仅支持16bit位宽的音频,如果低于该位宽的音频,则无法正常识别。
RASRResponse 参数名 参数类型 说明 respType String 参数值为RESULT,表示识别结果响应。 traceId String 服务内部的令牌,可用于在日志中追溯具体流程。 segments Array of RASRSentence 多句结果,请参考表3。 errorCode
如何查看实时语音识别的中间结果 实时语音识别分为开始识别、发送音频数据、结束识别,断开连接四个阶段。在使用API或SDK时,可以通过将interim_results参数设置为yes,将识别过程的中间结果返回。如果设置为no,则会等每句话完毕才会返回识别结果。详细参数说明请见实时语音识别。
语音合成 前提条件 确保已按照配置Python环境配置完毕,Python SDK仅支持Python3。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化TtsCustomizationClient详见表 TtsCustomizationClient初始化参数。
为什么会出现识别结果非常差的情况 问题现象 调用语音识别接口,识别结果同真实结果差别很大,或者服务端报音频格式错误。 解决方案 检查音频采样率是否符合。 对于裸音频,可采用toolsoft Audio player等工具进行试听,通过设置不同的采样率,播放正常的即为音频正常采样率。
如何解决“The silence time is too long, and the audio will not be recognized”报错 问题描述 识别文件错误,提示“The silence time is too long, and the audio will not
开始识别 功能介绍 当wss握手请求收到成功响应后,客户端到服务端的通信协议会升级为Websocket协议。通过Websocket协议,客户端发送开始识别请求,用于配置实时语音识别的配置信息。 请求消息 表1 参数说明 参数名 是否必选 参数类型 说明 command 是 String