检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
获取账号ID 在调用接口的时候,部分URL中需要填入账号ID(domain-id),所以需要先在管理控制台上获取到账号ID。账号ID获取步骤如下: 注册并登录管理控制台。 在控制台中,鼠标移动至右上角的用户名处,在下拉列表中选择“我的凭证”。 图1 我的凭证入口 在“我的凭证”页面的项目列表中查看账号ID。
多项目时,展开“所属区域”,从“项目ID”列获取子项目ID。 调用API获取项目ID 获取项目ID的接口为“GET https://{Endpoint}/v3/projects”,其中{Endpoint}为IAM的终端节点。接口的认证鉴权请参见认证鉴权。 响应示例如下,例如,语音交互服务部署的区域为“c
4编码格式的数据解码成byte数组,再保存为wav格式的音频。 语音合成(Text To Speech ,TTS服务)服务的音频格式则根据接口中audio_format参数设置的语音格式为准。若audio_format的值设置为wav,则解码后输出为wav格式,如果设置为mp3,则解码后输出mp3格式。
请求发送以后,您会收到响应,包含状态码、响应消息头和消息体。 状态码是一组从1xx到5xx的数字代码,状态码表示了请求响应的状态,完整的状态码列表请参见状态码。 对于SIS服务接口,如果调用后返回状态码为“200”,则表示请求成功。 响应消息头 对应请求消息头,响应同样也有消息头,如“Content-type”。SI
华北-北京四,为推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口。 华东-上海一,推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口。 父主题: 区域与可用区
ProxyHostInfo 参数名称 是否必选 参数类型 描述 userName 否 String 代理用户名(例:test)。 passWord 否 String 代理密码(例:test)。 hostName 否 String 代理地址(例:“proxy.huaweicloud.com”)。
obs url为https://test.obs.cn-north-4.myhuaweicloud.com/data/0601/test.wav 则obs_bucket_name=test,obs_bucket_key=data/0601/test.wav obs_object_key
obs url为https://test.obs.cn-north-4.myhuaweicloud.com/data/0601/test.wav 则obs_bucket_name=test,obs_bucket_key=data/0601/test.wav obs_object_key
支持哪些语言 语音合成后输出的音频格式是什么 是否支持离线使用 语音合成后能否返回播放时长 是否支持aac格式的语音文件转文字 如何查看当前接口是否免费调用
AsrCustomizationClient asr = new AsrCustomizationClient(authInfo, config); // 2. 生成请求 AsrCustomLongRequest request = new AsrCustomLongRequest(obsUrl
确,例如,调用SIS服务api,endpoint错填为其他服务。 HTTP请求方法(POST,GET等)是否正确。 具体的URI信息请在各接口的API页面查看。 父主题: 错误码类
华北-北京四,推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口。 华东-上海一,推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口 。 一句话识别,录音文件识别支持的终端节点: 表1 一句话识别、录音文件识别 区域名称 区域
setup.py install 命令,完成SDK安装。 版本说明 websocket-client 在1.x版本以后,新增了onclose接口的入参,导致和之前旧版本不兼容。sdk1.7.1版本已解决该兼容性问题,旧版本sdk如果在使用实时流遇到onclose参数报错,可考虑更新sdk解决问题。
热词id可以通过控制台,或调用查询热词表信息接口获取。 图2 热词id 热词3.0 热词3.0在热词1.0基础上,增加了自定义权重热词和强制替换热词来提升特定场景关键词召回率,如下图3所示。控制台和后端API均已开放热词3.0的创建接口,但需注意的是,并非所有API均能使热词3.0算法生效,具体约束条件如下。
API使用类 如何查看接口调用量 为什么WebSocket一直连接不成功 为什么会出现识别结果非常差的情况 如何使用Websocket调用实时语音识别 有哪些途径可以使用语音交互的API 返回状态正常,但识别结果为空 Token消息体中user name,domain name和project
com/ei/experiencespace/sis.html 使用前必读 用户需要具备编程能力,熟悉Java、Python、IOS等编程语言。 用户通过调用API接口,将语音文件识别成可编辑的文本,然后返回JSON格式的识别结果,用户需要通过编码将识别结果对接到业务系统或保存为TXT、Excel等格式。
新增: 录音文件识别输入参数兼容公网访问的url。 2021-08-28 SDK发布1.7.0版本,新增以下章节: 一句话识别Websocket接口 2021-06-16 SDK发布1.6.0版本,新增以下章节: 录音文件极速版 2020-08-20 SDK发布1.3.0版本,修改以下章节:
DEFINE_string(property, "chinese_xiaoyan_common", ""); DEFINE_string(audioPath, "test.pcm", "audio saved path"); DEFINE_string(sampleRate, "16000", "sample
self.result = response.errorMsg } } enum STATE { case IDLE case RECORDING } struct SASRView: View { @ObservedObject var
result = response.errorMsg! } } } enum STATUS { case IDLE case TRANSCRIBING } struct RASRView: View { @ObservedObject var