检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
配置热词表(可选) 调用一句话识别、录音文件识别、实时语音识别API时,如果在您的业务领域有一些特有的词,默认识别效果差的时候可以考虑使用热词管理功能,将这些词添加到词表,改善识别效果。 创建热词表(1.0版本) 创建热词表有两种方式:控制台创建、调用API创建。本章节主要介绍通过控制台创建的方法。
创建热词表 在一句话识别、录音文件识别、实时语音识别服务中,如果在您的业务领域有一些特有的词,默认识别效果差的时候可以考虑使用热词管理功能,将这些词添加到词表,改善识别效果。 热词可以是姓名、公司名、某个领域的专有名词,如人名"王晓茗”(通常会识别为"王小明”)、运输域的“高栏”
Websocket握手请求 功能介绍 本接口提供实时流式语音合成。用户每次建立连接,发送待合成文本,服务端将合成结果响应给用户。一次连接只能发送一次文本,如果有多段文本需要合成,需要多次建立连接。实时语音合成和语音合成均属于语音合成接口,采用完全相同的计费规则,两者价格梯度可互相叠加,可参考价格计算器。
如何查看当前接口是否免费调用 计费项 一句话识别、语音合成按调用次数计费;实时语音识别、录音文件识别按音频时长计费;录音文件识别极速版按照“音频时长×需要识别的音频声道数“计费,时长计算精确到秒。 按音频时长计费的,累加每次调用的音频时长。 按调用次数计费的,返回失败的调用不计入次数。
计费说明 计费项 一句话识别、语音合成按调用次数计费;实时语音识别、录音文件识别按音频时长计费;录音文件识别极速版按照“音频时长×需要识别的音频声道数“计费,时长计算精确到秒。 按音频时长计费的,累加每次调用的音频时长。 按调用次数计费的,返回失败的调用不计入次数。 调用热词接口,不单独计费。
调用Java SDK实现一句话识别 语音交互服务软件开发工具包(SIS SDK)是对语音交互服务提供的REST API进行的封装,用户直接调用语音交互SDK提供的接口函数即可实现使用语音交互业务能力的目的,以简化用户的开发工作。SIS SDK目前支持Java和Python。 本章节提供了通过Java
实时语音识别 前提条件 确保已按照配置Java环境配置完毕。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化RasrClient,其参数包括AuthInfo、RasrListener、SisConfig。
错误码 调用接口出错后,将不会返回结果数据。调用方可根据每个接口对应的错误码来定位错误原因。当调用出错时,HTTPS请求返回一个 4xx 或 5xx 的 HTTPS状态码。返回的消息体中是具体的错误代码及错误信息。在调用方找不到错误原因时,可以联系华为云客服,并提供错误码,以便尽快帮您解决问题。
一句话识别Websocket接口 前提条件 确保已按照配置Java环境配置完毕。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 该功能为1.70及以上版本SDK新增功能,使用前请检查并更新SDK版本。 请参考SDK(websocket)获取最新版本SDK包。
权限类 语音交互服务需要申请什么权限 如何通过主账号创建一个子账号 语音识别是强制绑定使用OBS进行录音文件存储吗
API使用类 如何查看接口调用量 为什么WebSocket一直连接不成功 为什么会出现识别结果非常差的情况 如何使用Websocket调用实时语音识别 有哪些途径可以使用语音交互的API 返回状态正常,但识别结果为空 Token消息体中user name,domain name和project
产品咨询类 什么是语音交互服务 支持哪些语言 语音合成后输出的音频格式是什么 是否支持离线使用 语音合成后能否返回播放时长 是否支持aac格式的语音文件转文字 如何查看当前接口是否免费调用
服务开通、关闭说明 使用SIS服务,无需显性执行开通操作,注册华为账号并开通华为云后,账户未欠费,即可调用SIS服务,调用成功后即认为已开通调用接口。此时计费方式为按需计费,不使用不计费。若用户从未调用过SIS服务接口,账户欠费则会被拦截,无法调用。 您也可以在控制台购买套餐包,
API概览 SIS服务提供了两种接口,包含REST(Representational State Transfer)API,支持您通过HTTPS请求调用,请参见表1。也包含WebSocket接口,支持Websocket协议,请参见表2。 表1 REST API功能 接口 功能 API
调用说明 SIS服务提供了两种接口,包含REST(Representational State Transfer)API,支持您通过HTTPS请求调用,调用方法请参见如何调用REST API。也包含WebSocket接口,支持Websocket协议,调用方法请参见如何调用WebSocket
实时语音合成 前提条件 确保已按照配置Java环境配置完毕。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化RttsClient,其参数包括AuthInfo和SisConfig。 表1 AuthInfo 参数名称 是否必选 参数类型 描述 ak
一句话识别 前提条件 确保已经按照配置好iOS开发环境。 已经保存好1分钟内音频文件,建议使用16k16bit进行录音并保存为wav格式。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化SASRClient,参数为AuthInfo,详见表1。
功能介绍 实时语音识别 实时语音识别服务,用户通过实时访问和调用API获取实时语音识别结果,支持的语言包含中文普通话、方言和英语,方言当前支持四川话、粤语和上海话。 文本时间戳 为音频转换结果生成特定的时间戳,从而通过搜索文本即可快速找到对应的原始音频。 智能断句 通过提取上下文
实时语音识别 前提条件 确保已按照配置Python环境配置完毕,Python SDK仅支持Python3。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化RasrClient详见表
一句话识别Websocket接口 前提条件 确保已按照配置Python环境配置完毕,Python SDK仅支持Python3。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 该功能为1.70及以上版本SDK新增功能,使用前请检查并更新SDK版本。 请