检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如何调用WebSocket API 前提条件 在调用实时语音识别的Websocket接口之前,您需要完成Token认证,详细操作指导请参见认证鉴权。 接口使用介绍 实时语音识别接口使用Websocket协议承载,客户端与服务端交流流程如图1所示。 分为三个主要步骤: WebSocket握手。
recognized”? 可能原因 实时语音识别的初始静默时间过长无法识别。 解决方案 方法一:将参数设置中静默时间的参数vad_head 的值设置大一些,详细请参见API参考的实时语音识别的请求参数。 方法二:处理音频文件,将识别文件初始的静默音频剪切掉。 父主题: API使用类
一般由于格式不匹配造成的。请按照以下情况进行排查。 1. 请确保音频格式和请求格式参数保持一致,音频采样率和选择“property”参数中采样率保持一致。 2. 请确保音频位宽为16bit,目前仅支持16bit位宽的音频,如果低于该位宽的音频,则无法正常识别。 父主题: API使用类
表示是否在识别中只识别首个声道的音频数据,取值为“yes”和“no”,默认为“no”。 说明: 如果音频数据为多声道,参数取默认值no时,会叠加计费。例如,双声道收费为双倍。 表4 audio_format取值范围 audio_format取值 描述 wav wav格式音频。 mp3 mp3格式音频。 m4a
语音合成后输出的音频格式是什么 语音合成后返回一组Base64编码格式的语音数据,用户需要用编程语言或者sdk将返回的Base64编码格式的数据解码成byte数组,再保存为wav格式的音频。 语音合成(Text To Speech ,TTS服务)服务的音频格式则根据接口中audi
支持哪些语言 录音文件识别、语音合成支持中文普通话。 一句话识别和实时语音识别支持中文普通话,带方言口音的普通话和方言(四川话、粤语和上海话)。 父主题: 产品咨询类
一句话识别 http接口 websocket接口
为什么会出现识别结果非常差的情况 问题现象 调用语音识别接口,识别结果同真实结果差别很大,或者服务端报音频格式错误。 解决方案 检查音频采样率是否符合。 对于裸音频,可采用toolsoft Audio player等工具进行试听,通过设置不同的采样率,播放正常的即为音频正常采样率。 如果检查参数“p
如何查看当前接口是否免费调用 计费项 一句话识别、语音合成按调用次数计费;实时语音识别、录音文件识别按音频时长计费;录音文件识别极速版按照“音频时长×需要识别的音频声道数“计费,时长计算精确到秒。 按音频时长计费的,累加每次调用的音频时长。 按调用次数计费的,返回失败的调用不计入次数。 调用热词接口,不单独计费。
计费说明 计费项 一句话识别、语音合成按调用次数计费;实时语音识别、录音文件识别按音频时长计费;录音文件识别极速版按照“音频时长×需要识别的音频声道数“计费,时长计算精确到秒。 按音频时长计费的,累加每次调用的音频时长。 按调用次数计费的,返回失败的调用不计入次数。 调用热词接口,不单独计费。
alaw单通道录音数据。 alaw8k8bit 8k8bit alaw单通道录音数据。 mp3 mp3格式音频。目前仅支持单通道的音频。 aac aac格式音频。目前仅支持单通道的音频。 wav 带wav封装头的格式,从封装头中自动确定格式,目前仅支持8k/16k采样率、单通道、pcm
录音文件识别 支持“华北-北京四”、“华东-上海一”区域。 当前语音服务仅支持北京和上海区域,后续会陆续上线其他区域。 华北-北京四,推荐的区域。 华东-上海一,推荐的区域。 支持pcm16k16bit、pcm8k16bit、ulaw16k8bit、ulaw8k8bit、alaw
Interaction Service,简称SIS)是一种人机交互方式,用户通过实时访问和调用API获取语音交互结果。支持用户通过语音识别功能,将口述音频、普通话或者带有一定方言的语音文件识别成可编辑的文本,同时也支持通过语音合成功能将文本转换成逼真的语音等提升用户体验。适用场景如
别、语音合成)服务所提供的API为自研API。 表1 实时语音识别接口说明 接口类型 说明 实时语音识别接口 华为云提供的Websocket接口,主要用于实时语音识别。音频分片传输,服务器端可以返回中间临时转写结果,在最后返回最终转写结果。 表2 一句话识别接口说明 接口类型 说明
Interaction Service,SIS)支持语音识别、语音合成功能。适用语音客服质检、会议记录、语音短消息、有声读物、电话回访等场景。 在使用服务前,请先使用SIS体验中心体验服务功能。该方式无需编程,只需在网页端上传文字或音频,即可体验合成效果。 使用SIS体验中心前,请先注册华为账号并开通华为云。
请参见《API参考》中语音合成章节。 saved 否 Boolean 是否选择合成的音频数据保存到本地,默认不保存。 saved_path 否 String 选择保存到本地的路径,需要具体到音频文件,如D:/test.wav。 响应参数 Python SDK响应结果为Json格式
录音文件识别接口 提交录音文件识别任务 获取录音文件识别结果
状态码请参见状态码。 错误码 错误码请参见错误码。 发送音频数据 在收到“开始识别”的响应之后,可以开始发送音频数据。为节省流量,音频以二进制数据帧形式(binary message)的方式发送。 音频数据将分片发送,也即在获得一定量音频数据的同时就可以发送一个binary messag
region,如cn-north-4 """ todo 请正确填写音频格式和模型属性字符串 1. 音频格式一定要相匹配。 例如wav音频,格式是wav。具体参考api文档。 例如音频是pcm格式,并且采样率为8k,则格式填写pcm8k16bit。
当前服务仅支持北京和上海区域,后续会陆续上线其他区域。 华北-北京四,推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口。 华东-上海一,推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口 。 一句话识别,录音文件识别支持的终端节点: 表1 一句话识别、录音文件识别