检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
实时语音识别 前提条件 确保已按照配置Java环境配置完毕。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化RasrClient,其参数包括AuthInfo、RasrListener、SisConfig。
socket协议,调用方法请参见如何调用WebSocket API。 调用所需示例音频参见示例音频。 调用接口的时候,无需开通服务,可直接调用。此时请按照实际需要选择计费方式,计费是按照调用接口的次数或者时长来计算费用,具体计费价格参见语音交互价格计算器。 支持两种计费方式: 按需计费,默认计费方式为“按需计费”。
严重错误响应 严重错误,通常指流程无法继续的情况。比如当出现客户端分片音频间隔超时(例如20s)。 出现严重错误响应时,流程不再继续,服务器端会主动断连。 响应消息 表1 响应参数 参数名 参数类型 说明 resp_type String 响应类型。参数值为FATAL_ERROR,表示开始识别响应。
alaw单通道录音数据。 alaw8k8bit 8k8bit alaw单通道录音数据。 mp3 mp3格式音频。目前仅支持单通道的音频。 aac aac格式音频。目前仅支持单通道的音频。 wav 带wav封装头的格式,从封装头中自动确定格式,目前仅支持8k/16k采样率、单通道、pcm, alaw,
AsrCustomShortRequest 参数名称 是否必选 参数类型 描述 data 是 String 本地音频文件经过Base64编码后的字符串,音频文件时长不超过1min。 audio_format 是 String 音频格式,具体信息请参见《API参考》中一句话识别章节。 model_property
录音文件识别 前提条件 确保已按照配置Java环境配置完毕。 确保已存在待识别的音频文件并上传OBS或者有公网可访问服务器上(需保证可使用域名访问),示例音频可参考下载SDK压缩包文件。如果音频存放在OBS上,确保服务已授权访问OBS,可参考配置OBS服务。 请参考SDK(websocket)获取最新版本SDK包。
Language)标记语言的功能、标签使用及示例。 概述 SSML 是一种基于 XML 的语音合成标记语言。使用 SSML 可以更加准确、具体的定义合成音频的效果,包括控制断句分词方式、发音、速度、停顿、声调和音量等特征。相比文本输入进行合成,有更好的操作灵活性。 华为云语音合成服务的SSML实现,基于W3C的语音合成标记语言版本1
model """ # 录音文件识别参数,音频文件以obs连接方式传入(即先需要将音频传送到华为云的obs) obs_url = '' # 音频obs连接 obs_audio_format = '' # 音频格式,如auto等,详见api文档 obs_property
描述 wav wav格式音频 mp3 mp3格式音频 m4a m4a格式音频 aac aac格式音频 opus ops格式音频。 表5 property取值范围 property取值 描述 chinese_8k_common 支持采样率为8k的中文普通话语音识别。 chinese_16k_conversation
AsrCustomShortRequest 参数名称 是否必选 参数类型 描述 data 是 String 本地音频文件经过Base64编码后的字符串,音频文件时长不超过1min。 audioFormat 是 String 音频格式,具体信息请参见《API参考》中一句话识别章节。 property 是 String
识别结果响应 服务端在收到客户端发送的连续音频数据后, 当服务端识别出结果后会实时向客户端按句推送识别结果响应消息, 以json字符串形式放置在text message中。 响应消息 表1 响应参数 参数名 参数类型 说明 resp_type String 响应类型。参数值为RESULT,表示识别结果响应。
本地调用 本章节以语音合成为例,介绍如何使用SIS Python SDK在本地进行开发。 该SDK可以将用户输入的文字合成为音频。通过音色选择,自定义音量、语速,实现个性化音频的生成。 前提条件 注册华为账号并开通华为云,并完成实名认证,账号不能处于欠费、冻结、被注销等异常状态。 操作步骤
一句话识别Websocket接口 前提条件 确保已按照配置Java环境配置完毕。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 该功能为1.70及以上版本SDK新增功能,使用前请检查并更新SDK版本。 请参考SDK(websocket)获取最新版本SDK包。
前提条件 确保已按照配置Python环境配置完毕,Python SDK仅支持Python3。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 该功能为1.70及以上版本SDK新增功能,使用前请检查并更新SDK版本。 请参考SDK(websocket)获取最新版本SDK包。
描述 wav wav格式音频 mp3 mp3格式音频 m4a m4a格式音频 aac aac格式音频 opus ops格式音频。 表5 property property取值 描述 chinese_8k_common 支持采样率为8k的中文普通话语音识别。 chinese_16k_conversation
如果设置为0,表示不检测“长时间静音”情况。 取值范围:[0, 60000]的整数,单位为ms,默认为10000ms,即10s。 vad_tail 否 Integer 音频的结尾中的静音时间,正常情况下不应设成很小的值。 如果检测语音结尾的静音时长大于等于此值时,在实时语音识别单句模式下将返回VOICE_END(识别
验。 智能教育 集成语音合成的教育系统可以实现中文标准朗读及带读,应用于课堂和学生自学,提升教学效率。 直播实时字幕 将视频直播或现场直播中的音频实时转为字幕,为观众提供更高效的观会体验,方便对直播内容进行监控。 会议实时记录 将视频或电话会议中的音频实时转为文字,可实时校核、修改及检索转写会议内容,提高会议效率。
错误响应,通常是指不影响流程,但当前会话无法再进行下去的错误,包括如下情况: 配置串错误,包括存在不识别的配置串,或者配置串值的范围不合法。 时序不正确,比如连续发送两次“开始识别”指令。 识别过程中发生错误,比如音频解码发生错误。 出现错误响应时,如果已经在一个会话中了,会再发送一个“结束识别”的响应,表示识别会话
在使用语音交互服务过程中委托我们处理的语音音频和文本等数据,您完全拥有上述数据所有权及控制权,您应自行对上述数据来源和获取的合法性负责,华为云受托处理您的数据,以实现本服务功能或目的: (1)将语音音频数据识别转换成文本。 (2)将文本数据合成语音。 您的上述数据将在中华人民共和国境内
如何查看实时语音识别的中间结果 实时语音识别分为开始识别、发送音频数据、结束识别,断开连接四个阶段。在使用API或SDK时,可以通过将interim_results参数设置为yes,将识别过程的中间结果返回。如果设置为no,则会等每句话完毕才会返回识别结果。详细参数说明请见实时语音识别。