检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
使用流程简介 用户通过调用SIS服务提供的API或SDK,进行语音转文本或语音合成任务,返回的结果需要您通过编码对接到业务系统中。 图1 使用流程
com/api-sis/sis_03_0115.html // auth info // 认证用的AK和SK硬编码在代码中或明文存储都有很大安全风险,建议在配置文件或环境变量中密文存放,使用时解密,确保安全。 DEFINE_string(ak, "", "access key"); DEFINE_string(sk
错误码 调用接口出错后,将不会返回结果数据。调用方可根据每个接口对应的错误码来定位错误原因。当调用出错时,HTTPS请求返回一个 4xx 或 5xx 的 HTTPS状态码。返回的消息体中是具体的错误代码及错误信息。在调用方找不到错误原因时,可以联系华为云客服,并提供错误码,以便尽快帮您解决问题。
结束识别,断开连接四个阶段。 开始阶段需要发送开始指令,包含采样率,音频格式,是否返回中间结果等配置信息。服务端会返回一个开始响应。 发送音频阶段客户端会分片发送音频数据,服务会返回识别结果或者其他事件,如音频超时,静音部分过长等。 音频发送结束后,客户端会发送结束请求,服务端会返回end响应。
语音合成 功能介绍 语音合成,是一种将文本转换成逼真语音的服务。用户通过实时访问和调用API获取语音合成结果,将用户输入的文字合成为音频。通过音色选择、自定义音量、语速,为企业和个人提供个性化的发音服务。该接口的使用限制请参见约束与限制,详细使用指导请参见SIS服务使用简介章节。
于实时语音识别。音频分片传输,服务器端可以返回中间临时转写结果,在最后返回最终转写结果。 表2 一句话识别接口说明 接口类型 说明 一句话识别 一句话识别接口,用于短语音的同步识别。一次性上传整个音频,响应中即返回识别结果。 表3 录音文件识别接口说明 接口类型 说明 录音文件识别
Service,简称SIS)是一种人机交互方式,用户通过实时访问和调用API(Application Programming Interface,应用程序编程接口)获取语音交互结果。例如用户通过语音识别功能,将口述音频、普通话或者带有一定方言的语音文件识别成可编辑的文本,同时也支持通过语音合成功能将文本转换成逼真的语
API使用类 如何查看接口调用量 为什么WebSocket一直连接不成功 为什么会出现识别结果非常差的情况 如何使用Websocket调用实时语音识别 有哪些途径可以使用语音交互的API 返回状态正常,但识别结果为空 Token消息体中user name,domain name和project
表示是否在识别结果中添加标点,取值为“yes”和“no”,默认为“no”。 digit_norm 否 String 表示是否将语音中的数字识别为阿拉伯数字,取值为“yes” 和 “no”,默认为“yes”。 need_word_info 否 String 表示是否在识别结果中输出分词
ID,可参考获取项目ID。 query-string 查询参数,可选,查询参数前面需要带一个“?”,形式为“参数名=参数取值”。例如“录音文件识别状态查询” 中“job_id=123”表示查询“job_id”为123的任务结果。 例如,在“华北-北京四””区域调用一句话识别API
SIS支持HTTPS、WebScoket传输协议,采用华为云官网标准网关,数据传输过程有全链路安全保障。 数据存储 华为云SIS承诺数据不落盘,用户的原始文本和音频结果数据均不作保留,识别返回后立即释放。 服务声明请参见:https://www.huaweicloud.com/declaration/sis
用户需要具备编程能力,熟悉Java、Python、IOS等编程语言。 用户通过调用API接口,将语音文件识别成可编辑的文本,然后返回JSON格式的识别结果,用户需要通过编码将识别结果对接到业务系统或保存为TXT、Excel等格式。 首次使用SIS 如果您是首次使用SIS的用户,建议您学习并了解如下信息: 功能介绍
场景有语音客服质检、会议记录、语音短消息、有声读物、电话回访等。 调用API接口需要具备一定的编程开发能力,返回的结果为JSON格式,用户需要通过编程来处理识别结果。 您可以根据以下介绍选择合适的使用方式: 通过华为云EI智能体验馆,零基础,一键快速体验语音交互功能。 如果您是业
String 热词表id,不使用则不填写。创建热词表信息请参考创建热词表。 need_word_info 否 String 表示是否在识别结果中输出分词结果信息,取值为“yes”和“no”,默认为“no”。 表5 audio_format取值范围 audio_format取值 描述 pcm16k16bit
Websocket握手请求 功能介绍 本接口提供实时流式语音合成。用户每次建立连接,发送待合成文本,服务端将合成结果响应给用户。一次连接只能发送一次文本,如果有多段文本需要合成,需要多次建立连接。实时语音合成和语音合成均属于语音合成接口,采用完全相同的计费规则,两者价格梯度可互相叠加,可参考价格计算器。
String 表示是否在识别结果中添加标点,取值为yes 、 no,默认no。 digitNorm 否 String 表示是否将语音中的数字识别为阿拉伯数字,取值为yes 、 no,默认为yes。 intermediateResult 否 String 是否显示中间结果,yes 或 no,默认no。
将直接丢弃。如果检测到一段语音的结束点,就会直接将当前这一段的识别结果返回,然后继续检测后面的语音数据。因此在连续识别模式中,可能多次返回识别结果。如果送入的一段语音较长,甚至有可能在一次返回中包括了多段的识别结果。 由于引入了静音检测,连续识别模式通常会比流式识别能具有更高的效
String 是否显示中间结果,yes 或 no,默认no。例如分3次发送音频,选择no结果一次性返回,选择yes分三次返回。 vocabularyId 否 String 热词表id,若没有则不填。 needWordInfo 否 String 表示是否在识别结果中输出分词结果信息,取值为“yes”和“no”,默认为“no”。
一段语音的结束点,就会将当前这一段的识别结果返回。和连续识别不同的是,在单句模式下,返回第一段的识别结果后,将不再继续识别后续的音频。这主要是用于和用户进行语音交互的场景下,当用户说完一句话后,往往会等待后续的交互操作,例如聆听根据识别结果播报的相关内容,因而没有必要继续识别后续的音频。
后得到识别结果。实时语音识别引擎在获得分段的输入语音的同时,就可以同步地对这段数据进行特征提取和解码工作,而不用等到所有数据都获得后再开始工作。因此这样就可以在最后一段语音结束后,仅延迟很短的时间(也即等待处理最后一段语音数据以及获取最终结果的时间)即可返回最终识别结果。这种流式