-
语音合成结果响应 - 语音交互服务 SIS
语音合成结果响应 音频流数据 时间戳数据 父主题: 实时语音合成响应
-
与其他云服务的关系 - 语音交互服务 SIS
SIS服务接口支持从对象存储服务(Object Storage Service,OBS)上采用临时授权和匿名公开授权的方式获取数据并进行处理。录音文件识别支持从OBS上采用授权的方式获取数据并进行处理。OBS更多信息请参见《对象存储服务产品介绍》。
-
websocket接口 - 语音交互服务 SIS
16k16bit单通道录音数据。 pcm8k16bit 8k16bit单通道录音数据。 ulaw16k8bit 16k8bit ulaw单通道录音数据。 ulaw8k8bit 8k8bit ulaw单通道录音数据。 alaw16k8bit 16k8bit alaw单通道录音数据。 alaw8k8bit
-
一句话识别 - 语音交互服务 SIS
projectId 是 String 项目ID,同region一一对应,参考获取项目ID。 请求参数 请求类为SASRConfig和语音数据data,详见表2。 表2 SASRConfig 参数名称 是否必选 参数类型 描述 config 是 Config object 配置信息。
-
什么是区域与可用区 - 语音交互服务 SIS
什么是区域与可用区 什么是区域、可用区 我们用区域和可用区来描述数据中心的位置,您可以在特定的区域、可用区创建资源。 区域(Region):从地理位置和网络时延维度划分,同一个Region内共享弹性计算、块存储、对象存储、VPC网络、弹性公网IP、镜像等公共服务。Region分为
-
语音交互服务需要申请什么权限 - 语音交互服务 SIS
Administrator的权限。 因为录音文件保存在用户的OBS(Object Storage Service,对象存储服务)桶中。考虑到数据的安全,语音交互服务无法直接获取到用户数据,需要用户授权录音文件引擎读取用户OBS桶权限,只有主账号或者有Security Administrator权限的子账号才可以授权。
-
开始识别 - 语音交互服务 SIS
16k16bit单通道录音数据。 pcm8k16bit 8k16bit单通道录音数据。 ulaw16k8bit 16k8bit ulaw单通道录音数据。 ulaw8k8bit 8k8bit ulaw单通道录音数据。 alaw16k8bit 16k8bit alaw单通道录音数据。 alaw8k8bit
-
错误码 - 语音交互服务 SIS
错误码 调用接口出错后,将不会返回结果数据。调用方可根据每个接口对应的错误码来定位错误原因。当调用出错时,HTTPS请求返回一个 4xx 或 5xx 的 HTTPS状态码。返回的消息体中是具体的错误代码及错误信息。在调用方找不到错误原因时,可以联系华为云客服,并提供错误码,以便尽快帮您解决问题。
-
实时语音识别请求 - 语音交互服务 SIS
实时语音识别请求 实时语音识别工作流程 开始识别 发送音频数据 结束识别 父主题: 实时语音识别接口
-
http接口 - 语音交互服务 SIS
16k16bit单通道录音数据。 pcm8k16bit 8k16bit单通道录音数据。 ulaw16k8bit 16k8bit ulaw单通道录音数据。 ulaw8k8bit 8k8bit ulaw单通道录音数据。 alaw16k8bit 16k8bit alaw单通道录音数据。 alaw8k8bit
-
语音合成(webSocket版) - 语音交互服务 SIS
response); 开始合成音频数据时回调。 void onTranscriptionEnd(RttsResponse response); 合成音频数据结束时回调。 void onTranscriptionError(RttsResponse response); 合成音频数据过程中失败时回调。
-
语音合成 - 语音交互服务 SIS
nese_xiaoqi_common。具体信息请参见《API参考》中语音合成章节。 isSaved 否 Boolean 是否选择合成的音频数据保存到本地,默认不保存。 savePath 否 String 选择保存到本地的路径。路径需具体到文件,如D:/test.wav。 响应参数
-
如何调用WebSocket API - 语音交互服务 SIS
基于WebSocket协议进行实时语音识别。 关闭WebSocket连接。 其中,基于WebSocket协议进行实时语音识别时,需要客户端首先发送转写开始消息,然后持续发送语音数据至服务端,最后发送结束消息,在此期间客户端会持续收到服务端发送的转写结果或事件,客户端根据所收到的相应消息做对应处理。实时语音识别接口的具体细节请参见接口说明章节。
-
接口说明 - 语音交互服务 SIS
开发者可以使用java、python、c++等开发语言支持Websocket的对应软件包或库接口,与实时语音识别引擎握手连接,并发送语音数据和接收转写结果,最后关闭Websocket连接。 获取Websocket握手请求wss-URI请参见Websocket握手请求。 获取实时
-
获取录音文件识别结果 - 语音交互服务 SIS
object 每一句的质检分析结果对象。 仅在识别配置中的need_analysis_info不为null时存在该返回结果。数据结构参见analysisinfo数据表。 word_info 否 Array of WordInfo objects 分词输出列表。 表6 AnalysisInfoResult
-
API概览 - 语音交互服务 SIS
inue-stream 实时语音识别单句模式 WSS /v1/{project_id}/rasr/sentence-stream 发送音频数据 结束识别
-
错误响应 - 语音交互服务 SIS
出现错误响应时,如果已经在一个会话中了,会再发送一个“结束识别”的响应,表示识别会话结束。如果会话还没有开始,那么发送此错误响应后不做其它操作。此后的音频数据都被忽略,直到收到下一个“开始识别”请求。 响应消息 表1 响应参数 参数名 参数类型 说明 resp_type String 响应类型。参数值为ERROR,表示错误响应。
-
提交录音文件识别任务 - 语音交互服务 SIS
16k16bit裸音频录音数据。 pcm8k16bit 8k16bit裸音频录音数据。 ulaw16k8bit 16k8bit ulaw 裸音频录音数据。 ulaw8k8bit 8k8bit ulaw 裸音频录音数据。 alaw16k8bit 16k8bit alaw 裸音频录音数据。 alaw8k8bit
-
基本概念 - 语音交互服务 SIS
户提供业务服务的专用Region。 详情请参见区域和可用区。 可用区(AZ,Availability Zone) 一个AZ是一个或多个物理数据中心的集合,有独立的风火水电,AZ内逻辑上再将计算、网络、存储等资源划分成多个集群。一个Region中的多个AZ间通过高速光纤相连,以满足用户跨AZ构建高可用性系统的需求。
-
录音文件识别 - 语音交互服务 SIS
audioDuration 否 Integer 提交音频时长,单位ms。 segments 否 Array of objects 识别结果, 多句结果的数组。 数据结构参见表5。 表5 Segment 参数名 是否必选 参数类型 说明 start_time 是 Integer 一句的起始时间戳,单位ms。