检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
基于WebSocket协议进行实时语音识别。 关闭WebSocket连接。 其中,基于WebSocket协议进行实时语音识别时,需要客户端首先发送转写开始消息,然后持续发送语音数据至服务端,最后发送结束消息,在此期间客户端会持续收到服务端发送的转写结果或事件,客户端根据所收到的响应消息做对应处理。实时语音识别接口的具体细节请参见接口说明章节。
账单管理”中查看账单明细。 资源包列会展示全部云服务,请按照订购的资源包名称进行搜索。 图4 资源包列表 服务到期 包年包月资源包到期后,自动转为按需计费。转按需后如果账号欠费,会根据“客户等级”定义不同的保留期时长,保留期内资源处理和费用详见“保留期”。保留期满仍未续订或充值,数据将被删除且无法恢复。 续费
开发者可以使用java、python、c++等开发语言支持Websocket的对应软件包或库接口,与实时语音识别引擎握手连接,并发送语音数据和接收转写结果,最后关闭Websocket连接。 获取Websocket握手请求wss-URI请参见Websocket握手请求。 获取实时
object 每一句的质检分析结果对象。 仅在识别配置中的need_analysis_info不为null时存在该返回结果。数据结构参见analysisinfo数据表。 word_info 否 Array of WordInfo objects 分词输出列表。 表6 AnalysisInfoResult
inue-stream 实时语音识别单句模式 WSS /v1/{project_id}/rasr/sentence-stream 发送音频数据 结束识别
16k16bit裸音频录音数据。 pcm8k16bit 8k16bit裸音频录音数据。 ulaw16k8bit 16k8bit ulaw 裸音频录音数据。 ulaw8k8bit 8k8bit ulaw 裸音频录音数据。 alaw16k8bit 16k8bit alaw 裸音频录音数据。 alaw8k8bit
出现错误响应时,如果已经在一个会话中了,会再发送一个“结束识别”的响应,表示识别会话结束。如果会话还没有开始,那么发送此错误响应后不做其它操作。此后的音频数据都被忽略,直到收到下一个“开始识别”请求。 响应消息 表1 响应参数 参数名 参数类型 说明 resp_type String 响应类型。参数值为ERROR,表示错误响应。
ary_id参数(热词id)。 热词id可以通过控制台,或调用查询热词表信息接口获取。 图2 热词id 热词3.0 热词3.0在热词1.0基础上,增加了自定义权重热词和强制替换热词来提升特定场景关键词召回率,如下图3所示。控制台和后端API均已开放热词3.0的创建接口,但需注意的是,并非所有API均能使热词3
组中,IAM可以对这个组授予SIS所需的权限,组内用户自动继承用户组的所有权限。 委托授权 如果用户想使用存储在对象存储服务(OBS)上的数据,他可以委托授权SIS服务访问对象存储服务。 父主题: 安全
inese_xiaoyan_common。具体信息请参见《API参考》中语音合成章节。 saved 否 Boolean 是否选择合成的音频数据保存到本地,默认不保存。 saved_path 否 String 选择保存到本地的路径,需要具体到音频文件,如D:/test.wav。 响应参数
audioDuration 否 Integer 提交音频时长,单位ms。 segments 否 Array of objects 识别结果, 多句结果的数组。 数据结构参见表5。 表5 Segment 参数名 是否必选 参数类型 说明 start_time 是 Integer 一句的起始时间戳,单位ms。
Neural Networks,简称DNN)技术,大大提高了抗噪性能,使识别准确率显著提升。 识别速度快 把语言模型、词典和声学模型统一集成为一个大的神经网络,同时在工程上进行了大量的优化,大幅提升解码速度,使识别速度在业内处于领先地位。 多种识别模式 支持多种实时语音识别模式,如流式识
“no”。 first_channel_only 否 String 表示是否在识别中只识别首个声道的音频数据,取值为“yes”和“no”,默认为“no”。 说明: 如果音频数据为多声道,参数取默认值no时,会叠加计费。例如,双声道收费为双倍。 表4 audio_format取值范围
表示是否在识别结果中输出分词结果信息,取值为“yes”和“no”,默认为“no”。 first_channel_only 否 String 表示是否在识别中只识别首个声道的音频数据,取值为“yes”和“no”,默认为“no”。 obs_bucket_name 否 String 表示在OBS对象桶名,使用前请先授权,操
表示是否在识别结果中输出分词结果信息,取值为“yes”和“no”,默认为“no”。 first_channel_only 否 String 表示是否在识别中只识别首个声道的音频数据,取值为“yes”和“no”,默认为“no”。 obs_bucket_name 否 String 表示在OBS对象桶名,使用前请先授权,操
# 一句话识别参数 path = '' # 需要发送音频路径,如D:/test.pcm, 同时sdk也支持byte流发送数据。 audio_format = '' # 音频支持格式,如pcm16k16bit,详见api文档 property = ''
"567e8537-a89c-13c3-a882-826321939651", "result":{ "text": "欢迎使用语音云服务。", "score": 0.9 } } 当接口调用出错时,会返回错误码及错误信息说明,错误响应的Body体格式如下所示。 {
Integer 读取超时,默认10000,单位ms。 websocketWaitTimeout 否 Integer webSocket返回数据时等待时间,默认20000,单位毫秒。 ProxyHostInfo 否 ProxyHostInfo 代理类。 表4 ProxyHostInfo
gBZQMEAgEwgguVBgkqhkiG... Request Body: { "text": "欢迎使用语音云服务。", "config": { "audio_format": "wav", "sample_rate":
model """ # 实时语音识别参数 path = '' # 需要发送音频路径,如D:/test.pcm, 同时sdk也支持byte流发送数据。 audio_format = 'pcm16k16bit' # 音频支持格式,如pcm16k16bit,详见api文档 property