检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
SDK(新版) 推荐使用新版SDK语音交互服务SDK,该SDK基于统一规范开发,支持Java/Python/C++/.NET/Go/NodeJs/PHP,使用方法可参考API Explorer。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能,但该
语音合成结果响应 音频流数据 时间戳数据 父主题: 实时语音合成响应
本地调用 本章节以语音合成为例,介绍如何使用SIS Python SDK在本地进行开发。 该SDK可以将用户输入的文字合成为音频。通过音色选择,自定义音量、语速,实现个性化音频的生成。 前提条件 注册华为账号并开通华为云,并完成实名认证,账号不能处于欠费、冻结、被注销等异常状态。
16k16bit单通道录音数据。 pcm8k16bit 8k16bit单通道录音数据。 ulaw16k8bit 16k8bit ulaw单通道录音数据。 ulaw8k8bit 8k8bit ulaw单通道录音数据。 alaw16k8bit 16k8bit alaw单通道录音数据。 alaw8k8bit
为音频转换结果生成特定的时间戳,从而通过搜索文本即可快速找到对应的原始音频。 智能断句 通过提取上下文相关语义特征,并结合语音特征,智能划分断句及添加标点符号,提升输出文本的可阅读性。 中英文混合识别 支持在中文句子识别中夹带英文字母、数字等,从而实现中、英文以及数字的混合识别。 即时输出识别结果
安全 责任共担 身份认证与访问控制 数据保护技术 服务韧性 监控安全风险
16k16bit单通道录音数据。 pcm8k16bit 8k16bit单通道录音数据。 ulaw16k8bit 16k8bit ulaw单通道录音数据。 ulaw8k8bit 8k8bit ulaw单通道录音数据。 alaw16k8bit 16k8bit alaw单通道录音数据。 alaw8k8bit
实时语音识别请求 实时语音识别工作流程 开始识别 发送音频数据 结束识别 父主题: 实时语音识别接口
12版本。 优先推荐使用新版SDK语音交互服务SDK,该SDK基于统一规范开发,支持Java/Python/C++/.NET/Go/NodeJs/PHP,使用方法可参考api-explorer、SDK开发指南。该SDK暂不支持websocket方法。 如果需要使用实时语音识别,可考虑使用表
华为云:负责云服务自身的安全,提供安全的云。华为云的安全责任在于保障其所提供的IaaS、PaaS和SaaS类云服务自身的安全,涵盖华为云数据中心的物理环境设施和运行其上的基础服务、平台服务、应用服务等。这不仅包括华为云基础设施和各项云服务技术的安全功能和性能本身,也包括运维运营安全,以及更广义的安全合规遵从。
nese_xiaoqi_common。具体信息请参见《API参考》中语音合成章节。 isSaved 否 Boolean 是否选择合成的音频数据保存到本地,默认不保存。 savePath 否 String 选择保存到本地的路径。路径需具体到文件,如D:/test.wav。 响应参数
确保已按照配置Python环境配置完毕,Python SDK仅支持Python3。 确保已存在待识别的音频文件。如果需要请在下载的SDK压缩包中获取示例音频。 该功能为1.70及以上版本SDK新增功能,使用前请检查并更新SDK版本。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化
基于WebSocket协议进行实时语音识别。 关闭WebSocket连接。 其中,基于WebSocket协议进行实时语音识别时,需要客户端首先发送转写开始消息,然后持续发送语音数据至服务端,最后发送结束消息,在此期间客户端会持续收到服务端发送的转写结果或事件,客户端根据所收到的响应消息做对应处理。实时语音识别接口的具体细节请参见接口说明章节。
th-4),实际业务代码中,调用api区域为华东-上海一(cn-east-3),调错区域,造成欠费。 图2 欠费案例 图3 欠费案例 查看及导出费用账单 登录SIS控制台后,单击左侧导航栏“套餐包 > 套餐包管理”,进入“费用中心 > 资源包”页面查看套餐包的用量,在“费用中心 >
出现错误响应时,如果已经在一个会话中了,会再发送一个“结束识别”的响应,表示识别会话结束。如果会话还没有开始,那么发送此错误响应后不做其它操作。此后的音频数据都被忽略,直到收到下一个“开始识别”请求。 响应消息 表1 响应参数 参数名 参数类型 说明 resp_type String 响应类型。参数值为ERROR,表示错误响应。
inue-stream 实时语音识别单句模式 WSS /v1/{project_id}/rasr/sentence-stream 发送音频数据 结束识别
16k16bit裸音频录音数据。 pcm8k16bit 8k16bit裸音频录音数据。 ulaw16k8bit 16k8bit ulaw 裸音频录音数据。 ulaw8k8bit 8k8bit ulaw 裸音频录音数据。 alaw16k8bit 16k8bit alaw 裸音频录音数据。 alaw8k8bit
Speech )功能。 入门使用 SIS以开放API的方式提供给用户,您可以参考《快速入门》学习并使用SIS服务。 使用方式 如果您是一个开发工程师,熟悉代码编写,想要直接调用SIS的API或SDK使用服务,您可以参考《API参考》或《SDK参考》获取详情。 由浅入深学习 您可以参考成长地图,由浅入深学习使用SIS。
inese_xiaoyan_common。具体信息请参见《API参考》中语音合成章节。 saved 否 Boolean 是否选择合成的音频数据保存到本地,默认不保存。 saved_path 否 String 选择保存到本地的路径,需要具体到音频文件,如D:/test.wav。 响应参数
audioDuration 否 Integer 提交音频时长,单位ms。 segments 否 Array of objects 识别结果, 多句结果的数组。 数据结构参见表5。 表5 Segment 参数名 是否必选 参数类型 说明 start_time 是 Integer 一句的起始时间戳,单位ms。