检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Python SDK包,并进行解压缩。 PyCharm中导入SIS Python SDK。 在PyCharm中新建一个项目,打开解压后的SDK包。 修改代码中的认证信息,并填写待合成文本。 表1 参数说明 参数名称 描述 ak、sk 登录访问密钥界面,选择“管理访问密钥 > 新增访问密钥”获取。访问密钥为credentials
projectId 是 String 项目ID,同region一一对应,参考获取项目ID。 请求参数 请求类为SASRConfig和语音数据data,详见表2。 表2 SASRConfig 参数名称 是否必选 参数类型 描述 config 是 Config object 配置信息。
在OBS“桶列表”页,单击创建的OBS桶。 图2 进入OBS桶 进入“对象”页面,将音频数据上传至OBS桶中。 图3 上传视频数据 获取音频URL 单击已上传的数据名称,进入数据详情页。 图4 进入数据详情页 复制链接,获取数据URL。 图5 获取数据URL 父主题: 附录
16k16bit单通道录音数据。 pcm8k16bit 8k16bit单通道录音数据。 ulaw16k8bit 16k8bit ulaw单通道录音数据。 ulaw8k8bit 8k8bit ulaw单通道录音数据。 alaw16k8bit 16k8bit alaw单通道录音数据。 alaw8k8bit
SDK调用一句话识别服务的样例,帮助用户快速了解如何使用Java SDK调用华为云SIS服务。具体操作如下所示: 步骤1:配置环境 步骤2:修改配置信息 步骤3:调用一句话识别 准备工作 注册华为帐号并开通华为云,并完成实名认证,帐号不能处于欠费或冻结状态。 操作须知 语音交互服务
表示是否在识别结果中输出分词结果信息,取值为“yes”和“no”,默认为“no”。 first_channel_only 否 String 表示是否在识别中只识别首个声道的音频数据,取值为“yes”和“no”,默认为“no”。 obs_bucket_name 否 String 表示在OBS对象桶名,使用前请先授权,操
# 创建热词时,需要保证name在此之前没有被创建使用过。如 test1 word_list = list() # 用于存放热词表。每个热词表最多可以存放10000个热词。如["计算机", "网络"] vocabulary_id = '' # 用于更新指定热词表id信息,查询
调用成功表示识别出的置信度,取值范围:0~1。 word_info 否 Array of objects 分词信息列表。 表6 Word_info 数据结构 参数名 是否必选 参数类型 说明 start_time 否 Integer 起始时间 end_time 否 Integer 结束时间
15.html // auth info // 认证用的AK和SK硬编码在代码中或明文存储都有很大安全风险,建议在配置文件或环境变量中密文存放,使用时解密,确保安全。 DEFINE_string(ak, "", "access key"); DEFINE_string(sk, ""
语音合成后能否返回播放时长 不能,当前语音合成无此参数。若需要知道语音时长,可以将返回语音数据解码转换成音频格式,播放后查看。 父主题: 产品咨询类
语音合成后输出的音频格式是什么 语音合成后返回一组Base64编码格式的语音数据,用户需要用编程语言或者sdk将返回的Base64编码格式的数据解码成byte数组,再保存为wav格式的音频。 语音合成(Text To Speech ,TTS服务)服务的音频格式则根据接口中audi
com/api-sis/sis_03_0051.html // 认证用的AK和SK硬编码在代码中或明文存储都有很大安全风险,建议在配置文件或环境变量中密文存放,使用时解密,确保安全。 DEFINE_string(ak, "", "access key"); DEFINE_string(sk, ""
/rasr/sentence-stream' # endpoint和project_id需替换 audio_path = '音频路径' token = '用户对应region的token' header = { 'X-Auth-Token':
16k16bit单通道录音数据。 pcm8k16bit 8k16bit单通道录音数据。 ulaw16k8bit 16k8bit ulaw单通道录音数据。 ulaw8k8bit 8k8bit ulaw单通道录音数据。 alaw16k8bit 16k8bit alaw单通道录音数据。 alaw8k8bit
实时语音识别工作流程 实时语音识别分为开始识别、发送音频数据、结束识别,断开连接四个阶段。 开始阶段需要发送开始指令,包含采样率,音频格式,是否返回中间结果等配置信息。服务端会返回一个开始响应。 发送音频阶段客户端会分片发送音频数据,服务会返回识别结果或者其他事件,如音频超时,静音部分过长等。
需设置为START,表示开始识别请求。 text String 是 待合成的文本,文本长度限制小于500字符。 config Object 否 配置信息。请参考表 config数据结构。 表4 Config 名称 参数类型 是否必选 说明 audio_format String 否 语音格式头:pcm、alaw、ulaw。
目前置信度作用不是太大,请勿过多依赖此值。 word_info Array of Object 分词输出列表。 表8 Word_info 数据结构 参数名 是否必选 参数类型 说明 start_time 否 Integer 起始时间 end_time 否 Integer 结束时间
目前置信度作用不是太大,请勿过多依赖此值。 word_info Array of Object 分词输出列表。 表8 Word_info 数据结构 参数名 是否必选 参数类型 说明 start_time 否 Integer 起始时间 end_time 否 Integer 结束时间
private List<String> hotWordList = new ArrayList<>(); // 用于存放热词表,每个热词表最多存放10000个热词。如["计算机", "网络"] /** * 定义config,所有参数可选,设置超时时间等。
本SDK所依赖的三方库包含 - openssl - jsoncpp - websocketpp - glog - gflags - boost 依赖库均以源码形式存放在SDK根目录,SDK默认是开启所有依赖库安装,即运行cmake命令时,SDK会默认安装这些依赖库。 如果您在系统中已安装其中一些库,如o