检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
支持“华北-北京四”、“华东-上海一”区域。 当前语音服务仅支持北京和上海区域,后续会陆续上线其他区域。 华北-北京四,推荐的区域。 华东-上海一,推荐的区域。 支持wav、mp3、m4a、acc、opus格式音频文件。 语音时长不超过120分钟,文件大小不超过100M。 支持从华为云对象存储服务(OBS)
返回结果为json格式 print('成功创建热词表') print(json.dumps(create_result, indent=2, ensure_ascii=False)) # option 2 根据热词表id 更新热词表。新的热词表会替换旧的热词表。使用前需确保热词表id已存在。
测试音频如表 示例音频所示,音频文件标题表示采样率和位宽。如8k16bit.pcm表示音频采样率为8k,位宽为16bit。 表1 示例音频 音频格式 下载链接 mp3 https://sis-sample-audio.obs.cn-north-1.myhuaweicloud.com/16k16bit
测试音频如表 示例音频所示,音频文件标题表示采样率和位宽。如8k16bit.pcm表示音频采样率为8k,位宽为16bit。 表1 示例音频 音频格式 下载链接 mp3 https://sis-sample-audio.obs.cn-north-1.myhuaweicloud.com/16k16bit
行录音并保存为wav格式。 请参考SDK(websocket)获取最新版本SDK包。 初始化Client 初始化SASRClient,参数为AuthInfo,详见表1。 表1 AuthInfo 参数名称 是否必选 参数类型 描述 ak 是 String 用户的ak,可参考AK/SK认证。
实时语音识别工作流程 实时语音识别分为开始识别、发送音频数据、结束识别,断开连接四个阶段。 开始阶段需要发送开始指令,包含采样率,音频格式,是否返回中间结果等配置信息。服务端会返回一个开始响应。 发送音频阶段客户端会分片发送音频数据,服务会返回识别结果或者其他事件,如音频超时,静音部分过长等。
账号中存在语音合成服务的套餐,但是为什么却收到了欠费的信息 问题描述 账号中存在语音合成服务的套餐,但是为什么却收到了欠费的信息? 解决方案 如果是同一个区域的服务,存在套餐会先从套餐计费,超出套餐的部分才会按照按需计费。 请确认上述套餐和欠费服务否属于不同服务或者不同区域的。 父主题: 计费类
产品咨询类 什么是语音交互服务 支持哪些语言 语音合成后输出的音频格式是什么 是否支持离线使用 语音合成后能否返回播放时长 是否支持aac格式的语音文件转文字 如何查看当前接口是否免费调用
region,如cn-north-4 """ todo 请正确填写音频格式和模型属性字符串 1. 音频格式一定要相匹配. 例如wav音频,格式是auto。具体参考api文档。 例如音频是pcm格式,并且采样率为8k,则格式填写pcm8k16bit。
确保设置的audio_format格式的值是合法。录音文件识别支持的音频格式如表7所示。 确保待识别音频的格式和接口参数中设置的audio_format参数格式一致。 SIS.0536 录音文件识任务提交数量达到限制。 请稍后重试。 SIS.0537 录音文件太大。 请尝试减少文件大小,比如分割为多个。
与其他云服务的关系 SIS服务与周边其他服务的关系如图1所示。 图1 SIS与其他服务的关系图 统一身份认证服务 统一身份认证(Identity and Access Management,简称IAM)服务,IAM为语音交互服务提供了用户认证和鉴权功能。 对象存储服务 SIS服务接口支持从对象存储服务(Object
region,如cn-north-4 """ todo 请正确填写音频格式和模型属性字符串 1. 音频格式一定要相匹配。 例如wav音频,格式是wav。具体参考api文档。 例如音频是pcm格式,并且采样率为8k,则格式填写pcm8k16bit。
返回结果 状态码 请求发送以后,您会收到响应,包含状态码、响应消息头和消息体。 状态码是一组从1xx到5xx的数字代码,状态码表示了请求响应的状态,完整的状态码列表请参见状态码。 对于SIS服务接口,如果调用后返回状态码为“200”,则表示请求成功。 响应消息头 对应请求消息头,
audio_format取值 描述 wav wav格式音频 mp3 mp3格式音频 m4a m4a格式音频 aac aac格式音频 opus ops格式音频。 表5 property取值范围 property取值 描述 chinese_8k_common 支持采样率为8k的中文普通话语音识别。 chi
请正确填写音频格式和模型属性字符串 1. 音频格式一定要相匹配. 例如音频是pcm格式,并且采样率为8k,则格式填写pcm8k16bit。 如果返回audio_format is invalid 说明该文件格式不支持。具体支持哪些音频格式,需要参考一些api文档。
任务创建时间,遵循 RFC 3339格式。 格式示例:2018-12-04T13:10:29.310Z。 start_time 否 String 开始识别时间,遵循 RFC 3339格式。 当status为FINISHED或ERROR时存在。 格式示例:2018-12-04T13:10:29
-speex、ogg-opus、AMR等多种格式,详见API参考文档中的“audio_format取值范围”。 语音时长不超过5小时,文件大小不超过300M,用户的识别任务在6小时内完成并返回识别结果,识别结果保存72小时(从转写完成的时间算起)。 支持中文普通话、四川话识别。 父主题:
则在录音文件识别格式是auto。 * 例如音频是pcm格式,并且采样率为8k,则格式填写pcm8k16bit。 * 如果返回audio_format is invalid 说明该文件格式不支持。 * * 2. 音频采样率要与属性字符串的采样率要匹配。
alaw单通道录音数据。 mp3 mp3格式音频。目前仅支持单通道的音频。 aac aac格式音频。目前仅支持单通道的音频。 wav 带wav封装头的格式,从封装头中自动确定格式,目前仅支持8k/16k采样率、单通道、pcm, alaw, ulaw三种编码格式。 amr AMR窄带(8k)
Programming Interface,应用程序编程接口)获取语音交互结果。例如用户通过语音识别功能,将口述音频、普通话或者带有一定方言的语音文件识别成可编辑的文本,同时也支持通过语音合成功能将文本转换成逼真的语音等提升用户体验。适用场景如语音客服质检、会议记录、语音短消息、有声读物、电话回访等。