检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
体验。 智能教育 集成语音合成的教育系统可以实现中文标准朗读及带读,应用于课堂和学生自学,提升教学效率。 直播实时字幕 将视频直播或现场直播中的音频实时转为字幕,为观众提供更高效的观会体验,方便对直播内容进行监控。 会议实时记录 将视频或电话会议中的音频实时转为文字,可实时校核、修改及检索转写会议内容,提高会议效率。
如何修改发音人 修改代码中property的取值即可,支持的发音人如表1和表2所示。 POST https://{endpoint}/v1/{project_id}/tts Request Header: Content-Type: application/json X-Auth-Token:
建议在需要实时反馈的情况下100ms,不需要实时反馈的情况下500ms。实时语音识别代码示例请参考SDK文档。 当前SIS服务对于8k音频的分片大小限制为[160, 32768]字节, 16k音频的分片大小限制为[320, 65536]字节, 分片大小超出上限或低于下限会报错。
如何通过主账号创建一个子账号 语音交互服务服务不支持IAM细粒度划分策略,IAM账号与主账号具备相同的操作权限。 您可以使用IAM的用户管理功能,给员工或应用程序创建IAM用户,可避免分享自己的账号密码。详细创建步骤请参见创建IAM用户。 父主题: 权限类
模式”、“实时语音识别单句模式”三种模式。 三种模式的握手请求wss-URI不同,基于Websocket承载的实时语音识别请求和响应的消息格式相同。 开发者可以使用java、python、c++等开发语言支持Websocket的对应软件包或库接口,与实时语音识别引擎握手连接,并发
结束识别 功能介绍 对于识别中的对话,需要在Websocket上发送“结束识别”的请求来取消或结束识别。 "结束识别"请求使用文本类型的数据帧(text message)发送,命令和参数以json字符串的形式提供。 请求消息 表1 参数说明 参数名 是否必选 参数类型 说明 command
from the server报错。表示无法正常连接到SIS服务。 请先检查您的华为云账号是否已经进行了实名认证。 如果您的网络环境异常也会引发该报错,请确保您的网络连接正常,可以访问SIS服务。如果使用的是局域网或内部网络,请确保可以正常访问公网。 网络环境如果正常,请检查代码示
使用流程简介 用户通过调用SIS服务提供的API或SDK,进行语音转文本或语音合成任务,返回的结果需要您通过编码对接到业务系统中。 图1 使用流程
ogg-opus、AMR等多种格式,详见API参考文档中的“audio_format取值范围”。 语音时长不超过5小时,文件大小不超过300M,用户的识别任务在6小时内完成并返回识别结果,识别结果保存72小时(从转写完成的时间算起)。 支持中文普通话、四川话识别。 父主题: 约束与限制
一个Region中的多个AZ间通过高速光纤相连,以满足用户跨AZ构建高可用性系统的需求。 项目 华为云的区域默认对应一个项目,这个项目由系统预置,用来隔离物理区域间的资源(计算资源、存储资源和网络资源),以默认项目为单位进行授权,用户可以访问您账号中该区域的所有资源。如果您希望
mp3格式音频。目前仅支持单通道的音频。 aac aac格式音频。目前仅支持单通道的音频。 wav 带wav封装头的格式,从封装头中自动确定格式,目前仅支持8k/16k采样率、单通道、pcm, alaw, ulaw三种编码格式。 amr AMR窄带(8k) 压缩录音数据。目前仅支持单通道的音频。 amrwb
在使用语音交互服务过程中委托我们处理的语音音频和文本等数据,您完全拥有上述数据所有权及控制权,您应自行对上述数据来源和获取的合法性负责,华为云受托处理您的数据,以实现本服务功能或目的: (1)将语音音频数据识别转换成文本。 (2)将文本数据合成语音。 您的上述数据将在中华人民共和国境内
name指用户名称,domain name指用户所属的账号名称。如果是账号获取token,账号的user name和domain name相同。如果是IAM用户获取token(账号可以创建多个IAM用户),user name和domain name不相同,user name为实际的用户名称。 project
wrong or project_id doesn't match the token报错。 检查获取Token过程中,请求url中的区域信息与获取token请求体中的project name是否匹配。 父主题: 错误码类
开始识别请求响应 由于WebSocket是全双工的,因此响应就是从服务器端发送给客户端的消息,但也并不是所有的请求信息都有一条对应的响应。服务器端收到“开始识别”请求时,会给出如下响应消息,以json字符串形式放置在text message中。 响应消息 表1 响应参数 参数名 参数类型
终端节点 终端节点即调用API的请求地址,不同服务不同区域的终端节点不同。 目前语音交互服务一句话识别、录音文件识别支持以下地区和终端节点: 当前服务仅支持北京和上海区域,后续会陆续上线其他区域。 华北-北京四,推荐的区域,支持一句话识别、录音文件识别、实时语音识别、语音合成和热词等接口。
返回状态正常,但识别结果为空 一般由于格式不匹配造成的。请按照以下情况进行排查。 1. 请确保音频格式和请求格式参数保持一致,音频采样率和选择“property”参数中采样率保持一致。 2. 请确保音频位宽为16bit,目前仅支持16bit位宽的音频,如果低于该位宽的音频,则无法正常识别。 父主题:
Preferences -> Java -> installed JREs”配置正确的JRE路径。 新建工程,在工程下建立一个文件(New -> Folder),命名为lib。将下载的jar包拷贝至lib中。 选中新建的工程,单击右键,下拉选择“Build Path -> Configure
如果设置为0,表示不检测“长时间静音”情况。 取值范围:[0, 60000]的整数,单位为ms,默认为10000ms,即10s。 vad_tail 否 Integer 音频的结尾中的静音时间,正常情况下不应设成很小的值。 如果检测语音结尾的静音时长大于等于此值时,在实时语音识别单句模式下将返回VO
器下。 资源的价格 不同区域的资源价格可能有差异,请参见华为云服务价格详情。 如何选择可用区 是否将资源放在同一可用区内,主要取决于您对容灾能力和网络时延的要求。 如果您的应用需要较高的容灾能力,建议您将资源部署在同一区域的不同可用区内。 如果您的应用要求实例之间的网络延时较低,则建议您将资源创建在同一可用区内。