检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
speechRecognized的流式返回是覆盖式返回。后一条通知中的text字段值包含前一条通知的内容。例如:第一条通知的text值为“你吃”,第二条新识别了“饭了么”,则第二条text值为“你吃饭了么”。 semanticRecognized的流式返回是分段式返回。后一条通知中的text字段
2所示。 在“原始词”列输入原始内容。 在“新建读法”列,输入拼音后,从下拉框中选择正确的读音。如有多个字,需单击“+”号图标,依次输入各文字的拼音。 图2 新建词表 单击新增特殊词右侧的“确定”,新增成功。 如有更多特殊词,可参考上述步骤依次添加完成。添加完成后,将全局生效,无需在视频草稿中重复设置。
系统会对用户的提问音频进行检测,如果一句话末尾的静音时长超过500ms,会结束语音识别。 建议取值大于500ms。 热词 数字人与用户进行智能交互对话时,语音识别不准确的专业词汇,可以作为热词反馈到语音模型,以提高语音识别的准确率。 单击热词后面的问号图标,在提示框中单击“查看教程”,可以查看配置视频。
dio数字人</prosody> word标签 描述 <word></word>:设置选中文字为连读模式。选中文字只能包含文字,不能有标点符号或者空格等字符。 语法 1 <word>文字</word> 属性 无 标签关系 可以包含文本,不可以包含其他标签。 备注 1 <wor
fo 参数 类型 描述 text string 识别结果文本。 questionText string 问题文本。 resultId number 识别流式响应时返回的各包顺序序号。 isLast boolean 是否是最后一条识别结果。 chatId string 对话ID,每轮问答的ID值唯一。
结果返回操作。 将视频图片输入至算法模型中,将视频图像分割为面部、手部和身体三个区域。 使用深度学习算法,识别面部区域转化为面部表情,识别手部区域转化为手部骨骼驱动数据,识别身体转化为人体骨骼驱动数据。 对算法输出系数进行平滑处理及异常数据过滤,返回结果。 算法应用场景 数字人视
视频制作配置 限制 场景 一个视频草稿的场景数量不能超过50个。 文本驱动 每个单场景输入文字的数量不超过1万字。 所有场景输入文字的数量不超过10万字。 每个单场景如果包含语音合成标记语言SSML标签,文字数量需小于128K。 音频驱动 每个单场景上传音频的大小不超过100M。 视频格式
授权所进行的个人信息处理活动的效力。 权限 权限描述 使用目的 获取麦克风权限 获取浏览器的麦克风设备权限 开始语音交互时,用于进行语音识别文字,获取交互答案 对未成年人的保护 您承诺在您开始使用本服务时是成年人。如您是未成年人,则需要您的父母或监护人同意您使用本服务并同意相关服务条款。
应的系统权限并向用户告知征得其同意。 权限 权限描述 使用目的 获取麦克风权限 获取浏览器的麦克风设备权限 开始语音交互时,用于进行语音识别文字,获取交互答案 四、延迟初始化要求 为了避免您的应用在未获取用户的同意前SDK提前处理用户的个人信息。我们提供了智能交互任务创建接口cr
直播播放说明 直播内容审核说明 直播间配置约束 直播间配置限制,如表1所示。 表1 直播间限制 直播间配置 限制 文本驱动 每个单场景中所有段落输入文字的总量需大于200字。 每个段落的文本字符数量需小于2000,如果包含语音合成标记语言SSML标签,需小于3000。 整个直播间所有段落的
足够大家在室内共同交流和活动。 图1 文本驱动 文本内容的操作说明如表1所示。 表1 操作说明 操作 说明 插入停顿 将鼠标放在需要停顿的文字右侧,单击“插入停顿”。在弹出的提示框中,选择“换气”或者停顿的时间,也支持自定义停顿时长。 连读 选中需要连读的文本内容,单击“连读”。
所示。租户的项目ID必须与SP用户申请成为SP用户时,提供的项目ID所在Region保持一致。 租户名称:输入自定义租户名称,方便SP用户识别租户身份。 图2 关联租户 单击“创建”,租户创建完成,如图3所示。 图3 租户列表 如需取消关联,可单击右侧的“取消关联”,在弹出的“取
在段落的某个位置,插入换气或者停顿时间,也支持自定义停顿时长。 多音字 选中文字,设置多音字的正确读音。 全局语速 设置全局语速,取值范围[0.5X,2X]。设置为0.5X时,声音放慢至0.5倍速播放;设置为2X时,声音加速至2倍速播放。 助播 选中一段文字,设置为助播来播报这段内容。 全局声音(主播) 主
图4所示。 输入如下参数的值: 技能名称:技能名称。必须与科大讯飞创建的技能一一对应,如在科大讯飞创建同名技能后,导入技能文件所示。为方便识别和记忆,两边的技能名称可以设置成一样的。 技能标识:技能标识。必须与科大讯飞创建的技能标识,保持一致,如在科大讯飞创建同名技能后,导入技能
单击“应用配置”界面右上方的“保存修改”。 界面提示“保存成功”,说明应用配置页面的修改已生效。 配置热词。 展开“语音识别”下方的“高级设置”,如图9所示。 图9 应用配置 在“识别热词”区域,单击“下载热词模板”,将模板下载至本地。 本地打开模板文件,按照模板提示,输入需要添加的热词,示例如下所示:
定提醒等。 163. 家用机器人还具备语音识别和语音回应功能,让您能够与机器人进行流畅的对话和交流。 164. 视觉交互:家用机器人配备了先进的摄像头和视觉传感器,可以通过图像识别和视觉感知与您进行交互。 165. 例如,机器人可以识别家庭成员的面孔、手势和身体姿势,并做出个性化的反应和服务。
单击“应用配置”界面右上方的“保存修改”。 界面提示“保存成功”,说明应用配置页面的修改已生效。 配置热词。 展开“语音识别”下方的“高级设置”,如图15所示。 图15 应用配置 在“识别热词”区域,单击“下载热词模板”,将模板下载至本地。 本地打开模板文件,按照模板提示,输入需要添加的热词,示例如下所示:
TextLayerConfig 参数 是否必选 参数类型 描述 text_context 否 String 参数解释: 文字图层的文本,内容需做Base64编码。 示例:若想添加文字水印“测试文字水印”,那么text_context的值为:5rWL6K+V5paH5a2X5rC05Y2w 约束限制:
进去之后AI自动生成了一大段文字,基本不用修改,直接复制出来使用就可以。 下一个功能是文字语音互转,在新版本中我们新增很多音色。 基本上市面上听到的解说声音都可以在喵影找到,以刚刚AI生成的文案为例。 我们只需要复制这个文案添加到字幕轨道中,找到文字转语音的按钮,选择“电影解说”
单击“下一步”,进入“文档清洗”页面,如图5所示。 参数配置说明,如表1所示。 图5 文档清洗 表1 参数说明 参数 说明 分段设置 选择文字分段的方式。 包含如下选项: 自动分段:自动对文档进行分段处理。单击“自动分段”,“分段预览”区域会展示自动分段后的文本效果。 手动分段: