检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
选择“抠除拍摄背景”,制作分身数字人视频时,可以替换背景。 身份认证及授权数据上传 联系方式 请输入有效的11位手机号码。 身份证照片 需要分别上传身份证人像面和国徽面的照片。 单击“点击上传人像面”,从本地选择身份证人像面照片上传。 单击“点击上传国徽面”,从本地选择身份证国徽面照片上传。 形象授权
启字幕展示功能。 音频驱动:从本地上传音频文件,作为视频的语音。音频驱动方式,仅支持中文普通话的场景下能开启字幕。 还可以设置音频的音量,和调整画布的横竖屏展示。 4 视频场景区域 如果一个视频包含多场景,可以新增场景依次制作,顺序播放。 5 文件设置区域 从左往右依次为: 单击
个人信息处理规则 合规使用指南 HwICSUiSDK 参见表2下载链接 华为云计算技术有限公司 SDK如何处理个人信息请参见SDK隐私声明 您集成和使用我们的SDK时需要遵从个人信息保护基本要求,详情请参见SDK合规使用指南。 表2 Web SDK下载 版本 日期 下载链接 sha256码
如果还需要制作多场景,可以单击直播画面预览窗口右侧“场景1”小窗口下方的“+”图标,新增场景,并参考前一个场景,设置生成下一个场景的画面布局和剧本内容。 图9 直播间界面 所有场景的画面布局和剧本设置完成后,单击界面右侧的“互动设置”页签,如图10所示。 图10 互动设置 单击“导入”,弹出“导入互动”对话框。
操作步骤 登录MetaStudio控制台,单击“智能交互”,如图1所示。 图1 MetaStudio控制台页面 在智能交互编辑页面,依次设置角色和背景。 单击左侧导航栏中的“应用”,如图2所示。 参数配置说明如表1或表2所示。配置完成后,还需下载并集成智能交互Web SDK,详细操作请参考智能交互SDK。
在“所有项目”中设置权限,则该权限在所有区域项目中都生效。访问MetaStudio时,需要先切换至授权区域。 权限根据授权精细程度分为角色和策略。 角色:IAM最初提供的一种根据用户的工作职能定义权限的粗粒度授权机制。该机制以服务为粒度,提供有限的服务相关角色用于授权。由于各服务
含MAIN、COVER和OTHER 资产类型为PPT时,包含MAIN、COVER、PAGE和OTHER 资产类型为HUMAN_MODEL时,包含MAIN、COVER和OTHER 资产类型为VOICE_MODEL时,包含MAIN、SAMPLE(样例音频文件)和OTHER 资产类型为
语音文件和文本文件逐句上传:每次上传一句语料的语音文件和文本文件,再调用“确认在线录音结果”接口确认语音和文本内容是否一致。确认成功后再上传和确认下一句。 文件上传后,调用“提交语音训练任务”接口,启动审核和训练。 调用方法 请参见如何调用API。 URI POST /v1/{project_id}/voice-
<speak></speak>:SSML文本的根节点。 语法 1 <speak>这里输入SSML标签的文本</speak> 属性 无 标签关系 <speak>可以包含文本和标签,包括<break>、<phoneme>、<say-as>、<sub>标签。 break标签 描述 <break/>:在任意位置插入静音停顿。
语音文件和文本文件逐句上传:每次上传一句语料的语音文件和文本文件,再调用“确认在线录音结果”接口确认语音和文本内容是否一致。确认成功后再上传和确认下一句。 文件上传后,调用“提交语音训练任务”接口,启动审核和训练。 调用方法 请参见如何调用API。 URI POST /v1/{project_id}/voice-
选择“使用系统回复”或者“自定义”。如果选择“自定义”,需要输入自定义的回复内容;如果选择“使用系统回复”,均已预置回复内容,不支持编辑和修改。 图12 人设信息配置页面 人设信息设置完成后,单击界面右上方的“构建”。界面提示“构建成功”,说明人设新增完成。 回到“我的应用 >
introduction_type 否 String 自我介绍驱动方式。 TEXT: 文本驱动,即通过TTS合成语音。文本驱动需要填写introduction_text和voice_asset_id参数。 AUDIO: 语音驱动,需要在资产库中先上传语音资产。语音驱动需要填写introduction_audio_asset_id参数。
introduction_type 否 String 自我介绍驱动方式。 TEXT: 文本驱动,即通过TTS合成语音。文本驱动需要填写introduction_text和voice_asset_id参数。 AUDIO: 语音驱动,需要在资产库中先上传语音资产。语音驱动需要填写introduction_audio_asset_id参数。
20次/秒 10次/秒 10次/秒 修改知识库意图 4次/秒 3次/秒 3次/秒 删除知识库意图 4次/秒 3次/秒 3次/秒 创建知识库意图和问法 4次/秒 3次/秒 3次/秒 智能交互数字人知识库问法管理 创建知识库问法 4次/秒 3次/秒 3次/秒 查询知识库问法列表 20次/秒
约束限制: 该字段无需填写。 取值范围: 字符长度0-1024位。 默认取值: 不涉及。 dh_id String 参数解释: 数字人ID。对应形象和音色组合。 约束限制: 该字段暂未启用,无需填写。 取值范围: 字符长度0-64位。 默认取值: 不涉及。 model_asset_id String
该字段无需填写。 取值范围: 字符长度0-1024位。 默认取值: 不涉及。 dh_id 否 String 参数解释: 数字人ID。对应形象和音色组合。 约束限制: 该字段暂未启用,无需填写。 取值范围: 字符长度0-64位。 默认取值: 不涉及。 model_asset_id 否
分身数字人训练任务标签。 model_version 否 String 分身数字人模型版本。默认是V3.2版本模型。 V3.2:V3.2版本模型 说明: V3和V2版本已废弃不用 取值范围: 0-64 默认取值: V3.2 is_flexus 否 Boolean 是否是基础版的形象训练 默认取值: false
is_realtime_voice 否 Boolean 参数解释: 该音色是否支持实时合成。 约束限制: 支持实时合成的音色,可以用于直播和智能交互场景。否则只能用于视频制作。 取值范围: true: 支持实时合成 false: 不支持实时合成 默认取值: true style 否
分身数字人训练任务标签。 model_version String 分身数字人模型版本。默认是V3.2版本模型。 V3.2:V3.2版本模型 说明: V3和V2版本已废弃不用 取值范围: 0-64 默认取值: V3.2 matting_type String 抠图类型。默认是AI。 AI:AI抠图
objects 图层配置。 表12 TextConfig 参数 参数类型 描述 text String 参数解释: 台词脚本。支持两种模式,纯文本模式和标签模式。 纯文本模式:使用方法,如“大家好,我是人工智大家,是个虚拟主播”。 标签模式:SSML标签的详细定义请参考文本驱动SSML定义。