检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
模型审核和制作可以加快吗? 为了保证模型质量,确保素材符合拍摄要求,训练前素材会经过人工审核。原则上不支持催审和加速,请耐心等待。模型审核制作耗时详情,如表1所示。 表1 模型制作耗时 模型类型 制作耗时 声音模型 声音模型制作耗时,如下所示: 基础版:约1~3个工作日。 进阶版:约1~3个工作日。
风格化照片建模生成的模型文件是什么格式? 风格化照片建模生成Glb格式的模型文件。 父主题: 照片建模
voice_properties 否 VoiceProperties object 声音配置信息,为Flexus版声音的配置项,标准版声音不支持此配置。 supported_service 否 Array of strings 该任务所生成的模型支持的业务类型,可多选。 Flexus版数字人仅支持选择“VIDEO_2D”。
如何接收并激活声音和分身模型资产? 管理员或其他租户如果推送声音或分身模型资产给当前租户,当前租户需在7天内完成接收和激活操作。如果超过7天未操作,需要管理员或其他用户重新推送资产给当前租户。 声音和分身模型资产的接收、激活操作均相同,下面以分身模型资产的接收、激活操作为例演示。
更新分身数字人模型训练任务 功能介绍 该接口用于更新分身数字人模型训练任务。用于在自动审核或者人工审核不通过情况下,更新训练视频、身份证照片等。 该接口只能在AUTO_VERIFY_FAILED或者MANUAL_VERIFY_FAILED状态下调用 调用方法 请参见如何调用API。
声音和形象模型支持在其他平台使用吗? 用户在MetaStudio制作的模型,仅支持在本服务内使用。 声音和数字人模型文件不支持导出和下载,且声音和数字人模型不是通用模型,不与第三方服务兼容。 父主题: 声音和形象制作
声音和形象模型和音视频内容的关系? 声音制作、形象制作和Flexus形象制作得到的模型为模型资产,需要通过视频制作、视频直播和智能交互生成音视频内容,详见功能特性。 声音制作:录制真人声音,建模生成声音模型。 形象制作:拍摄形象采集视频,建模生成数字人形象。 视频制作:使用系统预
删除分身数字人模型训练任务 功能介绍 该接口用于删除分身数字人模型训练任务。同时需要删除训练任务相关的训练视频、身份证照片、授权文件、模型资产等。 该接口应当在任务处于以下状态时调用:WAIT_FILE_UPLOAD、AUTO_VERIFY_FAILED、MANUAL_VERIF
在科大讯飞平台创建应用(星火交互认知大模型) 在科大讯飞AIUI开放平台,创建星火交互认知大模型的应用。 星火交互认知大模型应用,不支持直接切换为AIUI通用语义模型。因为已配置内容不适用,建议参考在科大讯飞平台创建应用(AIUI通用语义模型)单独为其创建应用。 详细操作如下所示
时用户已经可以使用模型) JOB_FINISH: 任务结束,是最终状态,不支持修改此状态(NA用户任务的完成状态,并且此状态表明模型效果已通过用户的验收) 挂起,仅NA白名单用户有该状态 JOB_PENDING: 挂起任务 asset_id String 模型资产ID。 project_id
租户执行分身数字人模型训练任务命令 功能介绍 该接口用于租户执行分身数字人模型训练任务命令,如提交训练审核等。 调用方法 请参见如何调用API。 URI POST /v1/{project_id}/digital-human-training-manage/user/jobs/{job_id}/command
创建智能交互数字人(第三方语言模型) 创建智能交互数字人 父主题: 智能交互
时用户已经可以使用模型) JOB_FINISH: 任务结束,是最终状态,不支持修改此状态(NA用户任务的完成状态,并且此状态表明模型效果已通过用户的验收) 挂起,仅NA白名单用户有该状态 JOB_PENDING: 挂起任务 asset_id String 模型资产ID。 project_id
在科大讯飞平台创建应用(AIUI通用语义模型) 在科大讯飞AIUI开放平台,创建AIUI通用语义模型的应用。 AIUI通用语义模型应用,不支持直接切换为星火交互认知大模型。因为已配置内容不适用,建议参考在科大讯飞平台创建应用(星火交互认知大模型)单独为其创建应用。 详细操作如下所示
创建声音制作任务(自研模型) MetaStudio已经预置了各种类型的声音,可以在视频制作界面或视频直播界面查看。如果预置声音仍无法满足用户需求,可使用自研模型自定义生成声音。 操作限制 MetaStudio不支持个人用户定制声音,仅支持企业用户。 定制声音时,从平台下载的授权书
兰语、荷兰语、西班牙语、印尼语、阿拉伯语、葡萄牙语、泰语。 须知:当前参数配置仅作为标识,对训练结果没有任何影响。 请选择输出模型语言 选择输出的声音模型支持的语言。 支持如下语言: 多语种:输出的声音模型,支持合成的语言类型包括中文、英文、德语、法语、土耳其语、菲律宾语、日语、
算法基本原理 分身数字人驱动算法是指通过深度学习生成数字人驱动模型,模型生成后,输入音频来合成数字人视频的一种技术。 其基本情况包括: 输入数据:真人视频、音频。 算法原理:通过深度学习算法来学习真人视频,生成驱动该真人形象的数字人模型。通过该模型输入音频,合成数字人视频。 输出结果:数字人视频。
示“热词”配置。 数字人与用户进行智能交互对话时,语音识别不准确的专业词汇,可以作为热词反馈到语音模型,以提高语音识别的准确率。这里仅开启热词功能,实际的热词配置,请参见对话配置。 SIS委托站点 仅开启“委托语言交互服务(SIS)”后,才会展示“SIS委托站点”配置。 从下拉框
业场景应用。 主要功能如下所示,详见功能特性。 数字内容生产线Metastudio通过AI学习真人形象和声音,来生成数字人模型,相应功能为形象制作、声音制作和Flexus分身数字人。再将模型用于音视频内容的创作,相应功能为视频制作、视频直播和智能交互,主要是生成画面内容。也可以直
录制真人声音,建模生成声音模型。 声音模型可为数字人配音,生成音视频内容,应用于视频制作、视频直播和智能交互,或生成数字人名片和照片数字人。 须知: 制作好的声音模型不支持下载或导出至本地。 声音模型不是通用模型,不与第三方服务兼容。用户在MetaStudio制作的模型,仅支持在本服务内使用。