检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
质量。通过减少对人力的依赖,使教育机构可以将更多精力投入到创新和教学内容的优化上,从而实现更高效的教育体系。 医疗健康 医学科普是近年来政策倡导的一大方向。通过医学科普,对改善已患病人群的术后身心健康等问题起着关键作用。以视频形式为患者提供诊前、诊中、诊后的医学科普服务,加强患者
录制? 大部分相机内置麦克风的录制效果也能满足我们对声音的要求。我们对声音的清晰度可以有适度的妥协,但请务必保证底噪不能太大,且不能有其他人声出现,尤其是被拍摄模特正在说话的时候。 模特形象 分身数字人不支持替换衣服,因此,您在录制时的着装会决定您的数字人穿着。 在拍摄前,我们建议参照如下条目,对您的形象进行检查。
设置完成后,单击“生成视频”,弹出如图2所示的对话框,显示照片数字人视频的生成进度。 可执行下述操作: 单击图中第一个链接“任务中心-视频”,可进入“任务中心 > 照片数字人”页面,查看任务进度,详情请参见查看任务。 单击图中第二个链接“我的创作-视频”,可进入“我的创作 > 视频”界面,查看已生成的视频,详情请参见查看视频。
SDK概述 数字人智能交互SDK是基于数字内容生产线服务提供的能力进行封装,以简化用户的开发工作。用户直接调用智能交互Web SDK提供的接口,即可实现使用数字人智能交互业务能力的目的。 智能交互提供了如下主流平台SDK供开发者使用。 表1 客户端SDK 客户端 集成SDK 接口参考
数字内容生产线Metastudio通过AI学习真人形象和声音,来生成数字人模型,相应功能为形象制作、声音制作和Flexus分身数字人。再将模型用于音视频内容的创作,相应功能为视频制作、视频直播和智能交互,主要是生成画面内容。也可以直接通过静态的人脸照片生成视频,对应功能为照片数字人。 父主题: 产品咨询
dio服务进行结算。 资源有效期 套餐包从订单付款成功后的生效时间开始计费,请在有效期内使用套餐包中的资源。按需付费则按照资源的实际使用情况进行计费,无有效期的限制。 资源包的“到期时间”可以在MetaStudio控制台的服务概览页面查看,如图1所示。 图1 资源列表 续费 数字内容生产线续费说明,如下所示:
窗口捕获方式开播。 智能交互 对接第三方大脑,通过数字人交互的方式与用户进行问答。场景应用广泛,包括智能导购、文旅导览、智能问答、营业厅客服等。 注意: 数字人回答的内容,是由对接的第三方大模型或知识库返回的答案决定的。 资产管理 支持从本地上传模型、PPT、动画、素材、视频、场景、图片、音乐等资产。
合成视频二次剪辑后,数字人口型效果变差? 需要检查二次剪辑软件的视频帧率。因为数字人合成视频的帧率为25,如果用户使用软件的帧率为30,需要插帧至数字人视频中,才能达到30,这样就导致插帧后的口型对不上了。所以用户对视频进行二次剪辑时,帧率必须设置为25的整数倍,才不会影响数字人的口型效果。 父主题: 视频制作
PREPROCESSING:MetaStudio直播服务启动加载形象模型的状态。 PLAY_READY:形象模型加载完成的状态。此时数字人处于静默状态,等待开始播放剧本的指令。 PROCESSING:数字人的工作状态。数字人会根据直播任务中预置的文本或音频进行直播。 PLAY_PAUSE:数字人直播
查看视频 如果用户需要查看已生成的照片数字人视频,可参考本节操作。 操作步骤 登录MetaStudio控制台。 在左侧导航栏中,单击“我的创作”。 选择“视频”页签,如图1所示。 在“视频”页面,可以看到已生成的视频列表,以卡片形式排列展示。 支持对视频进行如下操作: 单击播放图标,播放照片数字人视频。
开发者论坛 开发者如果在使用MetaStudio数字内容生产线时有任何问题,可以在华为云开发者云社区的“数字内容生产线”板块提问。 父主题: 开发者论坛
前提条件 需要申请开通智能交互权限后,才可以使用分身数字人智能交互功能。 智能交互对硬件设备的最低配置要求,如智能交互使用限制所示。 与数字人智能交互的界面,对浏览器的要求,如智能交互使用限制所示。 父主题: 智能交互
如果用户需要查看已生成的分身数字人名片,可参考本节操作。 操作步骤 登录MetaStudio控制台。 在左侧导航栏中,单击“我的创作”。 选择“分身名片”页签,如图1所示。 在“分身名片”页面,可以看到已生成的名片列表,以卡片形式排列展示。 支持对名片进行如下操作: 单击,查看分身数字人的语音表达形态。
声音和形象模型支持在其他平台使用吗? 不支持。声音和数字人模型文件不支持导出和下载,且声音和数字人模型不是通用模型,不与第三方服务兼容。用户在MetaStudio制作的模型,仅支持在本服务内使用。 父主题: 声音和形象制作
Markup Language)标记语言。 需要使用的标签,如下所示: <speak>:此标签为所有文本的根节点。一切需要调用SSML标签的文本,都要包含在<speak> </speak>标记对中。 <emotion>:情感标签,对指定的一或多句话生效。标签开始在句子起始位置,标签结束在句子结尾。用法为:<emotion
单独上传语料包:单独录制音频文件,需要单击下方的“点击上传音频文件”,上传音频。 音频格式支持WAV、MP3,单段音频时长1~5分钟,建议1分钟。语料中的语言仅支持中文和英文。 视频中提取声音:直接提取训练视频中的声音,训练生成Flexus声音。 视频中的语言仅支持中文和英文。 须知:“单独上传语料包”的方式生成Flexus声音的效果会更好。
标准版数字人可以用实景拍摄吗? 可以,详见拍摄真人视频中的“实景数字人拍摄要求”。 使用实景拍摄,不支持抠图和更换背景,后期使用数字人会一直带着拍摄的背景。只有绿幕素材后续可以更换背景,蓝幕也不支持更换背景。 父主题: 声音和形象制作
在服务主界面,单击左侧导航栏中的“任务中心”。 查看“分身数字人”页签的数字人定制任务列表,找到被驳回的数字人定制任务。 任务状态为“审核未通过”。 单击任务右侧的“查看原因”,在弹出的“审核未通过”对话框中,查看审核未通过的原因。 按照规范重新录制或提供符合规范的视频。 单击任务右侧的“重新上传”,上传更新后的视频。
字,单段落不多于2000字的要求。 段落1.1:大家好,今天欢迎来到会议室,我们今天讨论的主题是:如何更好的学习和工作。 段落1.2:我们每个人都有自己的学习和工作,难免会遇到一些问题。当我们遇到问题的时候,应该如何解决的呢? 图2 文本驱动 文本内容的操作说明如表1所示。 不同
Flexus支持通过API集成使用吗? 支持,详见接口创建分身数字人模型训练任务的is_flexus字段。 父主题: API和SDK使用