检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
通过API上传的视频和图片素材,为啥视频制作时不可见? 通过API上传的图片和视频,如果在视频制作时不可见,是因为上传资产时未设置system_properties属性,如下所示: 资产类型是IMAGE时,通过system_properties来区分背景图片(BACKGROUND
如何调用MetaStudio接口? MetaStudio提供RESTful API和Java/Python/Go三种语言的SDK。API调用请参考《API参考》,SDK集成请参考API Explorer中的“代码示例”。 父主题: API和SDK使用
如何调用MetaStudio接口? MetaStudio提供RESTful API和Java/Python/Go三种语言的SDK。API调用请参考《API参考》,SDK集成请参考API Explorer中的“代码示例”。 父主题: FAQ
创建知识库意图和问法 功能介绍 该接口用于创建知识库意图和问法。一个意图包含一个主题,一个答案,若干个问法等。 调用方法 请参见如何调用API。 URI POST /v1/{project_id}/digital-human-chat/knowledge/intent-question
作任务接口未配置image_config参数。详细说明如下所示: 使用创建分身数字人视频制作任务接口插入视频素材时,“layer_type”会配置为视频素材图层即“VIDEO”,并配置视频素材图层配置项video_config。此时还需配置图片素材图层image_config,通
API和SDK使用 如何获取项目ID? 如何调用MetaStudio接口? Flexus支持通过API集成使用吗? 为什么调用API时提示“APIG.0301”? 使用API时返回“APIGW”开头的错误码,该如何处理? 智能交互SDK从哪里下载? 通过API合成的视频封面为什么看不到插入的视频素材缩略图?
图层大小配置。 image_config ImageLayerConfig object 素材图片图层配置。 video_config VideoLayerConfig object 素材视频图层配置。 text_config TextLayerConfig object 素材文字图层配置。
TextLayerConfig 参数 是否必选 参数类型 描述 text_context 否 String 参数解释: 文字图层的文本,内容需做Base64编码。 示例:若想添加文字水印“测试文字水印”,那么text_context的值为:5rWL6K+V5paH5a2X5rC05Y2w 约束限制:
2所示。 在“原始词”列输入原始内容。 在“新建读法”列,输入拼音后,从下拉框中选择正确的读音。如有多个字,需单击“+”号图标,依次输入各文字的拼音。 图2 新建词表 单击新增特殊词右侧的“确定”,新增成功。 如有更多特殊词需要配置自定义读法,可参考上述步骤依次添加完成。添加完成
成3D数字人表情和肢体驱动数据的一种技术。 其基本情况包括: 输入数据:语音音频数据。 算法原理:通过深度学习算法,提取语音音频中的特征,并转化为表情驱动的表情基系数。 输出结果:表情基系数。 应用领域:应用于3D数字人文本和语音驱动场景,包括:短视频制作、直播和交互等。在特定场
Flexus形象和一个Flexus声音,所以也需要提供音频。 单独上传语料包:单独录制音频文件,需要单击下方的“点击上传音频文件”,上传音频。 音频格式支持WAV、MP3,单段音频时长1~5分钟,建议1分钟。语料中的语言仅支持中文和英文。 视频中提取声音:直接提取训练视频中的声音,训练生成Flexus声音。
在文本输入框中,输入文本内容,以生成音频,如图1所示。 文本示例:今天是9月26日,星期二,天气晴朗,欢迎大家到访。我们精心布置了现场,室内摆放了各类植物和鲜花,场地宽敞明亮,足够大家在室内共同交流和活动。 图1 文本驱动 文本内容的操作说明如表1所示。 不同声音模型对表1中操作的支持情况有差异,所以如果表1中操作项
一个视频制作剧本的场景数量不能超过50个。 一个视频制作剧本,仅支持使用一个数字人模型和一个音色模型。 文本驱动 每个单场景输入文字的数量不超过1万字。 所有场景输入文字的数量不超过10万字。 每个单场景如果包含语音合成标记语言SSML标签,文字数量需小于128K。 音频驱动 每个单场景上传音频的大小不超过100M。
虚拟人物,它具有拟人或真人的外貌、行为特点,并具备一定的智能和情感,可以进行交互和表达。数字人也可以被称之为虚拟形象、数字虚拟人、虚拟数字人等。数字人的核心技术主要包括计算机视觉、计算机图形学、动作捕捉和驱动、图像渲染和人工智能等。 服务型数字人:利用深度神经网络进行图像合成、高度拟真的虚拟人。
Github地址 参考文档 JAVA huaweicloud-sdk-java-v3 Java SDK使用指导 Python huaweicloud-sdk-python-v3 Python SDK使用指导 Go huaweicloud-sdk-go-v3 Go SDK使用指导 PHP hu
HumanModel2DAssetMeta object 分身模型元数据 image_meta 否 ImageAssetMeta object 图片元数据 video_meta 否 VideoAssetMeta object 视频元数据,自动提取获得。 audio_meta 否 AudioAssetMeta
分身模型元数据 image_meta ImageAssetMeta object 图片元数据 video_meta VideoAssetMeta object 视频元数据,自动提取获得。 audio_meta AudioAssetMeta object 音频元数据,自动提取获得。 表30
MOV、FLV、3GP、WMV和AVI。 说明: 在直播间制作界面,如果添加视频,且视频格式为FLV、3GP、WMV、AVI时,无法展示视频播放效果,仅能图片展示。这是浏览器不兼容导致的,但是不影响直播效果。直播过程中,这些插入的视频可以正常播放和展示。 视频要求如下所示: 分辨率最大支持1080P。
分身模型元数据 image_meta ImageAssetMeta object 图片元数据 video_meta VideoAssetMeta object 视频元数据,自动提取获得。 audio_meta AudioAssetMeta object 音频元数据,自动提取获得。 表6
分身模型元数据 image_meta ImageAssetMeta object 图片元数据 video_meta VideoAssetMeta object 视频元数据,自动提取获得。 audio_meta AudioAssetMeta object 音频元数据,自动提取获得。 表8