检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
风格化照片建模生成的模型文件是什么格式? 风格化照片建模生成Glb格式的模型文件。 父主题: 照片建模
使用Java代码生成文件内容的MD5值 生成文件内容的MD5值对应的Java代码示例,如下所示: import java.io.BufferedInputStream; import java.io.FileInputStream; import java.io.IOException;
在画布区域,设置角色、背景、贴图、视频等内容。 详细操作请参见视频制作素材操作详情。 画布制作完成后,再制作语音。 选择“文本驱动”的方式。在文本输入框中,输入文本内容,以生成音频,如图2所示。 文本示例:今天是9月26日,星期二,天气晴朗,欢迎大家到访。我们精心布置了现场,室内摆
下面,我们为您详细介绍家用机器人在交互创新方面的功能和特点: 162. 语音交互:您只需向机器人发出语音指令,就可以实现各种功能,如查询信息、播放音乐、设定提醒等。 163. 家用机器人还具备语音识别和语音回应功能,让您能够与机器人进行流畅的对话和交流。 164. 视觉交互:家用
3D数字人 3D数字人风格管理 3D数字人风格化照片建模 3D数字人语音驱动 3D数字人视频驱动
subtitle_file_state String 字幕文件生成状态。 GENERATING:字幕文件生成中。 GENERATE_SUCCEED:字幕文件生成成功。 GENERATE_FAILED:字幕文件生成失败。 job_id String 字幕文件生成任务ID。 表28 BackgroundMusicConfig
应用示例 示例1:分身形象制作管理 示例2:声音制作任务管理 示例3:语音合成管理 示例4:视频制作 示例5:视频制作剧本管理 示例6:视频直播 示例7:视频直播对接实时音视频客户端SDK 示例8:资产管理 示例9:数字人名片制作 示例10:智能交互
String 自我介绍驱动方式。 TEXT: 文本驱动,即通过TTS合成语音。文本驱动需要填写introduction_text和voice_asset_id参数。 AUDIO: 语音驱动,需要在资产库中先上传语音资产。语音驱动需要填写introduction_audio_asset_id参数。
TextLayerConfig 参数 是否必选 参数类型 描述 text_context 否 String 参数解释: 文字图层的文本,内容需做Base64编码。 示例:若想添加文字水印“测试文字水印”,那么text_context的值为:5rWL6K+V5paH5a2X5rC05Y2w 约束限制:
script_id 否 String 剧本ID。 sequence_no 否 Integer 剧本序号。 说明: 剧本序号不填生成所有场景的字幕;如果需要生成单场景的字幕,需要填剧本序号。 取值范围: 0-2147483647 响应参数 状态码: 200 表4 响应Header参数
String 自我介绍驱动方式。 TEXT: 文本驱动,即通过TTS合成语音。文本驱动需要填写introduction_text和voice_asset_id参数。 AUDIO: 语音驱动,需要在资产库中先上传语音资产。语音驱动需要填写introduction_audio_asset_id参数。
TextLayerConfig 参数 参数类型 描述 text_context String 参数解释: 文字图层的文本,内容需做Base64编码。 示例:若想添加文字水印“测试文字水印”,那么text_context的值为:5rWL6K+V5paH5a2X5rC05Y2w 约束限制:
0-2147483647 subtitle_file_state String 字幕文件生成状态。 GENERATING:字幕文件生成中。 GENERATE_SUCCEED:字幕文件生成成功。 GENERATE_FAILED:字幕文件生成失败。 subtitle_file_download_url String
音频制作区域,可选择下述1种方式生成音频。 文本驱动:通过输入文本的方式生成音频。文本支持插入停顿、调整语速,如果是多音字可设置正确的发音,还可以选择不同的声音,试听生成的音频效果。支持开启字幕展示功能。 音频驱动:从本地上传音频文件,作为视频的语音。音频驱动方式,仅支持中文普通话的场景下能开启字幕。
play_pause:数字人暂停剧本播放,并保持静默状态。 play_resume:数字人恢复剧本播放。 voice_start:启动数字人实时语音播放。 voice_end:结束数字人实时语音播放。 “timing”为直播控制指令执行的时间,取值如下所示: NOW:立即执行指令。 SENTENCE_END:
用于制作数字人名片的图片下载URL。 introduction_type String 自我介绍驱动方式。 TEXT: 文本驱动,即通过TTS合成语音 AUDIO: 语音驱动,需要在资产库中先上传语音资产 默认取值: TEXT introduction_text String 自我介绍文本,用于驱动数字人口型。 voice_asset_id
TextLayerConfig 参数 是否必选 参数类型 描述 text_context 否 String 参数解释: 文字图层的文本,内容需做Base64编码。 示例:若想添加文字水印“测试文字水印”,那么text_context的值为:5rWL6K+V5paH5a2X5rC05Y2w 约束限制:
参数解释: 图片显示时长,单位s。 显示时长规则为,若携带reply_texts、reply_audios,则与播放语音内容时长保持一致。若未携带,则与匹配的关键词语音内容时长保持一致。 取值范围: 0-3600 默认取值: 0 表12 SmartVideoLayerConfig 参数
subtitle_file_state 否 String 字幕文件生成状态。 GENERATING:字幕文件生成中。 GENERATE_SUCCEED:字幕文件生成成功。 GENERATE_FAILED:字幕文件生成失败。 job_id 否 String 字幕文件生成任务ID。 表23 OutputAssetConfig
speakingStart 数字人开始讲话事件。 speakingStop 数字人结束讲话事件。 speechRecognized ASR对提问进行语音识别后输出为文本的事件。 semanticRecognized LLM对提问进行语义识别后输出回复文本的事件。speechRecogniz