检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
使用系统预置或自定义的数字人形象、声音,制作音视频直播内容。 可通过下述方式,在直播平台开播。 RTMP直推方式,即华为云MetaStudio直接把画面传输给第三方直播平台,需从直播平台获取推流地址。如果直播平台无法提供推流地址,可通过窗口捕获方式开播。 智能交互 对接第三方大脑,通过数
用于制作数字人名片的图片下载URL。 introduction_type String 自我介绍驱动方式。 TEXT: 文本驱动,即通过TTS合成语音 AUDIO: 语音驱动,需要在资产库中先上传语音资产 默认取值: TEXT introduction_text String 自我介绍文本,用于驱动数字人口型。 voice_asset_id
startChat新增入参,参考表15,用来设置交互模式(语音问答/文本问答)。 新增接口activeInteractionMode、interactionModeSwitch、sendTextQuestion,用来获取和设置当前交互模式(语音问答或文本问答),以及发送问题文本。 2024-10-08
参数解释: 图片显示时长,单位s。 显示时长规则为,若携带reply_texts、reply_audios,则与播放语音内容时长保持一致。若未携带,则与匹配的关键词语音内容时长保持一致。 取值范围: 0-3600 默认取值: 0 表12 SmartVideoLayerConfig 参数
is_inheritance_platform_callback 否 Boolean 参数解释: 是否继承直播平台回调配置,默认true 约束限制: 不涉及。 取值范围: true:继承直播平台callback配置 false:不继承直播平台callback配置 默认取值: false 默认取值: false 表32
它可以帮助您更轻松地完成各种任务,为您带来更便捷、舒适和智能的生活体验。 家用机器人内置了丰富的功能和应用,能够满足您多样化的需求。 它可以与您的家居设备无缝对接,让您通过语音控制,轻松完成各种家务活动。 家用机器人是您生活中的最佳助手,它为您带来了更为智能、便捷和舒适的生活体验。 这样的智能生活体验,不仅让您的
参数解释: 图片显示时长,单位s。 显示时长规则为,若携带reply_texts、reply_audios,则与播放语音内容时长保持一致。若未携带,则与匹配的关键词语音内容时长保持一致。 取值范围: 0-3600 默认取值: 0 表15 SmartVideoLayerConfig 参数
每个单场景中所有段落输入文字的总量需大于200字。 每个段落的文本字符数量需小于2000,如果包含语音合成标记语言SSML标签,需小于3000。 整个直播间所有段落的文本总字符数,如果包含语音合成标记语言SSML标签时,需小于30万。 音频驱动 每个单场景上传音频的时长需大于1分钟,大小不超过100M。
进入视频制作界面,界面详情如图1所示。 图1 视频制作界面 在画布区域,设置角色、背景、贴图、视频等内容。 详细操作请参见视频制作素材操作详情。 画布制作完成后,再制作语音。 选择“文本驱动”的方式。在文本输入框中,输入文本内容,以生成音频,如图2所示。 文本示例:今天是9月26日,星期二,天气晴朗,欢迎大家
剧本封面下载url。 script_type String 脚本类型,即视频制作的驱动方式。默认TEXT TEXT: 文本驱动,即通过TTS合成语音 AUDIO: 语音驱动 text String 台词脚本。 create_time String 创建时间,格式遵循:RFC 3339 如"2021-01-10T08:43:17Z"。
VDS_3D:3D视觉驱动 TTSA_3D:3D语音驱动 FLEXUS_2D:flexus版本资源 sub_resource_type String 子资源类型。当前只有flexus套餐包存在该字段 voice_clone_flexus: 语音克隆Flexus版 modeling_co
将技能文件下载至本地,待后续使用。 图6 导出技能 在科大讯飞创建同名技能后,导入技能文件 执行本操作前,需要在科大讯飞平台完成账号注册操作。 访问科大讯飞的AIUI开放平台。 单击界面上方的“技能工作室”。进入“技能控制台”页面,如图7所示。 图7 技能控制台 单击“创建技能”,弹出如图8所示的对话框。
文本驱动,即通过TTS合成语音 AUDIO: 语音驱动 默认取值: TEXT text_config TextConfig object 讲解词配置。 audio_drive_action_config Array of AudioDriveActionConfig objects 语音驱动时的动作配置。
否 String 参数解释: 脚本类型,即视频制作的驱动方式 约束限制: 不涉及 取值范围 TEXT: 文本驱动,即通过TTS合成语音 AUDIO: 语音驱动 默认取值: TEXT text_config 否 TextConfig object 讲解词配置。 audio_drive_action_config
否 String 参数解释: 脚本类型,即视频制作的驱动方式 约束限制: 不涉及 取值范围 TEXT: 文本驱动,即通过TTS合成语音 AUDIO: 语音驱动 默认取值: TEXT text_config 否 TextConfig object 讲解词配置。 audio_drive_action_config
如果是多音字可设置正确的发音,还可以选择不同的声音,试听生成的音频效果。支持开启字幕展示功能。 音频驱动:从本地上传音频文件,作为视频的语音。音频驱动方式,仅支持中文普通话的场景下能开启字幕。 还可以设置音频的音量,和调整画布的横竖屏展示。 4 视频场景区域 如果一个视频包含多场景,可以新增场景依次制作,顺序播放。
400 MSS.47010202 语音唤醒SDK资源不存在 语音唤醒SDK资源不存在 确保语音唤醒SDK资源在OBS桶中存在且信息正确 400 MSS.47010203 当前会话无充足的语音唤醒通道资源 当前会话无充足的语音唤醒通道资源 确保有足够的语音唤醒通道资源 400 MSS.47010204
model_infos ModelInfo object 数字人模型信息 voice_config VoiceConfig object 语音配置参数。 说明: *此参数将被废弃,请使用voice_config_list。 concurrency Integer 参数解释: 并发路数。
SP用户限制 表1 限制说明 限制项 说明 开放范围 SP用户仅对大客户开放申请和使用。 功能范围 SP用户仅支持购买大颗粒度资源包,并分配资源给关联租户使用。 SP用户不支持访问MetaStudio控制台,进行控制台操作。 父主题: 使用限制
基本不用修改,直接复制出来使用就可以。 下一个功能是文字语音互转,在新版本中我们新增很多音色。 基本上市面上听到的解说声音都可以在喵影找到,以刚刚AI生成的文案为例。 我们只需要复制这个文案添加到字幕轨道中,找到文字转语音的按钮,选择“电影解说” 这个配音,点击进行转换,然后稍作等待,大家就能听到熟悉的声音。