检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
每个单场景中所有段落输入文字的总量需大于200字。 每个段落的文本字符数量需小于2000,如果包含语音合成标记语言SSML标签,需小于3000。 整个直播间所有段落的文本总字符数,如果包含语音合成标记语言SSML标签时,需小于30万。 音频驱动 每个单场景上传音频的时长需大于1分钟,大小不超过100M。
在服务主界面,单击左侧导航栏中的“任务中心”。 查看“分身数字人”页签的数字人定制任务列表,找到被驳回的数字人定制任务。 任务状态为“审核未通过”。 单击任务右侧的“查看原因”,在弹出的“审核未通过”对话框中,查看审核未通过的原因。 按照规范重新录制或提供符合规范的视频。 单击任务右侧的“重新上传”,上传更新后的视频。
Flexus支持通过API集成使用吗? 支持,详见接口创建分身数字人模型训练任务的is_flexus字段。 父主题: API使用
本地解压工具包,得到ffmpeg目录和运行文件webm2mov.exe。 双击webm2mov.exe,弹出如图1所示的界面。 图1 工具运行界面 单击“选择webm文件”,选择WEBM格式的视频。 等待视频格式转换完成。请注意,视频格式转换过程中,一定不能关闭如图2所示的2个窗口。 图2 工具运行界面
形象拍摄指导文档下载 如需查看拍摄真人视频的PDF文件,请单击形象拍摄指导下载文件。 父主题: 形象制作
技能名称:技能名称。必须与科大讯飞创建的技能一一对应,如在科大讯飞创建同名技能后,导入技能文件所示。为方便识别和记忆,两边的技能名称可以设置成一样的。 技能标识:技能标识。必须与科大讯飞创建的技能标识,保持一致,如在科大讯飞创建同名技能后,导入技能文件所示。否则用户命中问题,也无法获取到对应的答案。 支持用户最多创建100个技能。
单击左侧导航栏中的“应用”,如图2所示。 参数配置说明如表1所示。 图2 创建应用 表1 创建应用 参数 说明 第三方应用 从下拉框中选择“奇妙问”。 应用名称 设置当前智能交互数字人应用的名称。 账号 注册奇妙问的账号,即用户注册奇妙问的手机号。 APPSECRET 输入用户在奇妙问创建
仅分身数字人动作自由度受限于采集视频的动作范围,综合对比数字人比真人成本低、效率高,且质量稳定。 数字人直播更真实、更沉浸 支持持物直播、实景直播、弹幕智能互动、真人随时接管,让数字人直播更真实、更沉浸。 支持数字人直播矩阵式管理,高级策略配置管理直播更灵活。 实时智能交互,提升客户满意度和品牌形象 开放的Web
大讯飞)。 出门问问的数字人平台对接至智能交互服务,开发者基于SDK完成web界面开发,操作请参考创建智能交互数字人(奇妙问)。 开发者自己提供LLM或者大模型,调用智能交互的文本驱动数字人能力。智能交互服务不感知用户自己的LLM或者大模型,只提供API接口和Web SDK。操作
js', initModel: true, }); 注意:如果未设置wasmPath和dataPath或设置的不对,会报类似下面的异常。 此时语音唤醒是无法正常使用的,需要将路径设置为正确的才行。 图1 异常报错 interactionModeSwitch (static) i
用户与数字人进行智能交互的页面,富媒体展示效果支持使用SDK提供的默认展示方式。 下述智能交互客户端SDK的两个方法的配置字段enableCaption,默认值均为False,即用户自定义富媒体的展示效果。如果需要使用SDK提供的默认展示效果,需修改参数enableCaption的值为true。
Safari浏览器 16.4+ 快速集成SDK 建议将下载的SDK压缩包放置在自己项目的“sdk”目录下。 在项目代码中引入“HwICSUiSdk”。 如果通过<script>方式引入SDK,则通过访问HwICSUiSdk获取导出的模块: <script src='./sdk/HwICSUiSdk
bsocket接口驱动数字人的方案,是不支持websdk内置语音唤醒能力的)。预制的唤醒能力支持使用“你好云笙”、“稍等一下”、“谢谢再见”三个唤醒词,进行数字人唤醒、打断和退出。 可以通过调用create接口,设置接口参数param中config里的enableLocalWakeup参数来开启Web语音唤醒能力。
Markup Language)标记语言。 需要使用的标签,如下所示: <speak>:此标签为所有文本的根节点。一切需要调用SSML标签的文本,都要包含在<speak> </speak>标记对中。 <emotion>:情感标签,对指定的一或多句话生效。标签开始在句子起始位置,标签结束在句子结尾。用法为:<emotion
修订记录 发布日期 修订记录 2024-07-09 新增PHP和Node.js语言SDK。 2023-06-30 第一次正式发布。
文本驱动:通过输入文本的方式生成音频。文本支持插入停顿、调整语速,如果是多音字可设置正确的发音,还可以选择不同的声音,试听生成的音频效果。支持开启字幕展示功能。 音频驱动:从本地上传音频文件,作为视频的语音。音频驱动方式,仅支持中文普通话的场景下能开启字幕。 还可以设置音频的音量,和调整画布的横竖屏展示。
用户Token。通过调用IAM服务获取用户Token接口获取,响应消息头中X-Subject-Token的值。 请求参数 表5、表6和表7中的请求参数为WebSocket建连成功后,用户与数字人对话的请求参数。 表5 请求Message参数 参数 是否必选 参数类型 描述 request_id
00020006 token和path中的projectId不匹配 token和path中的projectId不匹配 请检查使用的token和接口调用中的projectId是否为同一个用户项目 403 MSS.00020009 无效参数 非法参数 请检查接口文档和接口参数 403 MSS
资产管理 如何接收并激活声音和分身模型资产?
每句之间有2~3秒的停顿。音频时长3~10分钟,建议5分钟。 请完善声音信息 输入声音名称,示例:欢快女声。 请制作声音 使用“语料上传”的方式,直接上传一个已录制好的长音频WAV或MP3文件,无需压缩,无需携带文案txt文件。 请选择声音性别 选择声音的性别,示例:女生。 原始输入语言